בעקבות ההשראה שקיבלתי מהקריאה בהגדה בליל הסדר, ובהמשך לפוסט של שליו בן ארי על אחד עשרה המכות של הבלוגרים, החלטתי ליצור גרסה משלי לעניין המכות רק בהקשר לעולם ה-SEO. אז איזה מכות כבר יכולות להיות בעולם קידום האתרים? הדבר הראשון שקפץ לי לראש זה Black Hat וספאם. בואו נודה בזה, לא משנה מהי רמת התחכום של המהנדסים בגוגל, כל נושא הספאם יישאר נושא כאוב לטיפול. וגם אם המענה נמצא, הספאמר תמיד נמצא צעד אחד קדימה.
אז להלן עשרת המכות הנפוצות ביותר מהם גוגל “סובל” מדי יום:
1. מיסוך – Cloaking
מיסוך מתייחס להצגת מידע שונה לגולש ממה שמנועי החיפוש רואים (מהמילה “מסך”). למעשה אתה בתור גולש יכול להגיע לדף אינטרנט HTML רגיל ולקרוא בו תוכן, בזמן שישנם חלקי תוכן נוספים שאינך יכול לראות משום שהוסתרו (טקסט וקישורים). הדרך ההפוכה היא להגיש למנועי החיפוש דף HTML קריא בזמן שהגולש יראה דף בפלאש או תמונות. 2 שימושים נוספים של מיסוך הם: זיוף PageRank ויצירת מסגרת frame 100% – מכיוון שגוגל לא סורק מסגרות ניתן לשים בעמוד כלשהו מסגרת שתתפוס את כל הגודל של הדף ובתוכה להציג תוכן שונה. כך למעשה ניתן במספר דפים באתר להציג את אותו התוכן לגולש בזמן שמנועי החיפוש יראו דפים שונים.
ההנחייה של גוגל היא לא להגיש למנועי החיפוש תוכן שונה, אלא לדאוג לכך שיהיה “קריא” יותר באמצעות: תגיות Alt לתמונות, שימוש בתגי noscript tag במקרים של Javascript ועוד. להרחבה, אני ממליץ לקרוא עוד על קידום אתרי פלאש בגוגל.
2. חוות קישורים – Link Farms
הטכניקה הזו מאד נפוצה בארץ, בעיקר בגלל שהנושא לא נאכף כראויי באלגוריתם של גוגל ישראל. אז איך זה עובד? יוצרים קבוצת אתרים שמקושרים ביניהם באמצעות חוקיות מסויימת וכך ניתן לקדם ביטויי מפתח רבים. השיטה הזו אומנם קיימת משנת 1999 אך עדיין לא נמצא עבורה מענה יעיל, זאת משום שעם השנים החוות הפכו למתוחכמות יותר. אם בעבר אנשים היו מנהלים את אופרציית הקישורים בין האתרים בחווה, הרי שהיום ניתן למצוא תוכנות בשוק שיוצרות את האתרים, מקשרות ביניהם ומתחזקות אותם על בסיס יומי. בניגוד למספר טכניקות Black Hat שעבורן ניתן להיענש קליל, הרי שאם גוגל עולה על חוות קישורים הוא יכול למחוק את כל האתרים שפועלים בה מהאינדקס שלו. במקום זה, יש דרכים יותר לגיטימיות להשיג קישורים חיצוניים.
3. דפי כניסה – Doorway/Bridge Pages
באמצעות מניפולציה זו יוצרים הרבה דפים דלי תוכן ולכל דף כזה עושים אופטימיזציה למילת מפתח אחת. המטרה היא למשוך כמה שיותר גולשים ממנועי החיפוש וכאשר ייכנסו לדף לגרום להם לעבור לדף אחר. איך נגרום להם לעבור? נגרום להם להקליק על קישור מעבר, באמצעות הפניית שרת, סוגי של Sneaky Redirects (סוג של הפניה עם השעייה של מספר שניות), שימוש ב- JavaScript ואפילו הגדרת קובץ htaccess בהתאם. גם במקרה הזה, בדומה לחוות קישורים, יש תוכנות שיכולות לייצר תוך זמן קצר יחסית דפי כניסה (על סמך מילוי טופס אחד בלבד). כמה נוח, כך בעצם אפשר ליצור הרבה דפים שיקודמו תחת הרבה ביטויים, אך בסופו של דבר הגולש יגיע לדף אחד בלבד. למרות הפיתוי והנוחות שזה מקנה, יש כאן פוטנציאל למחיקת הדף מהאינדקס ולא רק ענישה בדירוג. זאת מכיוון שגוגל מעוניין לספק לגולש את התוכן הרלוונטי ביותר ולא דף ש”הותאם” להיות רלוונטי.
4. שפכול תוכן – Duplicate Content
אני לא מדבר על שכפול תוכן קלאסי של copy+paste אלא על דרכים מתוחכמות ליצור תוכן מתוך תוכן קיים כך שייחשב ייחודי כגון: אלגוריתם מארקוב, וריאציות תרגום, פיזור לפי חוקיות מסוימת ועוד. ניתן באמצעות שיטות אלו להקים אתר שייצר תוכן בצורה אוטומטית, לקדם אותו במילים מסוימות ולשתול בו מודעות אדסנס (אתרים מהסוג הזה נקראים Scraper sites). לרוב מכיוון שהתוכן שנוצר ע”י מכונה או אלגוריתם הוא אינו קריא במיוחד, גולשים ירצו לעזוב את האתר מהר, לכן הפוטנציאל של ההקלקה על מודעות האדסנס גבוה מאד. אז נכון ששכפול תוכן לא מוגדר בתור Black Hat כלל וגוגל.קום יודע להתמודד עם זה לא רע, אבל יש מספר דוגמאות שציינתי בעבר אותם יותר קשה לזהות ועדיין גורמות לגוגל צרות כל פעם מחדש.
5. אתר מראה – Mirror Websites
כאן זה כבר סוג של שכפול תוכן מאסיבי – פשוט לוקחים אתר שלם ומעתיקים אותו כפי שהוא, עם כל התוכן, לדומיין אחר. בדרך כלל כאשר יוצרים קלונים לאתר המטרה היא לסייע בהגדלת ה-Pagerank והדירוגים שלו. האמת שזה קצת מבלבל, מצד אחד אומרים שהמקרה של אולג’ובס היה בגלל אתר מראה (מה שגרם להסרה זמנית שלהם מתוצאות החיפוש), מצד שני אני מכיר כרגע מספר אתרים (גדולים) שעושים זאת ונכון לכתיבת שורות אלו הם מדורגים לא רע בכלל. נתקלתי בהרבה אתרי מראה שניסו להסוות זאת ע”י שינוי העיצוב והלוגו, בתקווה שזה יגרום למנועי החיפוש לאבחן אותם בתור אתרים נפרדים. אך לשווא. מה שקובע אם אתר הוא מראה זה התוכן בלבד ולא המראה החיצוני.
6. טקסט וקישורים בלתי נראים – Hidden Text and Links
טקסט בלתי נראה כשמו כן הוא, זהו טקסט שמופיע בדף אך אינו נראה לאיני הגולש בגלל שנצבע בצבע הרקע. רבים משתמשים בטקטיקה הזו על מנת להוסיף לדף מילות מפתח או קישורים, בתקווה שזה יוכל לסייע לקדם את הדף (או דפים אחרים אליהם מקשרים). קל מאד לאבחן זאת, פשוט מסמנים את כל התוכן בדף באמצעות Ctrl+A ומגלים תוכן שלא היינו יכולים לראות.
הסיפור מתחיל להסתבך כשמשתמשים בטכניקה דומה שקשורה להסתרת תוכן, אך בה משתמשים בתמונה במקום טקסט. איך זה עובד? מה שיש לעשות זה להוסיף בדף תמונה שתהיה בצבע הרקע (ברוב המקרים לבן) ולשים בתגית ה-Alt שלה את מילות המפתח שרוצים “לדחוף”. כך למעשה כותבים את הטקסט כמו שרוצים, מבלי להתאים אותו לצורך קידום מונח מסויים ופשוט בחלקים שונים בדף שמים את התמונות עם הביטויים הרצויים. ספציפית לגבי הטכניקה הזו אני לא יודע אם גוגל מאבחן אותה בצורה כלשהי, מכיוון שמדובר בתמונה ואין באפשרותו להבין מה יש בה (תגית ה-Alt היא האינדיקציה היחידה). אך אולי אני טועה ואם אתם מכירים את הנושא אשמח לקבל פידבק. כמו כן, ניתן גם להשתמש בתמונה בצבע רקע בתור לינק עם תגית Alt ואז זה גם סוג של קישור בלתי נראה.
7. דחיסת מילים Keyword Stuffing
אחת הסיבות שבגללן מנועי החיפוש כבר לא מייחסים חשיבות לתגי ה-Meta היא דחיסת מילות מפתח. הדוגמא הבולטת היא הוספת מאות מילות מפתח בתגת ה- meta keywords בתקווה שגוגל יחשוב שהאתר רלוונטי בכל 200 מילות המפתח וידרג בהתאם. ומה קורה עם המתחרה שלך גם כן שם את אותם המילים? זה אומר ששניכם רלוונטיים באותה המידה? בכל מקרה, זה לא החזיק מים לאורך זמן ולפני מספר שנים הפך להיות פסה. אז איך דחיסת המילים ממשיכה לבוא לידי ביטוי עד היום? בכל מני דרכים:
- שימוש בתגי Noscript בצורה ספאמית, רק לצורך דחיפת מילות מפתח בכמויות גדולות, יכולה להיות בעייתית אם יגיע לאתר בודק אנושי. אחרת, סביר להניח שזה בסדר.
- טקסט וקישורים בלתי נראים לגולש שמבקר בדף משום שנצבעו בצבע הרקע (ראה סעיף 6).
- שימוש ב- z-index בקוד ה-CSS כדי למקם טקסט מאחורי תמונות או absolute position כדי להרחיקו מהמרכז.
גם צפיפות מילות מפתח מוגזמת מהרגיל היא סוג של דחיסה. רבותיי, כשאתם רואים Title בו כתוב: “קידום אתרים בגוגל | קידום אתרים במנועי חיפוש | קידום אתרים באינטרנט | קידום אתרים מקצועי” – זה Keyword stuffing מובהק ולא משנה מה ההסבר שתקבלו.
8. “חטיפת” עמוד\אתר – Page Hijacking
זוהי טכניקה שמנצלת את האופן שבו מנועי החיפוש מפרשים אינטראקציה בין השרת לגולש. הטכניקה למעשה מאפשרת “לחטוף” עמוד כלשהו או אתר שלם, ולהציג במקומו דפים אלטרנטיביים בתוצאות החיפוש האורגניות (serps). הספאמר יוצר תמרון על תוצאות החיפוש באמצעות הפניית שרת 302, אשר גורמת להחלפת הכתובת המקורית לכתובת שהוא בוחר. כך שכאשר הגולש יחפש את האתר המקורי, הוא יראה במקומו את האתר המזוייף שאינו קיים במציאות (וירטואלי) מכיוון שגוגל הבין שזהו האתר המקורי. מדוע זה קורה? משום ש-302 היא הפנייה זמנית ולכן כאשר אתר X מפנה עם הפניה זמנית לאתר Y מכך נובע שכביכול אתר X הוא המקורי ולא הפוך. ההדגמה הבאה תמחיש כיצד בעבר ניתן היה לזהות זאת בתוצאת החיפוש.
נניח שיש אתר המספק מידע על צימרים וניתן למצוא אותו במקום הראשון תחת “צימרים לזוגות בצפון”. נקרא לו אתר X. כך הוא יופיע בתוצאות האורגניות:
אתר הצימרים בצפון
מגוון צימרים ומקומות בילוי למשפחה בצפון.
www.examplezimmer.co.il
בחברה המתחרה יושב לו איזה ספאמר שחושק בביטויי ורוצה להשתלט עליו כי הוא יודע שהביטויי מביא הרבה תנועה. כעת הוא יקים אתר שנראה בדיוק כמו האתר הזה עם כתובת דומה (נקרא לו אתר Y), ויגדיר סקריפט מיוחד שיפנה את הגולש מתוך אתר Y אל אתר X (הפנייה 302). כמובן שיוגדר בקובץ robots.txt (הקובץ שמסביר לבוטים איזה דפים לאנדקס ואיזה לא) שמותר לאנדקס את האתר. כעבור מספר שבועות גוגל יבין שאתר Y הוא המקורי (משום שהוא זה שמפנה בהפנייה זמנית לאתר X) ולכן יחליף אותו בתוצאות החיפוש לצורה הבאה:
אתר הצימרים בצפון
מגוון צימרים ומקומות בילוי למשפחה בצפון, במחירים זולים.
www.examplezimmer.net
—הצג תוצאות דומות—
שימו לב להבדל בסיומות של שני האתרים וללינק “תוצאות דומות” שהתווסף מתחת לאתר המזוייף בתוצאה החדשה. כאשר הגולש יקליק על האתר בתוצאה החדשה הוא יגיע לאתר המזוייף ואילו האתר המקורי נמצא בתוך “התוצאות הדומות”.
9. סחר בפייג’ראנק – Selling Links that Pass PageRank
יש רשתות אתרים שלמות שמגלגלות הרבה כסף מסחר בקישורים לצורך הגדלת ה-Pagerank בלבד. אותן רשתות מאפשרות לכל אתר שמצטרף לחפש אתרים על פי נושאים, מדד הפייג’ראנק הרצוי ותקציב נתון. כדאי מאד להיזהר משום שאתרים ורשתות מהסוג הזה לפעמים מבקלים עונשים קולקטיביים על מכירת קישורים, בגלל שזה פוגע באמינות תוצאות החיפוש.
10. שאילתות אוטומטיות – Automated Queries
מי שבעיקר עושים שימוש בשאילתות אוטומטיות שנשלחות לגוגל הם תוכנות SEO למיניהן. אלו תוכנות שמבצעות אנליזה על תוצאות החיפוש (בדיקת מיקומים, מעקב אחר מתחרים וכו’) ובכדי להישאר עדכניות הן חייבות לשלוח שאילותות בצורה עצמאית. גוגל טוענים שיש צורך לקבל אישור בצורה מפורשת לפני הפצת תוכנה מהסוג הזה, משום שעומסים כאלו יכולים לגרום לנזק רב הן לחברה והן למשתמשים בשירותי החיפוש. אז לפני שאתם רוכשים תוכנה מבטיחה שכולם מדברים עליה, הייתי מציע לבדוק אם יש לה אישור מפורש מגוגל לביצוע שאילתות אוטומטיות, כי חבל שתוך מספר חודשים השירות יסגר והכסף שלכם לא יוחזר (לרוב אפשר למצוא על זה מידע בדף האודות שלהם).
שימוש נוסף בשאילתות אוטומטיות הינו הגשות אוטומטיות למנועי החיפוש. קל לזהות שירותים ותוכנות שמספקות את השירות, לרוב תופיע בעמוד הבית שלהן כותרת שתראה ככה: “רוצה להוסיף את האתר שלך ליותר מ-100 אינדקסים ומנועי חיפוש תמורת 10$ בלבד?”.
מכירים דוגמאות נוספות?
יש כמובן עוד הרבה שיטות קידום לא אתיות, טכניקות ספאם או סתם דברים שמקשים על גוגל ביום יום, אך אני מניח שעשרת הדברים שציינתי הם הנפוצים ביותר. מכירים טכניקות נוספות שספאמרים משתמשים בהם? יצא לכם לקרוא על טכניקת Black Hat חדשה? ובכלל – מה לדעתכם קריטי יותר וקריטי פחות ממה שציינתי?
עדכון: פורסם ב- nana10