במהלך השנה האחרונה גורמים שונים בגוגל הסבירו את החשיבות שבטעינת דפים מהירה וגם אלגוריתם הצגת התוצאות עצמו עודכן כך שיכניס את הנתון הזה כפרמטר בשקלול (ראו גם את המדריך שלנו – כיצד ליצור עמודים סופר מהירים).
עם זאת, לא רבים יודעים שבסוף חודש מאי פרסם אחד ממהנדסי התוכנה של גוגל בשם סיארן או’ריורדן דוח מפורט, המסתמך על הנתונים הממוצעים של 4.2 ביליון דפים ששימשו כקבוצת מבחן. בבדיקה זו נלקחו בחשבון גם תמונות, סקריפטים וקבצי סגנון (CSS) שהוטמעו בעמוד (נראה כי בבדיקה לא נכללו קטעי וידאו).
בין הנתונים המעניינים:
- עמוד ממוצע שוקל כ-320 קילובייט.
- רק 2/3 מחלקי העמוד שיכולים לעלות בצב מכווץ, הם אכן כאלו.
- כ-80% האתרים משתמשים בממוצע בשבעה מקורות אחסון ייחודים (Hostnames) על מנת להציג את התכנים שלהם.
- רק 17 מיליון דפים השתמשו בתקן SSL.
בכיר אחר בגוגל, אורס הולצלה, הוסיף כי העמוד הממוצע נטען תוך 4.9 שניות ומשתמש בארבעים וארבעה משאבים שונים (כלומר,מבצע אליהם קריאות).
מספר דגשים מעניינים נמצאים דווקא בפרטים הטכניים המסבירים כיצד נאספו הנתונים באמצעות גוגלבוט. אתרים מסוימים חסמו חלק מהקבצים באמצעות קובץ robots.txt, אתרים אחרים הציגו לגוגלבוט את הנתונים בצורה לא מכווצת (למעשה כך פעלו עד לאחרונה השרתים של גוגל עצמה, ולא – הפעם לא מדובר במיסוך). בנוסף, כל מידע מיוחד שנשלח אך ורק לדפדפנים מסוימים (לדוגמה , אקספלורר) היה בלתי נראה בעת הסריקה.
ולסיום, אולי הנתון המפתיע ביותר: במהלך הדגימה ניתנה עדיפות לדפים מסוימים לפי מדדים שונים, אבל המדד היחיד שצוין בשמו היה ה- Pagerank הוותיק. האם מוקדם עדיין להספיד את אחד האייקונים המזוהים ביותר עם החברה (ושכבר מצא את דרכו החוצה מכלי ניהול האתרים)?