понедельник, 29 октября 2007 г.

PR апдейт - прикладная конспирология

[emigrant-kz]

Вся SEO сфера обсуждает  гуловский апдейт и его "странности" .  Не могу молчать - вставлю и свои пять копеек.

1.Много  вопросов вызвало массовое снижение PR ( как правило на 1 ) "старых заслуженых сайтов, с котрыми ничего не делали".  Строятся разнообразные теории … и т.д. Мыслю - "гугловские злоумышления против аптимизаторов"  в данном случае не при делах а имеет место самая обыкновенная инфляция PR чисто математического происхождения, .

Напомню,что означает PR. По какому бы внутреннему алгоритму ни ранжировали страницы и сайты в итоге  получается конечное множество  чисел(равное числу проранжированых страниц)   от 0 до некоего " Х = ОЧЕНЬ БОЛЬШОЕ ЧИСЛО". Скорее всего, внутри  он так и хранится - компу так просто удобнее.А для внешнего представления   стандартным образом линейная шкала значения индекса переводится в логарифмическую а потом нормируется, так, чтобы она влезла в интервал  0-10.  Дальше идет простейшее округление до ближайшего целого  - и все разнообразие внутренних рангов спроецировано на 10 цифр.

Число сайтов стремительно растет, растут и возможности гугля по индексации. Вероятно Х выросло очень сильно. А нормирование в интервал 0-10 осталось. Вот вся шкала и "просела" - даже на логарифмичесой шкале этого могло хватить , чтобы из 4, 51 (округляется до PR5) сдвинуться до 4,49 ( а это уже PR4) . Желающие могут легко сделать модельку в Exel и поиграться.

2.Недоумение (хотя и приятное) вызвал неожиданно быстрый рост PR  у многих новых проектов. Я воспользовался старым   правилом ( хотя им обычно пренебрегают) - прежде чем искать тайный заговор прочитай выступления официальных лиц и официальные документы. Часто ответ там просто написан.

В последнее время официальные лица говорили примерно следующее ( цитаты  искать влом) . Целью Гугля является подбор наиболее релевантных результатов поиска в реальном времени. Одним из способов предполагется "динамическое вычисление ранга страниц" Хотя вычислительные мощности Гугля растут стремительно, совсем уж "реального времени" пока не получается. Тем не менее - обработка страниц стала происходить много быстрее. Как по своим наблюдениям , так и по сообщениям других  - даже само попадание нового сайта в индекс может происходить за несколько дней, а после этого новые страницы появляются в течение нескольких часов (ну это , если гугльбота правильно приглашать :) ) Потому новые сайты и быстро наращивают позиции . (Особенно это заметно в сравнении с неповороливой Яхой и "рЮски Тындекс")

К тому же  давно объявлено ( и экспериментально замечено)  - Гугль любит новый и уникальный контент. Во первых - улучшились алгоритмы выделения новизны и уникальности. Во вторых - и просто  на новых сайтах обычно за контеном следят и и откровенного гавнопастинга меньше. 

Есть еще одно предположение (но только мое личное) -  могла  повысится значимость страницы в отдельных языковых  разделах ( т.е PR начал дробиться по языкам) - аномальный рост был , судя по обсуждениям, в основном в русском сегменте . В этом случае  рост PR -  это еще и  классическая дефляция (обратная описному в п 1.)

3. И чисто технический момент - внутренний ранг страницы - это величина динамическая и постоянно пересчитываемая. Именно он определяет положение страницы в выдаче . А публичный - это так - пузомерка. ( небесполезная, хотя и засоренная всякими клеенками)

Публичный (явно хранящийся отдельно, чтоб не мешаться под ногами)  - это  экспорт базы PR на какую-то дату ( для данного АПа - предположительно на 1 октября). А  наблюдаемый Гугльданс - это скорее не  пересчет а просто - эффект размазки по времени экспорта такой большой базы данных .

http://emigrant-kz.com/2007/10/29/google/pr-apdejt-prikladnaya-konspirologiya/