Вся SEO сфера обсуждает гуловский апдейт и его "странности" . Не могу молчать - вставлю и свои пять копеек.
1.Много вопросов вызвало массовое снижение PR ( как правило на 1 ) "старых заслуженых сайтов, с котрыми ничего не делали". Строятся разнообразные теории … и т.д. Мыслю - "гугловские злоумышления против аптимизаторов" в данном случае не при делах а имеет место самая обыкновенная инфляция PR чисто математического происхождения, .
Напомню,что означает PR. По какому бы внутреннему алгоритму ни ранжировали страницы и сайты в итоге получается конечное множество чисел(равное числу проранжированых страниц) от 0 до некоего " Х = ОЧЕНЬ БОЛЬШОЕ ЧИСЛО". Скорее всего, внутри он так и хранится - компу так просто удобнее.А для внешнего представления стандартным образом линейная шкала значения индекса переводится в логарифмическую а потом нормируется, так, чтобы она влезла в интервал 0-10. Дальше идет простейшее округление до ближайшего целого - и все разнообразие внутренних рангов спроецировано на 10 цифр.
Число сайтов стремительно растет, растут и возможности гугля по индексации. Вероятно Х выросло очень сильно. А нормирование в интервал 0-10 осталось. Вот вся шкала и "просела" - даже на логарифмичесой шкале этого могло хватить , чтобы из 4, 51 (округляется до PR5) сдвинуться до 4,49 ( а это уже PR4) . Желающие могут легко сделать модельку в Exel и поиграться.
2.Недоумение (хотя и приятное) вызвал неожиданно быстрый рост PR у многих новых проектов. Я воспользовался старым правилом ( хотя им обычно пренебрегают) - прежде чем искать тайный заговор прочитай выступления официальных лиц и официальные документы. Часто ответ там просто написан.
В последнее время официальные лица говорили примерно следующее ( цитаты искать влом) . Целью Гугля является подбор наиболее релевантных результатов поиска в реальном времени. Одним из способов предполагется "динамическое вычисление ранга страниц" Хотя вычислительные мощности Гугля растут стремительно, совсем уж "реального времени" пока не получается. Тем не менее - обработка страниц стала происходить много быстрее. Как по своим наблюдениям , так и по сообщениям других - даже само попадание нового сайта в индекс может происходить за несколько дней, а после этого новые страницы появляются в течение нескольких часов (ну это , если гугльбота правильно приглашать ) Потому новые сайты и быстро наращивают позиции . (Особенно это заметно в сравнении с неповороливой Яхой и "рЮски Тындекс")
К тому же давно объявлено ( и экспериментально замечено) - Гугль любит новый и уникальный контент. Во первых - улучшились алгоритмы выделения новизны и уникальности. Во вторых - и просто на новых сайтах обычно за контеном следят и и откровенного гавнопастинга меньше.
Есть еще одно предположение (но только мое личное) - могла повысится значимость страницы в отдельных языковых разделах ( т.е PR начал дробиться по языкам) - аномальный рост был , судя по обсуждениям, в основном в русском сегменте . В этом случае рост PR - это еще и классическая дефляция (обратная описному в п 1.)
3. И чисто технический момент - внутренний ранг страницы - это величина динамическая и постоянно пересчитываемая. Именно он определяет положение страницы в выдаче . А публичный - это так - пузомерка. ( небесполезная, хотя и засоренная всякими клеенками)
Публичный (явно хранящийся отдельно, чтоб не мешаться под ногами) - это экспорт базы PR на какую-то дату ( для данного АПа - предположительно на 1 октября). А наблюдаемый Гугльданс - это скорее не пересчет а просто - эффект размазки по времени экспорта такой большой базы данных .
http://emigrant-kz.com/2007/10/29/google/pr-apdejt-prikladnaya-konspirologiya/