четверг, 1 октября 2009 г.

Наблюдения за работой фильтра АГС-17 (сборка с форумов)

[Могилевский бомж]

Фильтр АГС-17 (он же FUC) работает вне зависимости от АПдейтов. Сегодня выпало ещё примерно 5% доноров. За все время работы фильтра АГС-17 Сапа потеряла половину базы:

http://forum.searchengines.ru/showpost.php?p=5562770&postcount=316 (надеюсь никому не надо пояснять откуда у Михи данные ;) )

Ну собственно всю базу пробили, если брать 20 и меньше страниц - полбазы, ага…

и это еще не конец работы фильтра…

Понятно, что действо на этом не закончиться, надо что-то предпринимать. Что именно пока не ясно. Работать наобум бесполезно, принцип “Хуле тут думать - прыгать надо” в этом случае не кажется хорошим вариантом. Остается ждать стабилизации ситуации и анализировать.

Фильтр АГС-17 работает комплексно по ряду факторов, а потому анализировать его работу крайне затруднительно. Также осложняет анализ множество информационного шума от недотеп с выкриками “Делайте СДЛ!”, “Уник не банят!”, “Не продавайте ссылки!” и т.д.

Сейчас думаю не только у меня, но и у большинства вебмастеров и оптимизаторов происходит обмен мнениямии мыслями с колегами. Поэтому думаю не лишним будет поделиться своими закладками по теме Возможные причины попадания сайта под фильтр АГС-17.

http://forum.sape.ru/showthread.php?t=38608

По результатам тщательного анализа более чем 100 своих и клиентских сайтов у меня возникло ощущение, что я прочуял алгоритм вылета. Была проведена кое-какая работа с привлечением специалистов узкого профиля для формализации прочувстванного алгоритма.

Некоторое время назад на основе прочувстванного алгоритма составил прогноз вылета-возврата в последующие апы. На протяжении двух апов, 24-го и 26-го, прогноз удивительным образом сбылся, так что прочуял я алгоритм видимо примерно-верно.

Некоторые рекомендации на основе прочувствованного.

1. Борьбы с ссылками, как таковыми, очевидно нет. По-прежнему есть борьба с плохими ссылками и с зарвавшимися вебмастерами, продающими ссылки сверх всякой меры и без контроля. Я бы даже сказал так, Яндекс перешел от борьбы с самими продажными ссылками, к борьбе за качество продажных ссылок.

2. Сами по себе продажные ссылки качественному сайту не вредят, но вот если у сайта есть определенные проблемы с точки зрения поисковки, то начиная где-то с августа наличие ссылок стало существенно более сильным “ухудшающим фактором” для таких проблемных сайтов.
Иными словами совсем качественный сайт с ссылками и не очень качественный, проблемный сайт без ссылок могут по прежнему спать спокойно. А вот наличие ссылок на сайте, который уже сам по себе “проблемный” с точки зрения поисковки, теперь стало заметно сильнее делать сайт проблемным.

3. Теперь что такое “проблемный” сайт в контексте вышесказанного. Таких показателей “не очень высокого качества” для качественных с нашей точки зрения СДЛ и MFS видимо три.

а) Технические проблемы с доступом робота к сайту, ошибки в коде или (Внимание, это очень важно!) запутанная навигация. Есть ощущение что вес запутанной навигации в определении “проблемности сайта” заметно вырос. Если у вас вылететел гарантировано качественный СДЛ со 100% ценными уникальными текстами - ищите лишние внутренние перелинковки и лишние, ненужные блоки навигации.

б) Наличие на сайте большого числа частично дублирующегося контента (дублирующегося в рамках самого сайта), а также наличие большого количества URI, содержимое которых необоснованно часто частично или полностью обновляется. Это могут быть например в первом случае текст статьи с комментариями и без комментарием, если они доступны по разным адресам. Во-втором — наличие каких-то блоков (типа “похожие статьи”, “читайте по теме”) которые меняются при каждом заходе робота.

в) Наличие большого количества неуника, в том числе и синонимизированного. Качество определения Яндексом синоминизированных дублей заметно возросло. Теперь, если меняя отдельные слова, вы оставляете между ними куски старого неизмененного текста, хотя бы всего по несколько слов — Яндекс вас по этому признаку вычислит однозначно. Соотвественно, если делали прогон по каталогам ссылок или размещали в Liex сгенеренные статьи — ждите отвала бэков.
Прошу обратить внимание, что сейчас Яндекс намного лояльнее относится к полному копипасту с ссылкой на источник (при этом по-видимому ссылки в <noindex> Яндексом также считаются), чем к синонимимайзингу.</noindex>

Исходя из указанных выше соображений был составлен список клиентских сайтов, которые являются кандидатами на вылет с примерной вероятностью вылета, и вероятность отпадения бэков со сгенеренных статей. В течение 2 Апов прогноз сбывается с удивительной точностью.

http://forum.searchengines.ru/showpost.php?p=5562403&postcount=301

Могу высказать следующее. Из актива более сотни сайтов _ни один_ клиентский и _ни один_ чистый СДЛ не выпал. К концу вчерашего вечера _выпало более 90% сайтов торгующих в SAPE_. Остатки, это либо самое недавно добавленное (и из Сапы это надо убирать, чтобы сохранить для себя хоть каких-то доноров), либо достаточно серьезные ресурсы портального типа.

Я отчетливо вижу, что АГС-17 расстрелял все сапосайты, независимо от возраста, качества, движков, уровня уникализации контента и структуры организации контента; их динамики обновления, распределения по IP, хостингам и т.д. Очевидно, Яндекс искореняет не сколько говносайты, сколько сам способ заработка на SAPE - это раз, и способ массового ссылочного влияния на ранжирование - это два. Все что торговало в SAPE блочными ссылками, по разным схемам внешних ссылок - обвалилось.

Не хочется резких высказываний и громких выводов, но, мне кажется, эпоха SAPE подходит к концу. Продажа блочных ссылок - это серьезный риск для сайта. Для молодого сайта - это смерть в течение нескольких апов. Я не знаю, насколько SAPE в будущем смогут заинтересовать SEO большинство контекстными ссылками, лично мне это не приносит заметной прибыли, хотя спрос сейчас резко выростет и на них, и на статьи.

О вредном “уникальном контенте”:
http://forum.searchengines.ru/showpost.php?p=5557719&postcount=278

Такая же фигня. Причём, в свете околоидущего разговора об асессорах, мне так мнитцо, что сам этот тип сайтов (скажем так, “высокорерайченный хлам“) с некоторых пор довольно четко формализуется и выкидывается из индекса по общим признакам.

Где-то проскакивало мнение о влиянии на фильтр траффика и распределения траффика по внутренним страницам.

Кой-чего о выводе из фильтра (к сожалению есть опасения за актуальность способа):
http://forum.searchengines.ru/showpost.php?p=5562728&postcount=315

тут кто-то говорил про коэффициэнт гсности. имхо, так и есть. если у вас обновлямый сдл с уником полностью, то можете ссылки продавать, а вот если у вас неуник и ссылки, или там сайт не обновляющийся с сапоссылками, то выкинут нафиг. я несколько сайтов вытаскивал просто - снимал ссылки и добавлял уника, возвращались быстро.

Также в привате шел разговор о том, что трастовые ссылки могут помочь в борьбе с фильтром. Хз, имхо, если только в комплексе с выше указанными внутренними факторами.

Тем, кто надеется, что письмо Платону спасет:
http://forum.searchengines.ru/showpost.php?p=5557072&postcount=251

“Продолжайте развивать сайт и количество страниц в поиске сможет увеличиться.
На данный момент мне больше нечего добавить

Из основного это пока всё. Сидим ждём развития сюжета.

Ребенок вчера спрашивал “Что это такое?”, указывая на дизельный генератор. А сегодня я размещаю ссылку аренда дизельного генератора… Вот такие прикольные пересечения реала и онлайна :)


Тормоз ищет таланты! Нужны умные головы...
Реклама в бомжеленте.

Помогите детям!

[http://rusppc.ru/2009/10/01/nablyudeniya-za-rabotoj-filtra-ags-17-sborka-s-forumov/]