Фильтр АГС-17 (он же FUC) работает вне зависимости от АПдейтов. Сегодня выпало ещё примерно 5% доноров. За все время работы фильтра АГС-17 Сапа потеряла половину базы:
http://forum.searchengines.ru/showpost.php?p=5562770&postcount=316 (надеюсь никому не надо пояснять откуда у Михи данные )
Ну собственно всю базу пробили, если брать 20 и меньше страниц - полбазы, ага…
и это еще не конец работы фильтра…
Понятно, что действо на этом не закончиться, надо что-то предпринимать. Что именно пока не ясно. Работать наобум бесполезно, принцип “Хуле тут думать - прыгать надо” в этом случае не кажется хорошим вариантом. Остается ждать стабилизации ситуации и анализировать.
Фильтр АГС-17 работает комплексно по ряду факторов, а потому анализировать его работу крайне затруднительно. Также осложняет анализ множество информационного шума от недотеп с выкриками “Делайте СДЛ!”, “Уник не банят!”, “Не продавайте ссылки!” и т.д.
Сейчас думаю не только у меня, но и у большинства вебмастеров и оптимизаторов происходит обмен мнениямии мыслями с колегами. Поэтому думаю не лишним будет поделиться своими закладками по теме Возможные причины попадания сайта под фильтр АГС-17.
http://forum.sape.ru/showthread.php?t=38608
По результатам тщательного анализа более чем 100 своих и клиентских сайтов у меня возникло ощущение, что я прочуял алгоритм вылета. Была проведена кое-какая работа с привлечением специалистов узкого профиля для формализации прочувстванного алгоритма.
Некоторое время назад на основе прочувстванного алгоритма составил прогноз вылета-возврата в последующие апы. На протяжении двух апов, 24-го и 26-го, прогноз удивительным образом сбылся, так что прочуял я алгоритм видимо примерно-верно.
Некоторые рекомендации на основе прочувствованного.
1. Борьбы с ссылками, как таковыми, очевидно нет. По-прежнему есть борьба с плохими ссылками и с зарвавшимися вебмастерами, продающими ссылки сверх всякой меры и без контроля. Я бы даже сказал так, Яндекс перешел от борьбы с самими продажными ссылками, к борьбе за качество продажных ссылок.
2. Сами по себе продажные ссылки качественному сайту не вредят, но вот если у сайта есть определенные проблемы с точки зрения поисковки, то начиная где-то с августа наличие ссылок стало существенно более сильным “ухудшающим фактором” для таких проблемных сайтов.
Иными словами совсем качественный сайт с ссылками и не очень качественный, проблемный сайт без ссылок могут по прежнему спать спокойно. А вот наличие ссылок на сайте, который уже сам по себе “проблемный” с точки зрения поисковки, теперь стало заметно сильнее делать сайт проблемным.3. Теперь что такое “проблемный” сайт в контексте вышесказанного. Таких показателей “не очень высокого качества” для качественных с нашей точки зрения СДЛ и MFS видимо три.
а) Технические проблемы с доступом робота к сайту, ошибки в коде или (Внимание, это очень важно!) запутанная навигация. Есть ощущение что вес запутанной навигации в определении “проблемности сайта” заметно вырос. Если у вас вылететел гарантировано качественный СДЛ со 100% ценными уникальными текстами - ищите лишние внутренние перелинковки и лишние, ненужные блоки навигации.
б) Наличие на сайте большого числа частично дублирующегося контента (дублирующегося в рамках самого сайта), а также наличие большого количества URI, содержимое которых необоснованно часто частично или полностью обновляется. Это могут быть например в первом случае текст статьи с комментариями и без комментарием, если они доступны по разным адресам. Во-втором — наличие каких-то блоков (типа “похожие статьи”, “читайте по теме”) которые меняются при каждом заходе робота.
в) Наличие большого количества неуника, в том числе и синонимизированного. Качество определения Яндексом синоминизированных дублей заметно возросло. Теперь, если меняя отдельные слова, вы оставляете между ними куски старого неизмененного текста, хотя бы всего по несколько слов — Яндекс вас по этому признаку вычислит однозначно. Соотвественно, если делали прогон по каталогам ссылок или размещали в Liex сгенеренные статьи — ждите отвала бэков.
Прошу обратить внимание, что сейчас Яндекс намного лояльнее относится к полному копипасту с ссылкой на источник (при этом по-видимому ссылки в <noindex> Яндексом также считаются), чем к синонимимайзингу.</noindex>Исходя из указанных выше соображений был составлен список клиентских сайтов, которые являются кандидатами на вылет с примерной вероятностью вылета, и вероятность отпадения бэков со сгенеренных статей. В течение 2 Апов прогноз сбывается с удивительной точностью.
http://forum.searchengines.ru/showpost.php?p=5562403&postcount=301
Могу высказать следующее. Из актива более сотни сайтов _ни один_ клиентский и _ни один_ чистый СДЛ не выпал. К концу вчерашего вечера _выпало более 90% сайтов торгующих в SAPE_. Остатки, это либо самое недавно добавленное (и из Сапы это надо убирать, чтобы сохранить для себя хоть каких-то доноров), либо достаточно серьезные ресурсы портального типа.
Я отчетливо вижу, что АГС-17 расстрелял все сапосайты, независимо от возраста, качества, движков, уровня уникализации контента и структуры организации контента; их динамики обновления, распределения по IP, хостингам и т.д. Очевидно, Яндекс искореняет не сколько говносайты, сколько сам способ заработка на SAPE - это раз, и способ массового ссылочного влияния на ранжирование - это два. Все что торговало в SAPE блочными ссылками, по разным схемам внешних ссылок - обвалилось.
Не хочется резких высказываний и громких выводов, но, мне кажется, эпоха SAPE подходит к концу. Продажа блочных ссылок - это серьезный риск для сайта. Для молодого сайта - это смерть в течение нескольких апов. Я не знаю, насколько SAPE в будущем смогут заинтересовать SEO большинство контекстными ссылками, лично мне это не приносит заметной прибыли, хотя спрос сейчас резко выростет и на них, и на статьи.
О вредном “уникальном контенте”:
http://forum.searchengines.ru/showpost.php?p=5557719&postcount=278
Такая же фигня. Причём, в свете околоидущего разговора об асессорах, мне так мнитцо, что сам этот тип сайтов (скажем так, “высокорерайченный хлам“) с некоторых пор довольно четко формализуется и выкидывается из индекса по общим признакам.
Где-то проскакивало мнение о влиянии на фильтр траффика и распределения траффика по внутренним страницам.
Кой-чего о выводе из фильтра (к сожалению есть опасения за актуальность способа):
http://forum.searchengines.ru/showpost.php?p=5562728&postcount=315
тут кто-то говорил про коэффициэнт гсности. имхо, так и есть. если у вас обновлямый сдл с уником полностью, то можете ссылки продавать, а вот если у вас неуник и ссылки, или там сайт не обновляющийся с сапоссылками, то выкинут нафиг. я несколько сайтов вытаскивал просто - снимал ссылки и добавлял уника, возвращались быстро.
Также в привате шел разговор о том, что трастовые ссылки могут помочь в борьбе с фильтром. Хз, имхо, если только в комплексе с выше указанными внутренними факторами.
Тем, кто надеется, что письмо Платону спасет:
http://forum.searchengines.ru/showpost.php?p=5557072&postcount=251
“Продолжайте развивать сайт и количество страниц в поиске сможет увеличиться.
На данный момент мне больше нечего добавить“
Из основного это пока всё. Сидим ждём развития сюжета.
Тормоз ищет таланты! Нужны умные головы...Ребенок вчера спрашивал “Что это такое?”, указывая на дизельный генератор. А сегодня я размещаю ссылку аренда дизельного генератора… Вот такие прикольные пересечения реала и онлайна
Реклама в бомжеленте.
Помогите детям!
[http://rusppc.ru/2009/10/01/nablyudeniya-za-rabotoj-filtra-ags-17-sborka-s-forumov/]