Фильтр АГС-17 (он же FUC) работает вне зависимости от АПдейтов. Сегодня выпало ещё примерно 5% доноров. За все время работы фильтра АГС-17 Сапа потеряла половину базы:
http://forum.searchengines.ru/showpost.php?p=5562770&postcount=316 (надеюсь никому не надо пояснять откуда у Михи данные )
Ну собственно всю базу пробили, если брать 20 и меньше страниц - полбазы, ага…
и это еще не конец работы фильтра…
Понятно, что действо на этом не закончиться, надо что-то предпринимать. Что именно пока не ясно. Работать наобум бесполезно, принцип “Хуле тут думать - прыгать надо” в этом случае не кажется хорошим вариантом. Остается ждать стабилизации ситуации и анализировать.
Фильтр АГС-17 работает комплексно по ряду факторов, а потому анализировать его работу крайне затруднительно. Также осложняет анализ множество информационного шума от недотеп с выкриками “Делайте СДЛ!”, “Уник не банят!”, “Не продавайте ссылки!” и т.д.
Сейчас думаю не только у меня, но и у большинства вебмастеров и оптимизаторов происходит обмен мнениямии мыслями с колегами. Поэтому думаю не лишним будет поделиться своими закладками по теме Возможные причины попадания сайта под фильтр АГС-17.
http://forum.sape.ru/showthread.php?t=38608
По результатам тщательного анализа более чем 100 своих и клиентских сайтов у меня возникло ощущение, что я прочуял алгоритм вылета. Была проведена кое-какая работа с привлечением специалистов узкого профиля для формализации прочувстванного алгоритма.
Некоторое время назад на основе прочувстванного алгоритма составил прогноз вылета-возврата в последующие апы. На протяжении двух апов, 24-го и 26-го, прогноз удивительным образом сбылся, так что прочуял я алгоритм видимо примерно-верно.
Некоторые рекомендации на основе прочувствованного.
1. Борьбы с ссылками, как таковыми, очевидно нет. По-прежнему есть борьба с плохими ссылками и с зарвавшимися вебмастерами, продающими ссылки сверх всякой меры и без контроля. Я бы даже сказал так, Яндекс перешел от борьбы с самими продажными ссылками, к борьбе за качество продажных ссылок.
2. Сами по себе продажные ссылки качественному сайту не вредят, но вот если у сайта есть определенные проблемы с точки зрения поисковки, то начиная где-то с августа наличие ссылок стало существенно более сильным “ухудшающим фактором” для таких проблемных сайтов.
Иными словами совсем качественный сайт с ссылками и не очень качественный, проблемный сайт без ссылок могут по прежнему спать спокойно. А вот наличие ссылок на сайте, который уже сам по себе “проблемный” с точки зрения поисковки, теперь стало заметно сильнее делать сайт проблемным.3. Теперь что такое “проблемный” сайт в контексте вышесказанного. Таких показателей “не очень высокого качества” для качественных с нашей точки зрения СДЛ и MFS видимо три.
а) Технические проблемы с доступом робота к сайту, ошибки в коде или (Внимание, это очень важно!) запутанная навигация. Есть ощущение что вес запутанной навигации в определении “проблемности сайта” заметно вырос. Если у вас вылететел гарантировано качественный СДЛ со 100% ценными уникальными текстами - ищите лишние внутренние перелинковки и лишние, ненужные блоки навигации.
б) Наличие на сайте большого числа частично дублирующегося контента (дублирующегося в рамках самого сайта), а также наличие большого количества URI, содержимое которых необоснованно часто частично или полностью обновляется. Это могут быть например в первом случае текст статьи с комментариями и без комментарием, если они доступны по разным адресам. Во-втором — наличие каких-то блоков (типа “похожие статьи”, “читайте по теме”) которые меняются при каждом заходе робота.
в) Наличие большого количества неуника, в том числе и синонимизированного. Качество определения Яндексом синоминизированных дублей заметно возросло. Теперь, если меняя отдельные слова, вы оставляете между ними куски старого неизмененного текста, хотя бы всего по несколько слов — Яндекс вас по этому признаку вычислит однозначно. Соотвественно, если делали прогон по каталогам ссылок или размещали в Liex сгенеренные статьи — ждите отвала бэков.
Прошу обратить внимание, что сейчас Яндекс намного лояльнее относится к полному копипасту с ссылкой на источник (при этом по-видимому ссылки в <noindex> Яндексом также считаются), чем к синонимимайзингу.</noindex>Исходя из указанных выше соображений был составлен список клиентских сайтов, которые являются кандидатами на вылет с примерной вероятностью вылета, и вероятность отпадения бэков со сгенеренных статей. В течение 2 Апов прогноз сбывается с удивительной точностью.
http://forum.searchengines.ru/showpost.php?p=5562403&postcount=301
Могу высказать следующее. Из актива более сотни сайтов _ни один_ клиентский и _ни один_ чистый СДЛ не выпал. К концу вчерашего вечера _выпало более 90% сайтов торгующих в SAPE_. Остатки, это либо самое недавно добавленное (и из Сапы это надо убирать, чтобы сохранить для себя хоть каких-то доноров), либо достаточно серьезные ресурсы портального типа.
Я отчетливо вижу, что АГС-17 расстрелял все сапосайты, независимо от возраста, качества, движков, уровня уникализации контента и структуры организации контента; их динамики обновления, распределения по IP, хостингам и т.д. Очевидно, Яндекс искореняет не сколько говносайты, сколько сам способ заработка на SAPE - это раз, и способ массового ссылочного влияния на ранжирование - это два. Все что торговало в SAPE блочными ссылками, по разным схемам внешних ссылок - обвалилось.
Не хочется резких высказываний и громких выводов, но, мне кажется, эпоха SAPE подходит к концу. Продажа блочных ссылок - это серьезный риск для сайта. Для молодого сайта - это смерть в течение нескольких апов. Я не знаю, насколько SAPE в будущем смогут заинтересовать SEO большинство контекстными ссылками, лично мне это не приносит заметной прибыли, хотя спрос сейчас резко выростет и на них, и на статьи.
О вредном “уникальном контенте”:
http://forum.searchengines.ru/showpost.php?p=5557719&postcount=278
Такая же фигня. Причём, в свете околоидущего разговора об асессорах, мне так мнитцо, что сам этот тип сайтов (скажем так, “высокорерайченный хлам“) с некоторых пор довольно четко формализуется и выкидывается из индекса по общим признакам.
Где-то проскакивало мнение о влиянии на фильтр траффика и распределения траффика по внутренним страницам.
Кой-чего о выводе из фильтра (к сожалению есть опасения за актуальность способа):
http://forum.searchengines.ru/showpost.php?p=5562728&postcount=315
тут кто-то говорил про коэффициэнт гсности. имхо, так и есть. если у вас обновлямый сдл с уником полностью, то можете ссылки продавать, а вот если у вас неуник и ссылки, или там сайт не обновляющийся с сапоссылками, то выкинут нафиг. я несколько сайтов вытаскивал просто - снимал ссылки и добавлял уника, возвращались быстро.
Также в привате шел разговор о том, что трастовые ссылки могут помочь в борьбе с фильтром. Хз, имхо, если только в комплексе с выше указанными внутренними факторами.
Тем, кто надеется, что письмо Платону спасет:
http://forum.searchengines.ru/showpost.php?p=5557072&postcount=251
“Продолжайте развивать сайт и количество страниц в поиске сможет увеличиться.
На данный момент мне больше нечего добавить“
Из основного это пока всё. Сидим ждём развития сюжета.
Ребенок вчера спрашивал “Что это такое?”, указывая на дизельный генератор. А сегодня я размещаю ссылку аренда дизельного генератора… Вот такие прикольные пересечения реала и онлайна
![]()
Реклама в бомжеленте.
Помогите детям!
[http://rusppc.ru/2009/10/01/nablyudeniya-za-rabotoj-filtra-ags-17-sborka-s-forumov/]