Фильтры поисковой системы Яндекс

При оптимизации и поисковом продвижении Вашего ресурса поисковой системой Яндекс, наибольшую головную боль будут представлять специфические фильтры данной поисковой системы. Знать об их характерных особенностях просто необходимо, поскольку основной объем входящего трафика на территории стран СНГ поступает именно через поисковую систему Яндекс.

В общих чертах сходство фильтров поисковых систем Яндекс и Гугл очевидно, но есть определенные, реализованные только в поисковике Яндекса, алгоритмы оптимизации и индексации страницы. Эти различия основаны на мотивах бана сайтов и немного отличных понятиях о Черных СЕО-технологиях применительно к реалиям постсоветского пространства. Конечно, фильтрационные особенности поисковой системы Гугл по ряду параметров превосходят алгоритмы Яндекс, но постоянное совершенствование работы специалистами Яндекс – поддерживает работоспособность поисковика на высоком уровне.

По сути, поисковый фильтр представляет собой набор алгоритмов, посредством которых поисковая машина и выявляет нарушения на Интернет-ресурсах. В зависимости от примененного фильтра Яндекс накладывает штрафные санкции на сайты. Следовательно, веб-страница может быть просто пессимизирована либо к ней применять фильтрацию по выдаче поискового запроса: перемесят в незначительные результаты поиска или упущенные за незначительностью. Поэтому веб-мастерам следует проявлять осторожность: PagRank не стоит терять.

Ежедневный уровень прогресса Интернет технологий автоматически влечет за собой и возрастание активности Черных СЕОшников. Как бы там ни было, а запуск любого нового фильтрационного алгоритма в 100 % случаев является почвой для разработки программного обеспечения, призванного побороть фильтрационные алгоритмы поисковика. Черные СЕО-спецы в любом случае донесут до Вас необходимую им информацию. Для этого Яндекс разработал ряд фильтрующих алгоритмов, призванных не допустить к пользователю контент Черных СЕО.

1. В первую очередь рассмотрим Яндекс спам – фильтр.

Его главное назначение – борьба с излишне оптимизированным Интернет-ресурсами, страницами, четко ассоциированными под поисковый запрос. Они не пройдут фильтрационные врата и будут восприняты, как дорвей (от англ. Doorway – входная дверь, портал). Размещенные на такой странице редиректы, не только линкуют пользователя на «раскручиваемый» ресурс, но и служат командой «фас» для алгоритма фильтрации.

Учитывая уровень захламленности всемирной паутины спамом, поисковая система Яндекс качественно «прописала» основные требования к преодолению спам – фильтра. Но и применяемые Черные СЕО-технологии не стоят на месте, создатели дорвеев находят все более изощренные способы «побудить» посетителя сайта к клику, используют различные манипуляции и уловки, экспериментируют с мета-тэгами. При этом «доргены» (программы для создания дорвеев) постоянно модифицируются, но основное их назначение – оптимизация Интернет-ресурса путем ранжирования его месторасположения на поисковой странице, к примеру, за счет создания страницы с высокой частотой вхождения текста.

Стоит отметить, что под санкции поискового алгоритма спам-фильтра могут попасть и ресурсы с адекватным содержанием контента. Каковы же причины этого? В случае, когда с целью «излишней» оптимизации ресурса, веб-мастер размещает ключевые слова в текстовом наполнении сайта в 10-15 % диапазоне, фильтрационная система поисковика Яндекс однозначно воспримет такую страницу как дорвей, либо другой «спам-опасный» источник. Достоверным признаком того, что над Вашим ресурсом поработал Яндекс анти-спам фильтр, является выпадение из топовых позиций поисковой системы в сравнении с прошлыми результатами. Преодолеть такие санкции весьма легко: измените текстовое наполнение страницы с параллельным уменьшением плотности ключевых слов до 4-6 %. После – просто дождитесь пока боты поисковой системы произведут проверку. Поэтому, просто взвешено отнеситесь к текстовой информации на Вашем ресурсе и плотности ключевых слов в нем. Яндекс спам-фильтр постоянно модифицируется, но основные алгоритмы и принципы его работы изучены и общедоступны.

2. Следующий фильтр называется «ты последний».

В основном, он санкционирует радикальное понижение ранжирования ресурса в поисковике. Столь серьезные штрафы гарантированы владельцам тех Интернет-ресурсов, которые злоупотребляют копипастом. Копипаст (от англ. cut, copy, paste) – это «некачественный» веб-контент страницы. Простое вырезание и вставка текста – не обеспечивают уникальность информационного текстового наполнения страницы. В результате, подвергаясь фильтрационной проверке, ресурс, уличенный в не уникальном контенте будет просто пессимизирован до самого низшего ранка. В некоторых случаях особо рьяных плагиаторов вообще выбрасывают из индекса. В таком случае Вы уже ничего не сможете сделать и единственное на что можно уповать: адекватную реакцию технической поддержки Яндекс, но лишь после устранения замечаний. Итак, рассмотрим ситуацию, когда Ваш ресурс попал под такой фильтр и Ваш PR понижен до критической отметки. Во-первых, залейте на Ваш сайт уникальную текстовую информацию. Не поленитесь кропотливой работы, и Ваше скрупулезное усердие будет вознаграждено. Конечно, Вы не сразу восстановите былые позиции в поисковой системе, но к этому нужно стремиться. Главное запомните, что во всех случаях попадание под санкции фильтра легче предупредить, чем терпеть.

3. Теперь рассмотрим непод–фильтр.

Спецификой этого фильтрационного алгоритма является наложение санкций непосредственно на сайты-доноры (неподы) линковых площадей, а не на ресурсы, повышающие свой PagRank за счет использования таких исходящих ссылок. Учитывая то, что доля спама в мировом трафике составляет 80 %, фильтры системы Яндекс играют Важную роль в интерфейсе пользователя с мировой сетью. Но непотистский спам – весьма специфичен, на что и направлен именно этот алгоритм фильтрации. В случае, если Ваш ресурс подвергся действию этого фильтра, внимательно изучите все свои входящие и исходящие ссылки. Поскольку злоупотребление продажей ссылочных площадей, размещение ссылок на сомнительных ресурсах, и прочие необдуманные действия со ссылками не позволять пройти фильтрацию этим фильтром.

Так же хотелось бы отметить один из самых старых Яндекс фильтров – фильтр аффилиатных сайтов. Рассмотрим на конкретном примере, что представляет собой такая система фильтрации и на что именно направлен ее алгоритм. В ситуации, когда с целью продвижения товара или услуги, руководство компании обращается к интернет-жульничеству, начинает работать фильтр аффилиатных сайтов. Компания создает несколько (как правило, не менее пяти – десяти) сайтов одинаковой направленности об одном и том же товаре или услуге. Поисковая машина, по результатам оптимизации и индекса цитирования, в ответ на запрос посетителя выдает ранжированный список Интернет-ресурсов. Вот здесь и вступает в силу наличие нескольких сайтов. Они, найденные по одинаковым или схожим мета-тэгам, будут занимать высокие места в итогах поиска. Что бы оградить пользователей от подобного мошенничества (так же не забываем об Антимонопольном законодательстве) алгоритм фильтра аффилиатных сайтов исключает такого рода «продвижение бренда». После того, как фильтр поработает с запросом, в результатах поиска будет значиться только один, максимально PR-ный ресурс, а остальные будут выложены в подвкладке. Следовательно, этот фильтр – необходимая потребность любой поисковой системы. Впервые он был применен специалистами Yahoo в 90-х годах прошлого век и с тех пор стал неотъемлемой частью любой поисковой системы.

4. Своеобразный аналог Google SandBox.

Основная задача данного фильтра — оградить посетителей от некачественных сайтов, сайтов «однодневок», созданных в различных доменных зонах с целью заработка. Эти сайты ориентированы на «высокочастотные» запросы, обходя систему ревалентности, они стремятся попасть в топовые раздачи итогов поисковой системы. Возникает вопрос, каким образом этот фильтр отразится на функционировании именно Вашего сайта, тем более, если он «молод»? По сути, никаких побочных последствий не будет, если Вы, конечно, не рассчитываете на высококонкурентные позиции с первых дней существования веб-страницы. Если это не так, просто ждите. По истечению года данный фильтр не будет проверять Ваш сайт, т.к. пройдет достаточный период времени, что бы поисковая система Яндекс стала относиться к ресурсу более лояльно. Аналогичная ситуация происходит и при работе системы Google с Вашим молодым ресурсом. Поэтому просто займитесь наполнением веб-страниц уникальным, а, следовательно, качественным контентом.

5. Наибольшую проблему, по мнению большинства веб-мастеров, представляет АГС-фильтр

В настоящий момент данный фильтр представлен в поисковике Яндекс в двух вариациях алгоритма его исполнения: АГС-17 и АГС-30. Как следует из версий АГС-фильтра, 17-я модификация предшествует 30-й, а, следовательно, имеет более совершенный алгоритм. Комплексно охарактеризовать АГС–фильтр можно так: специфический алгоритм поисковой системы, предназначенный для жесткого отсеивания из списков ранжирования по поисковым запросам Интернет-ресурсов, уличенных в Черных СЕО – технологиях. Как бы там ни было, но определить, что такое АГС возможно лишь после понимания, за что и каким образом он применяет санкции к веб-страницам. Основная цель АГС–алгоритма: отслеживание и «бан» сайтов, предназначенных для зарабатывания денег. Такие сайты существуют на «роботизированной» основе и создаются тысячами для достижения максимального экономического эффекта. Результатом применения АГС фильтра к сайту будет являться отсутствие всех страниц, кроме главной (в некоторых случаях присутствуют и иные страницы, но в небольшом объеме, что говорит о их частичной идентификации) в списке ранжирования поисковой системы Яндекс. При этом, интересно, что в случае добавления на такой сайт новых страниц, они вовсе не идентифицируются ботом. Поэтому основное последствие для сайты сродни «частичному бану», хотя главная страница Интернет-ресурса никуда не пропадает, но пользы от наличия такой страницы в результатах поисковой системы практически нет. Первый факт применения АГС-фильтра зафиксирован в 2008 году и принес феноменальные результаты в деле борьбы с Черными СЕО – технологиями. По результатам первого применения, к концу 2009 года, были «заблокированы» десятки тысяч, не прошедших квалификацию, сайтов в поисковой системе Яндекс. При этом последующий поиск значительно оптимизировался, хотя были заблокированы и сайты, имеющие лишь косвенное отношение к сайтам сомнительного содержания (ГС). Ярким примером таковых являются сайты – сателлиты, продающие линковые площади всем желающим.

Принцип действия алгоритма АГС-фильтра является коммерческой тайной Яндекс, однако постоянно делаются сотни попыток прояснить его работу пользователями, и что более приоритетно, веб-мастерами. Такие попутки лишь частично успешны, поскольку, как только алгоритм работы станет ясен, сеть заполонят сайты некачественного и бессмысленного содержания. Основное, что известно о работе АГС, санкции накладываются при условии совпадения нескольких факторов. Поэтому стоит обратить на них внимание.

Во-первых, Ваш интернет – ресурс торгует спам ссылками. АГС–фильтр четко дифференцирует торгующие ссылками сайты. Это один из ключевых факторов, по которым производится фильтрационная проверка. Как только будет установлено, что сайт по сути предназначен для «тупого зарабатывания», ждите санкций поисковой системы Яндекс (о чем говорилось выше). Но в таком случае непонятна судьба сателлит сайтов, основная функция которых как раз и заключается в зарабатывании денег с помощью бирж ссылок? Ответ прост – сателлит сайтам не следует злоупотреблять количеством страниц на ресурсе. К примеру, располагая 100 страницами, сателлиту разумно использовать 50 % от этого объема. Оставшуюся часть страниц стоит просто не активировать. Такое анти АГС поведение значительно снизит риск получить санкцию.

Во-вторых: существенное значение имеет возрастной критерий Интернет – ресурса. Установлено, что страницы, существующие более года менее подвержены воздействию алгоритма АГС–фильтра. Поэтому владельцы сателлит ресурсов должны подождать восемь–девять месяцев, прежде чем активно продавать рекламные площади.

В–третьих: соотношение входящих и исходящих ссылок так же влияет на «агрессию» АГС–фильтра. Замечено, что это не существенный, но имеющий некоторое значение, фактор. По этому, если на Интернет–ресурсе доминируют исходящие ссылки, то такой ресурс находится в группе риска АГС–фильтра. Веб — мастеру следует следить за балансом линков и не допускать критичной массы «inbound links». Имейте ввиду, что если сайт только создан и показатель индекса цитирования незначителен, то активно продолжая продавать внешние линки Вы займете «достойное» место в топах АГС–фильтра.

В-четвертых: на агрессию АГС–фильтра напрямую влияет количество уникальных посетителей. Этот факт установлен пробным путем и является «существенным фактором».Интернет–ресурсы со сносным трафиком практически не попадают под действие АГС–фильтра. Поисковая система Яндекс считает трафик по количеству переходов со своей выдачи, следовательно, сайт необходимо раскрутить хотя–бы по низкочастотным запросам, что Яндекс и зафиксирует. Конечно, для этого нужен мало-мальски читабельный и уникальный контент, но, если учесть, что уникальность контента влияет и на лояльность иных фильтров, то вопрос наполняемости веб–страницы не представляется проблемным. Наряду с контентом так же установите счетчик от Яндекс (косвенное свидетельствование активности трафика Вашего сайта).

И в — пятых: вновь вернемся к уникальности контента. Вопрос уникальности текстового наполнения веб – сайта значительно глубже, чем кажется на первый взгляд. Большинство сайтов – сателлитов в момент первого применения АГС–фильтра (2008 -2009 года), были исключены из списка ранжирования именно по причине «некачественного» контента. Поэтому стоит задуматься о применении копипаста.

До настоящего момента алгоритм работы фильтра не претерпел изменений (за исключением модификации от 17–й до 30-й – версии), но проявил одну особенность: АГС–фильтр рассматривает одинаковый контент на разных веб–страницах одного и того же Интернет–ресурса, как копипаст. Вины веб–мастера в этом нет. Проявление признаков копипаста наблюдается по причине несовершенства двигателей сайтов. В таких случаях следует «закрывать» от индексации дублирующиеся участки текста на разных страницах. Кроме того, существует ряд данных из непроверенных различных источников о случаях применения АГС–фильтра. Так вот, среди факторов, влияющих на проявление агрессии алгоритмом АГС–фильтра, следует отметить:

• Wordpres и CMSimple – наиболее распространенные двигатели для ресурсов с Черными СЕО – технологиями. Яндекс подозрительно относится к сайтам, созданным на основе таких двигателей;

• Полное отсутствие или слабое наполнение сайта текстовым содержанием;

• Неестественное (автоматическое) размещение текстовой информации на страницах Интернет–ресурсов. В таких случаях, текст размещен в блоках, а они похожи друг на друга;

• Если алгоритм АГС-фильтра выявляет сеть «злокачественных» сайтов, то они все подлежат деранжированию;

• Краткосрочный период пребывания посетителей на сайте напрямую влияет на активность АГС–фильтра.

Есть и иные особенности работы АГС, но выше перечисленных будет достаточно, чтобы понять особенности работы фильтра.

Заработок в интернете без вложений

Сеоспринт

SEO sprint - Всё для максимальной раскрутки!

exmo — криптовалютная биржа №1

Самый выгодный обменник найти легко!!!!