Фильтры Яндекса и Гугла

Перед началом работы по продвижению того или иного Интернет-ресурса каждый оптимизатор должен определиться: какая же поисковая система будет для него первостепенной (вся оптимизация будет заточена именно под требования этой поисковой машины)? Определившись, вебмастер должен изучить методы оптимизации, которыми необходимо пользоваться для раскрутки именно в этой поисковой системе, а также назубок знать особенности фильтров этого поисковика (иначе говоря, за какие нарушения поисковый робот может отправить ресурс в бан). Поскольку действительно популярных поисковиков на постсоветском пространстве всего лишь два (Google и Yandex), то мы рассмотрим особенности фильтров именно этих поисковых машин.

Начнём с Google. Google имеет в своём распоряжении два поисковых фильтра: «Google Penguin» и «Google Panda». Вначале детально рассмотрим фильтр «Google Penguin».

 

«Гугл Пингвин» (русскоязычное название фильтра) впервые появился не так давно – в начале мая 2012 года. Вебмастеры с опаской ждали начала действия этого фильтра, и, как оказалось, не зря – даже многие ресурсы, давно находившиеся в ТОПе, сразу уже угодили в бан (чего уж там говорить о сайтах с меньшим рейтингом). Оптимизаторы не знали, какие именно аспекты Гугл Пингвин оценивает в первую очередь. Наша статья расскажет вам об этом.

1. Переспам (насыщенность ключами). Переспам – главное, за что Гугл Пингвин отправляет тот или иной ресурс в бан. Если количество ключевиков не соответствует требованиям (количество ключевых запросов в каждой статье не должно превышать 7% от общего объёма текста, если это требование нарушено, сайт навечно отправляется в бан-лист).

2. Низкая уникальность контента. Ещё одно важное требование Гугл Пингвина – высокая уникальность всех статей (как минимум 85%, уникальность проверяется поисковым роботом на программе самой Google). Если требование не соблюдено – моментальный бан. Механизм действия этой операции до сих пор вызывает критику у оптимизаторов – дело в том, что санкциям подвергается и тот ресурс, с которого был украден контент. К сожалению, правообладателя статей определить зачастую невозможно, поэтому Гугл Пингвин банит все сайты без исключения, где встречаются неуникальные статьи.

3. Спам в каталогах. Некоторые оптимизаторы с целью получения бесплатных ссылок засоряют форумы, блоги, каталоги сайтов и другие места, где можно получить бесплатные ссылки, некачественным контентом (уникальность и смысл для них не важна – главное, вписать большее количество анкоров, то есть ссылок). Гугл Пингвин в состоянии отследить такие действия, определить, какой именно Интернет-ресурс был раскручен таким образом и немедленно отправить его в бан.

4. Низкая уникальность домена. Каждый домен, по  требованиям Гугл Пингвина, должен быть полностью уникальным – его название не может совпадать с тем или иным ключом, продвигаемым в статье, размещённой по данной ссылке. Если это не так – моментальный бан от данного фильтра (стоит отметить, что именно за это нарушение Интернет-ресурсы попадают в бан реже всего, поскольку далеко не все оптимизаторы додумались до такого способа продвижения и нарушения правил поисковой системы одновременно).

5. Реклама. Гугл Пигвин внимательно проверяет каждый ресурс на предмет присутствия рекламы – если количество рекламных ссылок и баннеров превышает требуемую норму, то фильтр моментально блокирует данный сайт (его место в рейтинге при этом никак не учитывается).

Многие оптимизаторы уже наслышаны о фильтре Гугл Пингвин и успели произвести переоптимизацию, после которой каждый Интернет-ресурс, пусть худо-бедно, но удовлетворяет требованиям фильтра. При этом многие забывают о ещё одном фильтре от Гугл, не менее важном – Гугл Панда. Расскажем о тех прегрешениях, за которые каждый ресурс может быть заблокирован этим фильтром.

1. Копипаст. Копипаст – способ создания контента на тот или иной Интернет-ресурс, когда статья получается комбинированием нескольких больших отрезков с сайтов близкой тематики. Вообще, блокировкой подобных ресурсов должны заниматься обычные поисковые роботы, однако они не всегда замечают подобные нарушения. Механизм фильтра Гугл Панда способен моментально отлавливать такие сайты и блокировать их навсегда.

2. Малое количество статей. Гугл Панда имеет в настройках определённые параметры по количеству символов на странице, ниже которых не должен опускать ни один сайт (неважно, какого именно характера). Если данное требование нарушается – немедленный бан.

3. Низкая информативность контента. Гугл Панда в состоянии оценить все статьи ресурса с точки зрения обыкновенного читателя – если информативность статей низкая (рассказывается об одном и том же, используются одни и те же слова, нет принципиально новых сведений для пользователя) то читатель попросту покидает данный Интернет-ресурс и больше никогда не заходит на этот сайт. Гугл Панда оценивает пользу материала по этим же параметрам – если замечено хоть одно несоответствие, то фильтр блокирует этот сайт.

4. Большое количество рекламы. Мы уже объясняли, почему большое количество рекламных ссылок на сайт опасно (раздел «Гугл Пингвин»), поэтому повторяться не будем.

 

Стоит отметить, что Гугл создал большое количество фильтров, однако они все отлавливают сайты только по одному признаку (это может быть большое количество редиректов; большое количество заголовков, курсивного и жирного текста; слишком большое количество статей, появившихся за малый промежуток времени). Санкции применяются самые разные, от письменного сообщения оптимизатору ресурса до вечной блокировки того или иного сайта.

 

Теперь поговорим о фильтрах яндекса.

 

Наверное, каждый оптимизатор слышал (или сам произносил) фразу о том, что «попасть под фильтры» Яндекса – самая страшная штука и этого надо всячески избегать. Да, приятного в такой ситуации мало! Но если владеть хотя бы базовой информацией о том, что такое фильтр поисковой системы, то все становится куда проще!

 

Для того чтобы избежать попадания под фильтр необходимо для начала узнать о том, что же этот фильтр собой представляет. Итак, определение!

Фильтром называют действия поисковой системы, направленные на выявление сайтов, которые используют для попадания в ТОП выдачи искусственные методы (иными словами – накручивают показатели ранжирования). Результат таких действий – то, что в ТОП попадают сайты низкого качества. Это разочаровывает пользователей. Следовательно, они становятся менее лояльными к поисковой системе, которая такие сайты «пропускает». Ясно, что руководство Яндекса такого допустить не может. Вывод: фильтры явление необходимое.

Как Яндекс определяет то, была ли произведена «накрутка»?

В большинстве своих действий поисковые машины используют сложные формулы и алгоритмы. В том числе, в процессе вычисления «накруток». Официально эти формулы неизвестны. Но! Общедоступна информация о том, что весьма важен фактор постепенности. То есть, позиции сайта должны расти не «семимильными шагами». И если на ресурс, основанный 2 месяца назад, ведет несколько сотен ссылок – это повод для пристального внимания к такому проекту со стороны поисковиков. Как правило, быстрый рост ссылочной массы – результат непродуманной «накрутки». Особенно подозрительно, если ссылки нетематичны, и если на одну страницу сайта имеется более 5 сторонних ссылок.

Также «в штыки» Яндекс воспринимает «переспам» ключевыми словами на странице (миновали те времена, когда в ТОПе были сайты с невразумительным контентом).

Резкие «пики» и спады посещаемости сайта – тоже не лучший показатель для поисковика. Да, трафик варьируется всегда, но в разумных пределах. И рост за 1 день с 300 до 10 000 уникальных посетителей – не всегда есть хорошо.

Явный автоматизм генерации контента (синонимайз, размножение) тоже не идут на пользу сайту. Это – путь в бан при постоянном использовании.

Практически незаполненные страницы (то есть те, где кроме названий раздела и технической информации почти нет текста) негативно сказываются на позициях сайта, как и наличие на тематическом сайте разделов, никак с темой не связанных (например, на сайте о воспитании детей – раздел о сварочных аппаратах).

 

Виды фильтров Яндекса

Важно! Если сайт попал под любой из фильтров Яндекса – не поленитесь написать в техподдержку поисковой системы. Скорее всего, вам там ответят вполне корректно и информативно. Это куда более правильное решение, чем не всегда толковые самостоятельные попытки что-то исправить. Ведь если вы продвигаете под Яндекс, то логично и советов спрашивать у специалистов этой системы поиска!

 

 

1)    АГС. Один из самых известных фильтров. Направлен на исключение из выдачи сайтов, бесполезных для пользователей (сайтов-сателлитов). Обычно такой сайт «вычисляется» очень легко. Но иногда под АГС может попасть и вполне нормальный сайт, созданный для людей, но человеком, который не вник в тонкости СЕО. Если сайт вдруг выпал из индекса, а новые страницы не попадают в поле зрения роботов – это повод узнать, не попал ли ресурс под АГС.

Чтобы не попасть под этот фильтр стоит предпринять такие действия:

  • следить за количеством текста на странице (его должно быть не менее 300, но и не более 3 000 слов); при этом ключевых слов должно быть не больше 7 %, да и те должны быть вписаны в соответствии с нормами языка (то есть фразы типа «купить синяя машина» — не лучший вариант, и его стоит заменить нормальной формой: «купить машину синего цвета»);
  • не позволять всем подряд размещать на сайте какие угодно ссылки (Яндекс воспримет ваш сайт как «линкопомойку»), те ссылки, что явно бесполезны для пользователя – безжалостно удаляйте;
  • избегать дублей контента (как с других сайтов, так и со страниц своего)

Узнать о фильтре больше —  можно здесь.

 

2)    «Ты спамный». Как правило, под этот фильтр сайт попадает за «переоптимизированный» контент. То есть тот, где плотность ключевых запросов составляет более 10% от всего объема текста, встречаются словосочетания, явно написанные для роботов, а не для людей, наблюдается злоупотребление курсивом, подчеркиванием и жирным шрифтом.

Если сайт попал под этот фильтр, но впоследствии оптимизатор устранил недостатки, то в течение 14-21 дня сайт должен занять нормальные позиции в выдаче.

3)    «Ты последний». Несложно догадаться, что этот фильтр ставит сайт на последнюю позицию в списке выдачи. Опять же, причина тому – неинформативность и бесполезность контента. Чтобы понять, что ресурс угодил именно под этот фильтр, следует воспользоваться режимом «Показать все без исключения». А затем, конечно же, поработать над сайтом, сделав его полезным для людей.

4)    «Непот». Обычно этот фильтр накладывается на сайты, которые уж слишком активно продают ссылки (или не продают, а просто не модерируют размещаемые ссылки). Свыше 5 ссылок на странице – и Яндекс обратит взор на нее. Свыше 25 ссылок – «Непот» практически гарантирован. Обычно этот фильтр применяют к сайтам-донорам ссылок.

5)    «Ссылочный взрыв». Фильтр, применяемый к сайтам-акцепторам. Если сайт существует от 1 до 6 месяцев – на него не должно вести более 50 ссылок в месяц. Если сайту 6 месяцев до года – не стоит в месяц закупать более 100 ссылок. В том случае, когда сайт попал под фильтр «Ссылочный взрыв», стоит запастись терпением. На устранение последствий может уйти от 3 месяцев до полугода.

6)    «Накрутка поведенческих факторов». Здесь имеется ввиду манипулирование действиями пользователей. Сайт считается поисковой системой полезным, если на нем довольно низок показатель отказов, а количество просмотренных за 1 сеанс страниц – не менее 3. Если ресурс действительно полезен – так и будет. А вот если нет, то все будет складываться с точностью до наоборот. Именно поэтому существуют специальные программные средства, которые позволяют «накручивать» якобы довольных пользователей. Рано или поздно это будет выявлено. И тогда очередной апдейт завершится для сайта резким падением позиций в выдаче. Если это случилось – следует уточнить в службе поддержки причины. И постараться таковые устранить. Ясно, что «накрутку» необходимо тут же прекратить.

К слову, конкуренты могут таким образом «пропиарить» ваш сайт, чтобы он выпал из выдачи. Дабы не попасть в эту ситуацию, постоянно отслеживайте статистику сайта. Для этого есть такие инструменты, как Гугл Аалитикс и Яндекс. Метрика. Заметили необычные всплески посетителей с одного IP или из одного города? Сообщите о факте в поддержку Яндекса. Это поможет избежать санкций за не вами предпринятые действия.

7)    «Аффилиат». Обычно под этим словом понимают определенное количество сайтов одной тематики, которыми владеет один человек. Суть такого «размножения» сходных сайтов – «захват» первой страницы выдачи. Естественно, это карается фильтрами Яндекса. В самом лучшем варианте нормальные позиции в ТОПе сохраняет наиболее качественный с точки зрения поисковика ресурс. Остальные пессимизируются или вовсе исключаются из выдачи.

На мысль о том, что ваши сайты являются аффилиатами, Яндекс может натолкнуть повторение контактных данных, прайсов, перечня услуг.

Если фильтр сработал – на выведение из-под него сайта уйдет немало времени (несколько месяцев). И постоянно придется вести переписку с техслужбой поисковика.

Удачного продвижения! Возможно, вам удастся избежать личного знакомства с фильтрами

Поделиться в соц. сетях

Опубликовать в Google Buzz
Опубликовать в Google Plus
Опубликовать в LiveJournal
Опубликовать в Мой Мир
Опубликовать в Одноклассники

Добавить комментарий

Ваш e-mail не будет опубликован. Обязательные поля помечены *

Статистика