Блог Нетологии

Советы и обзоры для новых высот в карьере, бизнесе и жизни

 

В прошлый раз мы рассмотрели основные санкции Яндекса, а сегодня расскажем про фильтры Google. Для этого мы снова обратились к интерактивному курсу Артема Яськова.

Panda

Как определить

Panda — это специальный алгоритм Google, нацеленный на борьбу с плохими сайтами. Недавно, кстати, его обновили до четвертой версии (подробно о том, сколько шума наделала последняя версия фильтра, можно почитать здесь).

Почти все фильтры Google характеризуются резким падением органической посещаемости и позиций сайта. Еще Panda можно обнаружить по сокращению либо резким скачкам количества проиндексированных страниц.

Продвинутые интернет-маркетологи знают, что следить за Google лучше всего с помощью Google Webmaster Tools. В случае с Panda, например, веб-мастерская даст вам знать, когда что-то пойдет не так.

Почему возникает

Дубли страниц в поисковом индексе. Обычно это связано с техническими проблемами сайта, например, попадание в индекс страниц с метками для отслеживания статистики.

Сгенерированный контент. Здесь все понятно — автоматически созданные тексты Google воспринимает как манипулятивную механику. 
 
Недостаточный объем контента. Тут разобраться в причинах поможет анализ контента конкурентов. В каждой тематике есть свои требования к объему контента.
 
Избыток ключевых вхождений в текстах, метаданных и тайтлах. Если возникает ощущение, что Google находит спам там, где его нет, проведите конкурентную аналитику. Это поможет взглянуть на все под новым углом. 
 
Некачественная внутренняя перелинковка. Алгоритмы отслеживают применение каких-либо спамных паттернов (например, внутренние ссылки, которые используются не как основное меню, а как ссылки в подвале).


План действий

1. Сделайте редиректы с 301-м кодом ответа сервера. Главная задача — не допустить перенаправления с пессимизированных страниц на нормальные. Чтобы определить пессимизированные документы, нужно воспользоваться Barracuda Panguin Tool (о других сервисах скажем далее).

2. Отредактируйте robots.txt. В нем следует закрыть от индексации проблемные страницы — в частности, те, которые Google записал в дубли. Правда, это полумеры: такие документы, как правило, поисковик оставляет в индексе. В сниппетах будет указано, что файл закрыт от просмотра.
 
3. Воспользуйтесь Google Webmaster Tools. Он поможет закрыть проблемные документы и запретить поисковику индексировать их. Сделать это можно в разделе «Параметры URL».
 
4. Найдите и устраните все возможные проблемы с помощью специальных сервисов. Инструменты использовать обязательно: они, например, сообщают о масштабах бедствия, выдавая информацию по апдейтам и показывая конкретный процент потерянного трафика. Чаще всего сервисы сами подскажут причины наложения фильтров (это не говоря про конкретные функции — поиск пострадавших страниц).
 
Обязательный набор Visual SEO Studio

 

5. Внимательно изучите, как все устроено у ваших конкурентов. Нужно смотреть на структуру сайта, плотность ключевых слов и метаданные. В каждой нише действуют свои правила, а конкурентная аналитика часто помогает выявить их.

6. Внесите изменения в пострадавшие документы. Удалите дублирующие страницы всеми возможными способами (панель Google Webmaster Tools, редиректы, robots.txt)

Penguin

Как определить

Если Panda борется со спамерскими методами в работе с внутренней оптимизацией, то Penguin нацелен на устранение некачественных внешних ссылок.

Когда санкция применена, сайт ощутимо теряет позиции в выдаче. Соответствующим образом падает органический трафик.

Почему возникает

Некорректное соотношение типов анкоров и переоптимизированная ссылочная масса. Внешние ссылки не стоит перегружать ключевыми сочетаниями. Лучше всегда разбавлять их менее частотными словами.

Продажа ссылок. Актуально, если вы активно монетизируете сайт, размещая на нем внешние исходящие ссылки. Особенно на это следует обратить внимание тем веб-мастерам, которые вставляют ссылки прямо в элементы интерфейса.
 
Плохая внутренняя перелинковка. Страдают те владельцы сайтов, которые создают слишком много ссылок для перелинковки (с прямыми вхождениями ключей).
 
Внешние входящие сквозные ссылки. Раньше это часто практиковалось оптимизаторами, которые специализировались на Google. Тем не менее сегодня в ссылочной массе внешних доноров не должно быть сквозных ссылок.
 
Каталог ссылок на сайте. Очевидно, что массовая продажа ссылок не приведет ни к чему хорошему. Сюда же записываем тех, кто много обменивается ссылками с нетематическими ресурсами.
 
Слишком быстрый прирост ссылочной массы. Резкое увеличение количества ссылок с доноров тоже приводит к наложению санкции. Закупать ссылки нужно последовательно и медленно.


План действий

1. Найдите наиболее пострадавшие документы и запросы с помощью специальных инструментов

Обязательный набор

 

Обязательно держите в арсенале Ahrefs.com — это мощный инструмент по анализу доноров сайта, который умеет делать множество полезных вещей. К примеру, он выявляет проблемные сайты по типу анкоров, сообщает о количестве уникальных доноров и выдает подробный отчет по каждому партнерскому проекту.

Link Detox — еще один сервис, который анализирует ваши ссылки за вас. Он определяет некачественные доноры, ищет проблемные страницы, делает выгрузки, формирует списки и самостоятельно отключает ссылки (или отправляет их в Disavow Tool).
 
2. Изучите ссылочную массу конкурентов. Выясните, как устроена их донорская сеть, и попытайтесь привлечь к работе наиболее сильных ее представителей.
 
3. Ищите, изменяйте или удаляйте некачественные внешние ссылки. Если нет возможности связаться с веб-мастерами или ссылок слишком много, то лучшим решением будет созданием списков некачественных ссылок, которые затем следует массово отправлять в панель Disavow Tool. 
 

Чтобы избежать столкновения с Penguin, в целом нужно всегда следить за качеством внешних ссылок, улучшать структуру сайта и избегать попадания технических дублей в индекс. Ищите собственную стратегию выбора доноров: ориентироваться следует на тех, кто сможет обеспечить достаточный уровень тематического трафика.

P. S. Текст подготовлен по мотивам интерактивного курса «Методы антиспама. Вывод сайта из-под санкций поисковых систем».

 

Об авторе

Александр Рай

comments powered by Disqus

Видеокурсы по маркетингу и менеджменту

Присоединяйтесь к нам в соцсетях!

Сообщите о предложении или проблеме