Google — рекордсмен по борьбе с третьесортными сайтами и чёрной оптимизацией. Поисковик собрал уже целый арсенал фильтров, которые выявляют и отправляют на принудительное лечение бесполезные для пользователей ресурсы.
Чтобы избежать такой “госпитализации”, создавайте здоровые сайты. Как не допустить ошибок и что делать, если уже поздно, — ниже.
Признаки попадания сайта под фильтр Google
Пора задуматься над лечением сайта, если:
- внезапно упал трафик;
- исчезли из выдачи страницы или потерял позиции весь сайт;
- медленно индексируются свежие страницы.
О снижении показателей и притоке искусственных ссылок также уведомит Google Webmaster Tools. Дополнительно проверьте сайт с помощью специальных сервисов и приложений — например, Barracuda, Fruition или Seolib.
Список фильтров Google
Панда
Этот фильтр в совершенстве овладел приёмами кунг-фу против некачественных сайтов. Снижает позиции и лишает трафика за нарушения по аналогии с АГС Фильтром Яндекса.
Проблемы сайтов, на которые обращает внимание Панда:
- неуникальный, переоптимизированный, бессмысленный контент
- зашкаливающее число отказов, низкие поведенческие факторы
- неудобные юзабилити и структура, примитивный дизайн
- агрессивная реклама
- наличие дублирующихся страниц
- подозрения на манипуляции со ссылками
После “удара” Панды сайту предстоит долгое лечение. Пересмотрите стратегию продвижения и поработайте над ошибками.
Пингвин
Penguin отслеживает и лишает позиций сайты, увлекающиеся нечестным линкбилдингом. К сомнительным приёмам наращивания ссылочной массы относятся:
- оптовая закупка ссылок
- ссылочный спам на форумах
- ссылки с площадок, не подходящих по тематике
- линки с одинаковым анкором (текстом ссылки)
- публикация невидимых ссылок
Чтобы выйти из-под фильтра, удалите подозрительные ссылки и в дальнейшем увеличивайте массу естественным путём (например, через соцсети).
Песочница
Молодые сайты неизбежно попадают в sandbox. Google прощупывает их — можно ли доверять? Влияние фильтра выражается в медленной индексации страниц.
Время в “песочнице” стоит потратить с пользой — работать над контентом, функциональностью, дизайном, наращиванием естественной ссылочной массы.
-30
Из названия легко догадаться, что происходит с ресурсом после того, как он попадает под фильтр, — сайт резко падает в выдаче на 30 позиций. Причина — чёрный seo:
- клоакинг
- дорвеи
- редирект на JavaScript
Перестаньте пытаться обмануть поисковую систему, и после обновления выдачи всё будет в порядке.
Дополнительные и опущенные результаты
После применения фильтра сайт перестаёт отображаться в основной выдаче и переходит во вкладку внизу страницы под названием “показать дополнительные (или скрытые) результаты”. Так происходит, потому что Google считает контент ресурса не особо ценным или обнаруживает проблемы в структуре сайта.
Чтобы выбраться “из-под плинтуса” уникализируйте тексты, мета-теги и заголовки, улучшите юзабилити и внутреннюю перелинковку.
Частые причины пессимизации сайтов в выдаче
Дублирующийся контент
Уникальный контент продвигает сайты в выдаче, копипаст даёт обратный эффект.
Выход из ситуации простой: удалите чужое, закажите или напишите оригинальные статьи, в случае с цитированием проставьте ссылки на первоисточник.
Битые ссылки
Google не жалует сайты, грешащие ошибкой 404, — чревато потерей трафика и исключением из индекса.
Проверьте ресурс на неработающие ссылки с помощью специального софта (например, программы Xenu).
Овер-оптимизация
Время переспама ключевыми словами прошло. На гребне волны — живые, внятные, полезные тексты для людей, а не поисковых роботов. Чтобы выйти из-под фильтра:
- сократите количество ключевиков
- сделайте кеи релевантными страницам
- разбавьте плотность ключей в текстах
- уберите выделение ключевых слов жирным или цветом
- публикуйте тексты для реальных людей
Социтирование
Фильтр угрожает сайту, когда:
- вы продаёте ссылки
- вы покупаете мусорные бэклинки (обратные ссылки)
- кто-то специально ссылается на ваш сайт из сомнительных источников
Если первые два пункта про вас, прекратите это делать. Если ваш случай — третий, обратитесь в поддержку Google.
Время загрузки страницы
Рекомендуемое время загрузки страницы — не более 7 секунд. Если дольше — поисковый робот просто пропустит сайт и не проиндексирует обновления.
Проверяйте и улучшайте показатели с помощью специальных сервисов, типа Page Speed.
Ещё три фильтра:
“Бомбинг” — за одинаковые анкоры внешних ссылок
“Много ссылок сразу” — за оптовую закупку линков
“Много страниц сразу” — за неестественное добавление большого количества контента в короткий промежуток времени
Подписывайтесь на наш канал в Яндекс.Дзен!
Нажмите "Подписаться на канал", чтобы читать DigitalNews в ленте "Яндекса" .