Новая жизнь. Web-студия Татьяны Самойловой.

Анализ алгоритма Google Panda

Опубликовано Май 18, 2011 в Блог, Новости web


Основные черты алгоритма Google Panda в своем аналитическом материале перечисляет Майкл Мартинес (Michael Martinez), основатель и автор сайта Seo-theory.com.

Технология Panda была реализована как классификатор документов.

Здесь Майкл имеет в виду, что Google классифицирует одни сайты как низкокачественные, а другие – наоборот.

Алгоритм Panda помог некоторым сайтам с дублированным контентом

Очень много вебмастеров жаловалось на то, что а) потеряли трафик в результате апдейта б) их сайты стали ранжироваться ниже, чем сайты, которые скопировали у них контент

Алгоритм Panda смотрит на сайты в целом
В официальном релизе нового алгоритма в блоге Google Blog от 24 февраля Амит Сингал и Мэтт Катс написали, что теперь поисковик будет давать более высокие позиции более качественным сайтам – с оригинальным контентом, исследованиями, глубокими обзорами, анализом и т.п.

Технология Panda использует «новые сигналы»

В выпущенной 11 апреля второй версии Панды были добавлены новые сигналы, которые свидетельствуют о пользовательской активности на сайте.

Алгоритм Панда использует многочисленные сигналы

Впервые Google ассоциирует «низкокачественные сайты» с «поверхностным или небрежно написанным контентом, контентом, скопированным с других сайтов и просто бесполезной информацией».

Также Google отмечает, что низкокачественная одна часть сайта может повлиять на ранжирование всего сайта в целом.

У сайтов, которые пострадали от Panda, снизилась также и частота индексации

Определив сайт как бесполезный для интернет-пользователей, Google уже не будет так же часто его индексировать.

Google сопоставляет заниженные Пандой сайты с пользовательским фидбеком

Google сообщал, что около 84% составило совпадение по 100 тысячам пользовательских сообщений о некачественных сайтах, собранным с приложения для браузера Chrome.

Однако гуглеры дали понять, что сайт не будет понижен только на основании пользовательского отзыва — первоначально сайт должен быть алгоритмически признан некачественным.

Никаких исключений, сделанных вручную, для Панды не существует

Представители компании заявляли, что для алгоритма Панда не создавалась никаких «белых списков» — для сайтов, которым вручную возвращают на позиции. Чтобы подняться из пропасти, в которую провалились многие сайты, нужно внести кардинальные изменения, улучшить сайт.
Это значит, что писать запросы на пересмотр решения алгоритма в Google в данном случае бесполезно.

Внутренние ссылки по-прежнему работают

В среде западных вебмастеров ходили слухи о понижении роли внутренней перелинковки. Однако сложно поверить, что Google перестал воспринимать вообще все ссылки на сайте. Скорее просто у тех сайтов, которые потеряли позиции, сильно снизился PageRank страниц и не осталось никакого веса, чтобы его передавать ссылками.

Индивидуальный подход к сайтам

Среди советов для вебмастеров по улучшению сайта все чаще от Google можно услышать даже такое:
— насколько грамотно (орфографически и стилистически) написан контент на сайте, нет ли фактических ошибок
— не отвлекает ли внимание пользователя от контента переизбыток рекламы на сайте и т.д.
В одном из своих выступлений Мэтт Катс даже сравнивает качественные сайты с продукцией Apple, в которой все прекрасно начиная с упаковки и заканчивая процессом работы.



Оставить комментарий