Записки Юной Старперши. Web-студия Татьяны Самойловой

Анализ алгоритма Google Panda

Опубликовано Май 18, 2011 в WEB,. WEB-news | Нет комментариев


Основные черты алгоритма Google Panda в своем аналитическом материале перечисляет Майкл Мартинес (Michael Martinez), основатель и автор сайта Seo-theory.com.

Технология Panda была реализована как классификатор документов.

Здесь Майкл имеет в виду, что Google классифицирует одни сайты как низкокачественные, а другие – наоборот.

5ffa6 cb9e281933f148df9a6b0041fa61336c Анализ алгоритма Google Panda

Алгоритм Panda помог некоторым сайтам с дублированным контентом

Очень много вебмастеров жаловалось на то, что а) потеряли трафик в результате апдейта б) их сайты стали ранжироваться ниже, чем сайты, которые скопировали у них контент

Алгоритм Panda смотрит на сайты в целом
В официальном релизе нового алгоритма в блоге Google Blog от 24 февраля Амит Сингал и Мэтт Катс написали, что теперь поисковик будет давать более высокие позиции более качественным сайтам – с оригинальным контентом, исследованиями, глубокими обзорами, анализом и т.п.

Технология Panda использует «новые сигналы»

В выпущенной 11 апреля второй версии Панды были добавлены новые сигналы, которые свидетельствуют о пользовательской активности на сайте.

Алгоритм Панда использует многочисленные сигналы

Впервые Google ассоциирует «низкокачественные сайты» с «поверхностным или небрежно написанным контентом, контентом, скопированным с других сайтов и просто бесполезной информацией».

Также Google отмечает, что низкокачественная одна часть сайта может повлиять на ранжирование всего сайта в целом.

У сайтов, которые пострадали от Panda, снизилась также и частота индексации

Определив сайт как бесполезный для интернет-пользователей, Google уже не будет так же часто его индексировать.

Google сопоставляет заниженные Пандой сайты с пользовательским фидбеком

Google сообщал, что около 84% составило совпадение по 100 тысячам пользовательских сообщений о некачественных сайтах, собранным с приложения для браузера Chrome.

Однако гуглеры дали понять, что сайт не будет понижен только на основании пользовательского отзыва – первоначально сайт должен быть алгоритмически признан некачественным.

Никаких исключений, сделанных вручную, для Панды не существует

Представители компании заявляли, что для алгоритма Панда не создавалась никаких «белых списков» – для сайтов, которым вручную возвращают на позиции. Чтобы подняться из пропасти, в которую провалились многие сайты, нужно внести кардинальные изменения, улучшить сайт.
Это значит, что писать запросы на пересмотр решения алгоритма в Google в данном случае бесполезно.

Внутренние ссылки по-прежнему работают

В среде западных вебмастеров ходили слухи о понижении роли внутренней перелинковки. Однако сложно поверить, что Google перестал воспринимать вообще все ссылки на сайте. Скорее просто у тех сайтов, которые потеряли позиции, сильно снизился PageRank страниц и не осталось никакого веса, чтобы его передавать ссылками.

Индивидуальный подход к сайтам

Среди советов для вебмастеров по улучшению сайта все чаще от Google можно услышать даже такое:
- насколько грамотно (орфографически и стилистически) написан контент на сайте, нет ли фактических ошибок
- не отвлекает ли внимание пользователя от контента переизбыток рекламы на сайте и т.д.
В одном из своих выступлений Мэтт Катс даже сравнивает качественные сайты с продукцией Apple, в которой все прекрасно начиная с упаковки и заканчивая процессом работы.

VN:F [1.9.11_1134]
Rating: 0.0/5 (0 votes cast)
VN:F [1.9.11_1134]
Rating: 0 (from 0 votes)

Читатели рекомендуют также прочесть по этой тематике:

  1. Обновление алгоритма ранжирования Google
  2. Роль поведенческих факторов в алгоритме Google Панда
  3. Google признал и исправил баг в отчете о ссылках Google Webmaster Tools
  4. Алгоритм Google Панда работает в пользу крупных брендов
  5. Google Панда: худшее уже позади
Интересная статья? Поделитесь ею пожалуйста с другими:

Приглашаю присоединиться ко мне:

Оставить комментарий