Апдейты панды. Google Panda – как работает он и как работать с ним


Панда – алгоритм поисковой системы Google, о котором писали неоднократно и не только мы. Но она до сих пор вызывает много вопросов и не все её понимают. В данной статье мы попытаемся собрать в одно целое все, что знаем о Google Панде, ответим на самые частые вопросы и развеем мифы о несуществующих свойствах этого алгоритма. Итак, начнём

Суть алгоритма Панда

Панда создана, чтобы следить за качеством контента сайтов. Если контент не отвечает представлениям Панды о хорошем качестве, позиции сайта в поисковой выдаче Google будут понижены.

Немного истории

Впервые Панда появилась в феврале 2011 года. Тогда алгоритм шокировал SEO-сообщество, так как выдача изменилась кардинально, но никто не понимал – почему. Когда Google, наконец-то, пояснил в чем дело, начался длительный процесс переоценки приоритетов в продвижении сайтов.

За 5 лет Google Панда обновлялся 28 раз. При этом в первые 2 года обновления шли часто (практически раз в месяц), в 2014-м Google сбавил обороты, выпуская Панду раз в полгода. Алгоритм Панда работал как фильтр. То есть после оценки сайта основным алгоритмом Google, включающим 200+ факторов, сайт оценивал и Панда. Данные о качестве сайтов копились до очередного апдейта, после чего выкладывались разово, меняя всю картину гугл-выдачи.

Последний апдейт в июле 2015-го происходил совсем по иному сценарию. Алгоритм «раскатывался» в течение нескольких месяцев. И специалисты заговорили о встройке Панды в основной алгоритм Google.

Панда сейчас и в ближайшем будущем

И действительно, в своем твиттере Гари Илш подтвердил, что Панда теперь ЯВЛЯЕТСЯ частью основного алгоритма ранжирования:

Дженифер:
Превосходно, спасибо за подтверждение... и дополнение, что никаких других животных не появилось))

Гарри Илш:
Если сказать точно, Панда - теперь часть основного алгоритма, но мы не изменяли саму Панду. Никаких других животных.

При этом Илш опровергает возникшее предположение, что Панда обновляется в режиме реального времени:

Пит:
Я не уверен, в какой момент началось обсуждение Панды в режиме реального времени, просто пытаюсь разобраться.

Гарри Илш:
Панда в режиме реального времени - это неверно. Мы обновили основной алгоритм, и вне зависимости от этого мы рассказали чуть больше о Панде в интервью TheSEMPost.

И что все это значит? Как теперь работает Панда? На сегодняшний день (10 марта 2016) точного ответа нет (как это ни печально). Мы изучили интервью и просмотрели записи последних выступлений представителей Google по этому вопросу. Но их высказывания по теме очень туманны. Гари Илш на прямые вопросы об интеграции Панды ответил вот что:

Кеничи:
1. Панда теперь часть основного алгоритма ранжирования. Значит ли это, что Панда будет обновляться автоматически, а не вручную (даже если и не в режиме реального времени)?
2. Что это вообще за "Основной алгоритм ранжирования"? Насколько он отличается от остальных алгоритмов (не входящих в него)?

Гарри Илш:
Я переговорил с Джоном Мюллером о том, как ответить на ваши вопросы, чтобы было меньше путаницы. Решили так:

1. Мы продолжаем обновлять данные, которые используются для распознавания качественных сайтов, и мы выкладываем эти данные со временем. Иногда мы вынуждены делать ручные обновления, иногда это происходит автоматически, но не играет роли, как именно мы выкладываем данные.

2. Думаю, что это не лучший пример, но представьте себе двигатель автомобиля. Если в нем нет стартера, то водитель вынужден подходить к капоту и использовать какие-то инструменты, чтобы запустить двигатель. Сегодня стартеры есть в любых бензиновых двигателях, они встроены. Это сделало использование двигателя более удобным, но по сути ничего не изменилось.
Для пользователей и даже для вебмастеров не должно иметь значение, где какие компоненты расположены (в основном алгоритме или в других), это действительно не важно, и поэтому я думаю, что люди должны меньше фокусироваться на этом.

Кеничи:
Понял, что вы хотели сказать. В общем, для нас, вебмастеров, не важно, как работает алгоритм "внутри". Мы должны фокусироваться на создании контента уникального, качественного и неотразимого, как Джон Мюллер постоянно говорит.
Возможно, вы столь много раскрыли в последние несколько дней, что это вызвало мои вопросы (не поймите меня неправильно, я ни в коем случае не обвиняю вас). В любом случае, спасибо за ответы))

Попробуем резюмировать из этого (и других источников, с которыми мы ознакомились) основные мысли по новой Панде:

  • Панда может функционировать в автоматическом режиме (но пока НЕ онлайн режиме), т.е. обновления будут происходить периодически и будут запускаться по каким-то внутренним законам основного алгоритма.
  • Обновления Панды (в рамках основного алгоритма) будут происходить теперь чаще, чем было в последние годы.
  • Google больше не будет подтверждать апдейты Панды (как отдельного алгоритма) и вообще как-то их выделять. Так что узнать, попал ли сайт под Панду или позиции понизили по другим причинам, будет затруднительно.
  • Можно забыть про Панду, как фильтр или алгоритм. Работайте над улучшением сайта не ради Панды, а чтобы отвечать ОБЩИМ требованиям Google. Теперь качество контента – один из основных факторов ранжирования Google.

За что именно наказывает Панда?

– За откровенный копипаст

Если весь ваш сайт это сборник скопированных статей, то, скорее всего, он уже под Пандой. Если еще нет, то скоро будет.

– За отсутствие реальной ценности

Если страница хорошо оптимизирована и даже тексты технически уникальны, но информация никакой пользы не несет и на запрос пользователя не отвечает или отвечает общими, размытыми понятиями. А такое встречается часто, особенно когда вебмастера заказывают дешевые статьи для блога на биржах. Такие страницы могут стать жертвой Панды.

В общем и целом Google не против рекламы или ссылок. Но только если они уместны и не мешают пользователю. Если же реклама очень навязчива (особенно поп-ап окна) или рекламные блоки расположены так, что мешают прочтению, а ссылки на сторонние ресурсы проставлены к месту и не к месту и не являются тематическими, то Панда вас обязательно догонит.

А за что Панда не наказывает

В сети встречаются мнения, что приведенные ниже факторы могут навлечь Панду. Частично эта информация устарела, частично никогда не была правдой. Следующие 4 фактора к Панде отношения не имеют, но на ранжирование сайта (посредством других алгоритмов) влияют:

– Дублированные страницы

Дубли страниц на одном сайте это плохо. Но работает с ними не Панда, а отдельный фильтр за дубли.

– 404 ошибка

Тоже никак не привлекает Панду, хотя большое число ссылок, ведущих на страницу с ошибкой 404 в общем и целом, безусловно, плохо.

– Маленькие тексты и/или мало текстов

Панда НЕ наказывает за тексты маленьких объемов и НЕ наказывает за малое количество статей на сайте. Google отдает предпочтение качеству, а не количеству. И если ваш текст в 300 знаков хорошо отвечает на запрос пользователя, то это замечательно. Только вот надо уметь писать такие тексты.

Вот что пишет Джон Мюллер в форуме помощи вебмастеров:

Проблема малых объемов и малого числа статей на сайте заключается не в Панде. А в том, что в этом случае вы не сможете дать пользователю столько полезной информации, сколько могли бы. И ваш сайт будет показан по ограниченному числу запросов.

– Вовлеченность пользователя

В то же время комментарии к статьям (если они качественные) могут быть зачтены в карму сайта. Но не как сигнал вовлеченности пользователя, а как дополнительный контент, который появился на странице и учитывается поисковиком наравне с телом самой статьи.

И еще 5 спорных вопросов о Панде

– Панда атакует весь сайт или только те страницы, качество которых Google посчитал плохим?

Панда понижает только те страницы, которые были определены, как некачественные. Те страницы, которые алгоритм посчитал хорошими, не будут иметь проблем с ранжированием. Но, если на сайте слишком большое число плохого контента, то к такому сайту будет «предвзятое» отношение. И даже качественные материалы могут быть ранжированы ниже тех позиций, которых реально заслуживают.

– Страницы под Пандой могут быть показаны в поиске или это в принципе невозможно?

Представители Google говорят, что страницы, забракованные Пандой, могут быть показаны по очень специфическим (уточненным) запросам, если нет другой альтернативы. Но в целом, такие страницы так далеко в выдаче, что поискового трафика на них ждать не стоит.

– Надо ли удалять страницы, которые попали под Панду?

Нет, Google не рекомендует этого делать. Во-первых, вы по ошибке можете удалить страницы, которые Пандой вовсе не атакованы. Во-вторых, отсутствие контента никак не повлияет на улучшение ситуации. Сайт по-прежнему не будет показываться по продвигаемым в такой странице запросам.

Лучший способ решить ситуацию – переработать/улучшить контент на странице, которую вы подозреваете в присутствии Панды. Да и вообще, если вы сами считаете, что контент на какой-то странице плохой, то не ждите Панду, исправляйте сразу.

Google панда – алгоритм, разработанный и запущенный в 2011 году компанией Google, который используется для качественного анализа сайтов в выдаче поисковой системы.

Он способен находить и исключать из ранжирования (или понижать позиции документов) те страницы, которые имеют большое количество неуникального контента, не содержат какой-либо полезной информации и предназначены исключительно для заработка.

В первую очередь Google панда учитывает, насколько тот или иной ресурс ориентирован на пользователя, однако для определения качества сайта этот алгоритм использует не только этот критерий, но и целый ряд других, не менее важных критериев, что обязательно нужно учитывать при поисковом продвижении.

Критерии оценки сайтов, которые учитывает алгоритм Google панда

  • . Алгоритм Панда учитывает время, которое проводят пользователи на сайте, процент возвратов на сайт, процент отказов, количество возвратов по отношению к общему числу переходов, количество переходов внутри сайта и некоторые другие факторы. Для того, чтобы обеспечить сайту хорошие позиции в поисковой выдаче, веб-мастер должен создать привлекательный для пользователей ресурс, наполнить его уникальными статьями, качественными внутренними ссылками, реализовать понятную навигацию, обеспечить быстрый поиск нужной информации и подумать над тем, что еще заставит пользователя задержаться на сайте как можно дольше.
  • . Даже при условии одновременного использования разных методов продвижения сайта особое внимание следует уделять качеству размещаемого на страницах сайта контента. Алгоритм Panda анализирует уникальность представленной на сайте информации по процентному соотношению контента, заимствованного с других ресурсов к общему количеству контента на сайте и на каждой странице в отдельности. Нужно понимать, что информация низкого качества, размещенная всего лишь на одной странице, может ухудшить позиции в поисковой выдаче не только этой страницы, но и всего ресурса. Аналогичное негативное воздействие на сайта оказывает чрезмерное количество однотипных по содержанию текстов с разными ключевыми запросами (высокой шаблонностью), а также текстов с большой плотностью ключевых слов и фраз (большой тошнотою).
  • ссылочной массы и рекламы . Алгоритм Google панда устанавливает степень соответствия тематики размещенных на ресурсе объявлений тематике

мкр. Черная Речка, д.15 Россия, Санкт-Петербург 8 812 497 19 87

Алгоритм Гугл Панда: обновления Google Panda 2018


ПОДЕЛИЛИСЬ

Обновление Google Panda изменило мир SEO.

Круто если нет, но лучше прочтите эту статью, будет полезно узнать что изменилось с внедрением алгоритма Google Panda и как избежать понижения в поисковой выдаче Google.

Обновление Google Panda. Справочная информация по SEO

Ознакомьтесь для начала с инфографикой.


С чего все началось.

ДО Panda SEO чем-то стал напоминать «грязный бизнес», и сайты качественные не всегда выигрывали в ранжировании.

Поскольку все больше и больше становилось неактуальных сайтов, плагиата и сайтов с плохим содержанием, они стали превосходить число хороших в результатах поиска.

Для борьбы со спамом Google потребовалось новое обновление.

Обновление Google Panda. Что это такое и что оно дает?

Panda, вероятно, войдет в историю как один из самых известных обновлений Google.

Главной задачей Panda было улучшить работу пользователей, избавив верхние поисковые места от спам-страниц.

Новое обновление и алгоритм учитывали репутацию сайта, дизайн, скорость загрузки и пользовательский интерфейс, чтобы людям было удобнее.

Как обновление Google Panda затронуло сайты

Эффект Panda был далеко идущими — и все еще ощущаются многими сегодня.

Первоначальное обновление в 2011 году затронуло примерно 12% поисковых запросов, что означает, что 12% рейтинга в Google резко изменилось.

Особенно это ощущалось крупными контент-фермами, включая About.com, eHow, Demand Media и Yahoos Associated Content.

Более 80% сайтов, на которые негативно повлияло обновление Panda, по-прежнему справляются с убытками.

Хронология обновления Google Panda

Panda регулярно обновляется с момента ее появления в 2011 году.

Обновление происходит, когда Google просматривает все сайты в Интернете, и проверяет их на алгоритм Panda. Обновление — это фактическое изменение алгоритма Panda.

Таким образом, алгоритм Google Panda обновлялся с 24 февраля 2011 года до 17 июля 2015 года.

Цели обновления Google Panda

На протяжении многих своих изменений основное внимание в обновлениях Panda уделялось отсеиванию низкокачественного контента из результатов поиска пользователей.

К проблемам, которые он затрагивает, относятся:

  • Скудный контент — страницы со слабым или небольшим содержанием; если у вас несколько страниц с парочкой предложений в каждой, они, скорее всего, будут классифицированы как скудный контент. Если только на одной или двух страницах, тогда все ОК. Но если таким является весь сайт, то это «красный флаг».
  • Дублирующийся контент — контент, который повторяется. Это может быть содержимое, которое копируется с других страниц в Интернете или показывается на нескольких страницах вашего сайта с незначительным изменением текста.
  • Некачественный контент — любой контент, лишенный адекватной информации.
  • Машинный или автогенерируемый контент — любое содержимое, автоматически формируемое специальными алгоритмами, приложениями или другими источниками в которых не задействованы люди.
  • Плохой слог — слишком много заметных ошибок в стилистике и грамматике.
  • Слишком много тем в рамках одного сайта — если ваш сайт не имеет четкой темы и охватывает несколько тем, вместо того, чтобы сосредоточиться на чем-то одном
  • Отсутствие авторитетного мнения — контент из непроверенных источников
  • Слишком много 404 ошибок или редиректов
  • Заполнение ключевыми словами — обилие ключевых слов в попытке манипулировать рейтингами
  • Контент-фермы — большое количество коротких, некачественных страниц
  • Слишком много рекламы — если на странице больше рекламы, чем полезного текста.
  • Низкокачественные партнерские ссылки — низкокачественный контент, ведущий на партнерские страницы.
  • Контент, который не соответствует поисковым запросам — страницы, которые показывают некорректную информацию.
  • Сайты, заблокированные пользователем — сайты, заблокированные пользователями через расширения.

Как обновления Google Panda повлияли на SEO-стратегию

Последствия обновления Panda ощутил весь мир маркетинга, и ее внедрение привело к существенному сдвигу в SEO.

В основном, оптимизаторы должны теперь ориентироваться на удобство интерфейса сайта для его посетителей.

Ран ее главная цель SEO заключалась в том, чтобы контент был доступен для поисковых систем и соответствовал необходимым запросам с помощью добавления необходимых ключевых слов и построению ссылочной массы, ведущей на необходимые продвигаемые страницы.

Тепер ь же а кцент делается на пользователя, а не на алгоритмы поисковых систем .

Это акцент на качество, а не на количество.

Например, многие думали, что путь к первому месту Google — это выкладывать контент каждый день, чтобы Google постоянно его индексировал.

Но из-за Панды, если вы ведете блог просто ради того, чтоб вести, можно принести больше вреда, чем пользы. Каждая опубликованная вами статья должна быть качественной, уникальной и предоставлять читателям необходимые ответы и информацию.

Качественный контент, дизайн и полезность = заслуженный, высокий ранг.

Чтобы занять первое место, вам нужно его заслужить.

Цитата от представителя Google резюмирует: «Создатели контента не должны думать, сколько посетителей у них было в день, а скольким посетителям они помогли».

Как узнать, пострадали ли вы от обновления Google Panda

Наиболее очевидным предупреждающим знаком является внезапное падение трафика.

Если это произошло с вашим сайтом во время известного обновления алгоритма, вы, вероятно, пострадали от штрафа Panda.

Другой способ определить — посмотреть на общее качество вашего сайта. Снимите розовые очки, и ответьте себе на вопросы.

  • Являются ли ваши показатели отказов высокими?
  • Делятся ли вашим контентом и получает ли он комментарии?
  • Удобна ли навигация и ссылки?
  • Проверьте общее качество сайта. Если у вас есть сомнения, то у Google явно тоже;)

Пострадали от Панды? Как реабилитироваться

Первый шаг: не паникуйте. Вместо этого приступайте к работе.

Обновления Panda происходят примерно раз в месяц, что дает вам немного времени для работы.

Между обновлениями, если вы предпримете правильные шаги, то начнете видеть некоторые улучшения в своем рейтинге. Иногда Google повторно обновляет все ваши изменения.

Теперь к конкретике. Когда Panda наносит удар, нужно восстанавливаться через контент.

Как Panda проверяет ваш контент

Поскольку Панда только за качественный контент, это именно то, с чего вам нужно начинать.

Прежде всего, не удаляйте одним махом весь контент, даже некачественный. Лучше исправьте имеющийся и добавьте то, чего ему не хватает.

Если убрать все, можно сделать еще хуже.

Если вы сомневаетесь в качестве страницы, перейдите к своим метрикам. Страницы с высокими показателями отказов и с низким уровнем времяпрепровождения на сайте человека говорит о том, что с контентом явные проблемы.

Если вы не уверены, то

Список довольно внушительный получился))

Поэтому начните со страниц, которые в ТОПе и приносят больше всего трафика. Чтобы узнать какие именно это страницы (если еще не знаете), посмотрите аналитику (можно через Google Analytics).

Помимо собственного контента, важно следить за тем, что пишут пользователи сайта.

Не весь контент, написанный пользователями, плох, но он подчиняется тем же стандартам качества, что и любой другой контент на вашем сайте.

Обратите особое внимание на качество, если ваш сайт содержит форумы и там много комментариев.

Алгоритм рассматривает комментарии как часть вашего контента. Поэтому, если эти комментарии содержат полезную информацию в дополнение к содержанию, то это может быть хорошим дополнением к вашему сайту.

А низкокачественные комментарии могут повредить вашему сайту. Но не удаляйте комментарии полностью. Это может повредить ваш сайт с точки зрения взаимодействия с пользователем.

Каков статус обновления Google Panda сегодня?

Гугл Панда все еще жива и здорова… и продолжает развиваться.

Фактически, Panda получила повышение: в 2016 году она стала частью основного алгоритма Google.

Самое большое изменение, которое заметили большинство пользователей — это конец официальных объявлений.

Panda стала основой, потому что она больше не требует большого количества изменений.

То есть основное внимание уделяется качественному контенту и опыту пользователя.

Завершение обновления Google Panda

Panda революционизировала SEO. Для большинства изменения были к лучшему.

Сегодня принципы Panda — это общие стратегии SEO.

Поэтому, если вы их не используете, настало время уделять серьезное внимание Панде.

Думаю, статья была полезной, даже тем, кто не особо в теме SEO.

Google Panda - один из самых сложных и интересных алгоритмов Google, который сейчас, спустя три года после выхода первой версии, продолжает оставаться загадкой. Как мы знаем, основной целью «Панды» является определение некачественного контента, но согласитесь, это очень широкое понятие. Мы видели, как «под Панду» попадали дорвеи, сайты с автоматически сгенерированным контентом, с большим количеством дублей страниц, неуникальным контентом, переспамом в тексте и мета-тегах и с многими другими менее явными проблемами. Но значит ли это, что сам алгоритм остается на уровне грубого фильтра? Не факт.

Что мы знаем о Panda?

Панда в первую очередь - эвристический алгоритм. Это означает, что сканируя информацию, она пытается найти наиболее верное решение проблемы или ответ на запрос. Разработка алгоритма началась с того, что группа тестировщиков оценивала большое количество сайтов по ряду критериев. Эти оценки позволяли инженерам установить основные факторы, которые должны учитываться и определять так называемый «Panda score». Кроме механизма фильтрации некачественного контента, думаю, существует и другая сторона «Панды», которая включается в основной алгоритм ранжирования и может как негативно, так и позитивно влиять на позиции сайта (не стоить думать о Панде как о бинарном фильтре: либо фильтрует, либо нет).

Google Panda - часть общего алгоритма?

Не так давно в «мире Панды» произошло одно важное событие, которое еще более усложнило жизнь вебмастерам: Mэтт Каттс объявил , что алгоритм будет обновляться ежемесячно на протяжении 10-дневного периода. К тому же, никаких подтверждений апдейта не будет. Теперь мы все играем в темную.

Почему это становится проблемой, я думаю, понять несложно. Для примера, когда вы видите в Analytics, что у сайта упал трафик, и получаете подтверждение того, что в это время обновился алгоритм Панды, вы четко понимаете причину падения трафика и можете предпринимать осмысленные действия.

Теперь сайт может попасть под алгоритм «Панда» на протяжении 10-дневного периода, однако никто не знает, когда он начинается и когда заканчивается. К тому же, основной алгоритм ранжирования Google обновляется около 500 раз на год, и это не учитывая «Пингвина» и других мелких «радостей». Понять причину падения трафика становится все тяжелее, а без этого предпринимать эффективные действия по его возобновлению не представляется возможным.

Последний подтвержденный апдейт «Панды» был 18 июля 2013 года. Но это далеко не последнее обновление, так как алгоритм перешел в стадию почти реального времени. Я написал «почти», потому что много сеошников верят, что «Панда» теперь работает без остановки (является частью общего алгоритма). Это не совсем так, и в одном из Google+ HangOut Джон Миллер это объясняет . Из слов Джона можно понять, что «Панда» не работает в режиме реального времени, а сохраняет ту же систему апдейтов. Но прогресс в разработке уже на таком уровне, что Google может быть уверен в алгоритме и тестирования перед запуском теперь не обязательное. Это важно понимать, так как сайт не может попасть под «Панду» в любой день месяца, только во время очередного апдейта (напоминаю, теперь он длится 10 дней).

Как все же отслеживать апдейты «Панды»?

Вот мы и подошли к основной проблеме: как определить, что колебания трафика вызваны именно «Пандой»? Ответ Мэтта Каттса на аналогичный вопрос:

Но все же давайте попробуем разобраться сами. Несколько советов:

1. Следите за датами

В первую очередь нужно четко установить дату роста или падения трафика, что позволит связать ее с предположительным апдейтом. Это может быть как «Панда», так и «Пингвин». Определить, какой именно алгоритм «зацепил» сайт, очень важно - от этого будет зависеть план действий по восстановлению потерянных позиций.

Например, если Google «выкатывает» новый апдейт «Пингвина», то на форуме вы сможете найти множество описаний одной и то й же ситуации: позиции и трафик резко упали либо, наоборот, вернулись на прежние позиции. Если вы видите, что дата колебаний трафика у других аналогична вашей, то, скорее всего, вы в «одной лодке».

3. Следите за блогами SEO-шников

Подписывайтесь на новости или читайте блоги тех SEO-шников, которые регулярно отслеживают все изменения алгоритмов. Опытные специалисты имеют хорошие связи и доступ к широкому спектру данных (клиентские сайты, консалтинг, репорты аудитории), что позволяет получать более полную картину того, что происходит.

4. Проведите SEO-аудит

Если у вас есть подозрения, что по вашему сайту прошелся «милый зверек», то необходимо провести SEO-аудит в первую очередь в тех зонах, на которые нацелена «Панда», а именно аудит контента. Вот несколько советов:

  • проверьте сайт на наличие дублей страниц;
  • проследите, как сайт ищется по кускам текста (по широкому и точному соответствию);
  • проверьте тексты и мета-теги на предмет переспамленности ;
  • посмотрите в Google Webmaster Tools , не уменьшилось ли количество проиндексированных страниц (Google Index - > Index Status);
  • проверьте в Google Webmaster Tools количество показов сайта в поисковой системе (Search Traffic - > Search Queries).

5. Мониторьте сервисы, которые отслеживают изменения алгоритмов

Существуют сайты, которые следят за «погодой» в мире SEO, - это MozCast и Algoroo . Большие изменения «температуры» свидетельствуют о том, что Google что-то затевает либо уже затеял. Данные сервисы вам не скажут, что делать, но быть в курсе тоже очень важно.

Выводы. Можно предположить: то, что Google запустил «Панду» в полуавтоматический режим, является определенным сигналом «футуристам SEO», что не за горами время, когда и «Пингвина» постигнет подобная участь. Точнее эта участь постигнет нас. Только представьте себе: каждый месяц два апдейта, которые не подтверждаются поисковым гигантом. Темные времена нас ждут, друзья, темные времена.

Надеюсь, эта статья помогла вам разобраться, что же такое Google Panda и как определять обновление ее алгоритмов.

Многие СЕО-оптимизаторы давно уже знают о таких алгоритмах Google, как Панда, Пингвин и Колибри . Кто-то и сам пострадал от них, кому-то удалось успешно избежать их действия.

Но большинство новичков, которые стремятся раскрутить свои сайты в поисковых системах, совершенно неправильно понимают, на что конкретно направлены удары этих алгоритмов.

Есть немалая часть вебмастеров, которые вообще не учитывают их при создании сайтов. А вместе с тем, хотя разрушительное действие Панды, Пингвина и Колибри косит каждый день множество сайтов, обойти их не так уж и трудно, если правильно во всем разобраться и правильно всё сделать.

Вообще-то принципы, по которым эти алгоритмы действуют, не такие уж и новые, просто появление их позволило значительно упорядочить борьбу Гугла с не качественными (на его взгляд) сайтами, и проводить очистку выдачи более результативно.

Итак, приступим к рассмотрению.

Поисковый алгоритм Google - Панда

Самый первый из этой троицы (2011 г.), и самый, на взгляд новичков, страшный . В принципе, поисковый алгоритм Панда страшный не для самих новичков, а для их небрежного отношения к создаваемым сайтам.

Конечно, каждый вебмастер – полный хозяин своего веб-сайта, как он хочет, так его и создаёт, и тут ему никакой Гугл не указ. Однако не следует забывать, что и Гугл – полный хозяин своей выдачи, и какие сайты хочет – те в свою выдачу и пускает, а какие не хочет – не пускает. Для этого используются поисковые алгоритмы Google .

Панда явилась самым первым инструментом протеста поисковых систем против ошибок и небрежностей не только новичков, но и против разгильдяйского отношения к поисковым системам (и к своим собственным проектам в том числе) со стороны всяких «авторитетов». Дело в том, что очень многие крупные сайты, в основном коммерческие – магазины, сервисы, справочники и им подобные - допускают создание страниц с похожим контентом.

В основном это описание товаров или услуг, сходных по основным параметрам, но различающихся только некоторыми мелкими деталями, например:

  • размером;
  • цветом;
  • ценой и т. п.

Основной контент, таким образом, на таких страницах одинаковый, часто схожесть достигает 90 и больше процентов. Со временем на сайте накапливается очень большое количество страниц-клонов. Конечно, посетителям это никак не мешает, но выдача поисковых систем буквально засоряется однотипными веб-документами.

До того, как был введен алгоритм Панда , Гугл просто «склеивал» такие дубли, то есть в выдачу пускал только одну из них, а остальную помещал в категорию «дополнительные результаты». Но, как говорится, всё хорошо до поры до времени и появились новые поисковые алгоритмы google. И наступил момент, когда даже «дополнительные результаты» не могли улучшить картину.

Алгоритм Панда направлен на поиск и выявление таких веб-страниц, определение допустимого их количества и принятие мер к проектам, на которых количество таких страниц слишком чрезмерно.

Как только алгоритм Панда начал действовать в полную силу, очень многие авторитетные сайты послетали со своих «вкусных» позиций в топах выдачи, и, соответственно, очень сильно «просели» по трафику.

Конечно, владельцы этих веб-сайтов, разобравшись в причинах такой катастрофы (изучив новые алгоритмы Google), постарались как можно быстрее исправить положение, но назад на «хлебные места» вернулись далеко не все. Их места заняли более удачливые конкуренты, которые вовремя среагировали на поисковые алгоритмы google , или вообще не нарушали новоявленных правил изначально.

Алгоритм Google: Пингвин

Следующий алгоритм – Пингвин (2012 г.) – нацелен совершенно на другие сферы, и не касается сайтов непосредственно, а бьёт их только косвенно – по ссылочной массе . Многие вебмастера и даже достаточно опытные СЕО-оптимизаторы до недавнего времени очень небрежно относились к ссылкам, которые они приобретали на свои сайты с чужих веб-ресурсов. И когда было объявлено, что новый алгоритм (Пингвин) будет разбираться со ссылочным ранжированием, основная масса владельцев «авторитетных» сайтов практически не придала этому значения.

Конечно, и задолго до появления Пингвина было известно, что поисковые системы очень негативно относятся к покупным ссылкам, и всячески ведут борьбу с нарушителями. Наиболее здравомыслящие вебмастера не связывались со ссылочными биржами, и приобретали ссылки, так сказать, в частном порядке, полагая, что раз их невозможно связать с биржами, то и не последует никакого наказания.

Однако они не учли того, что многие сайты-доноры сами являлись покупателями ссылок, и большая часть их «засыпалась», когда Пингвин начал активно действовать. Естественно, все ссылки, ведущие с этих сайтов, исчезли, и «третьи» сайты попросту лишились значительной части своей ссылочной массы.

А когда сайт лишается части ссылочной массы, то, естественно, он проседает в выдаче и теряет заметную часть своего трафика.

Кто-то из не разобравшихся в ситуации владельцев посчитал это как наказание за несуществующие прегрешения. Однако в итоге оказалось, что никаким наказанием тут и не пахнет. Наказанными были те сайты, причастность к закупке ссылок которых удалось доказать. А те сайты, которые, в свою очередь, были связаны с ними ссылками, просто «оказались не в том месте и не в то время».

Таким образом мы видим, что алгоритм Колибри «накрыл» огромный сегмент выдачи Гугла, связанный с закупкой ссылок. А потому он оказался гораздо эффективнее «точечных» ударов – теперь практически все сайты интернета, которые свой трафик (и доходы вместе с ним) получают из выдачи Гугла, то есть зависят от этой поисковой системы, будут внимательно следить за своей ссылочной массой и стараться избегать получения ссылок с сайтов, насчет которых имеется хотя бы малкйшее подозрение, что они свои ссылки, в свою очередь покупают на биржах.

Кто-то, конечно, проклинает Гугл, обвиняя его в нечестной игре, но не следует забывать о том, что, во-первых, Гугл никогда не играет нечестно – этого ему не позволяют ни американская мораль, ни американские законы, а во-вторых, ничего более эффективного в борьбе против эпидемии покупных ссылок пока еще никто не изобрел.

Алгоритм Гугл: Колибри

Третий алгоритм, который очень сильно ударил по множеству сайтов – это Колибри, появившийся в 2013-м году . Против чего же направлен этот алгоритм? А направлен он, в самую первую очередь, против дорвеев и сайтов, которые используют при продвижении своих страниц так называемый ключевой спам.

Очень многие пользователи Гугла при поиске нужной информации вводят в строку поиска «упрощенные», или «неправильные» запросы, например, «трусы купить где», «отдых таиланд» или «ресторан новосибирск», а кто-то вообще допускает в запросах множество ошибок.

Конечно, Гугл «подгоняет» к таким запросам наиболее релевантные им страницы сайтов, на которых, естественно, запросы в таком «неправильном» виде не встречаются, но зато логически отвечают им более полно.

Вроде бы что тут такого? Но дело в том, что все запросы, вводимые в строку поиска, Гугл сохраняет в своей базе, а этой базой постоянно пользуются дорвейщики и производители «клоачных» сайтов. Как правило, с помощью автоматизированных средств они «затачивают» страницы своих «произведений» под такие «неправильные» запросы, и тем самым сразу же выдают себя с потрохами.

Индексирующие роботы, анализируя содержимое страниц сайтов, постоянно сверяются с ключевой базой Гугла, и если таких «неправильных» фраз на страницах слишком много, то весь сайт попадает под подозрение.

Кто-то даже упускает из виду, что Гугл обращает внимание даже на то, с какой буквы начинаются имена собственные или географические названия – с большой или с маленькой. Ну, если кто-то пишет текст и пару раз неправильно напишет имя или название, то это не страшно. Но если название городов или имена людей на всем сайте – с маленькой буквы, то это уже сигнал не совсем (или совсем не) качественного сайта.

Итог анализа алгоритмов Google

Итак, мы рассмотрели три самых главных алгоритма Гугла , которые сообща охватывают очень важные сферы создания и продвижения веб-ресурсов. Все они стоят на страже дела улучшения качества веб-контента. Конечно, есть множество умельцев, которые очень успешно обходят все эти алгоритмы и продолжают наполнять выдачу Гугла некачественными сайтами, но это уже не тот объём, который был до появления Панды, Пингвина и Колибри.

Можно ожидать, что эти алгоритмы со временем будут усовершенствоваться, будут появляться более мощные их модификации. Потому лучше всего сразу нацелиться на честную работу и не допускать досадных оплошностей, которые в итоге могут существенно навредить вашему веб-детищу, с помощью которого вы собрались покорять топы выдачи Гугла!







2024 © gtavrl.ru.