Поведенческие факторы в Google. Возврат к поисковой выдаче


В этот раз я спросила мнение известных SEO-экспертов Рунета на очень актуальную тему«Google vs. Яндекс: нюансы SEO под каждую из поисковых систем».

От себя хочу сказать еще такой важный момент — проверяя позиции, не забывайте смотреть релевантные страницы. Это одна из самых частых ошибок — когда в Гугле и Яндексе разная релевантная страница . То есть, вы уверены у себя в голове, что продвигаете главную, а в поисковой выдаче стоит вообще какая-нибудь карточка товара.

В разных ПС также может быть и разный ТОП — страницы немного разного типа. Хотя по опыту, чаще всего ТОП идет более-менее одинаковый. Опять же низкие позиции в поисковых системах часто бывают потому, что под запрос затачивается не подходящая по типу под ТОП страница (главная вместо раздела каталога или статья вместо карточки интернет-магазина).

Если сайт не имеет серьезных технических ошибок, имеет качественный полезный контент, аккуратную, но осознанную оптимизацию и плавно растущую естественную ссылочную массу, обычно он хорошо стоит одновременно в обеих ПС.

И только когда начинается перегиб в попытке повлиять на какой-то фактор — например, массовая закупка ссылок, то сайт может отлично стоять в Гугле, и иметь санкции в Яндексе.

А может плохо стоять в Гугле, если наоборот, мало ссылок, но при этом иметь топовые позиции в Яндексе.

А может вести себя как-нибудь не очень предсказуемо — вроде все хорошо, а в одной ПС стоит хорошо, в другой плохо.

Этим я обычно и занимаюсь во время своих больших аудитов — тщательно проверяю, в чем может быть проблема.

10 известных SEO-экспертов Рунета дали очень много интересных практических деталей, поэтому читайте внимательно, там много полезного!


Сергей Кокшаров ,
SEO-аналитик, автор блога devaka.ru

В Гугле большой упор нужно делать на качество контента и всего сайта в целом. Например, если вы наделали сотню региональных и, практически, одинаковых поддоменов для Яндекса, то не ждите трафика в Google, для него это будет шаблонный контент и авторитет сайта резко снизится.

Также, Гугл меньше приоритета дает скрытому (любым способом) тексту. Этот текст может давать плюсы в Яндексе, но в Google он не будет работать, или даже за него могут наложить фильтр, при наличии в скрытом тексте избытка ключевых слов.

При изменении рейтинга документа, Google использует функцию перехода, которая зависит от ряда внутренних и внешних параметров. Иногда позиции могут резко понизиться, но через неделю выровняться и начать расти. В алгоритмах Яндекса такого нет, и функция перехода всегда скачкообразная. Часто поэтому, оптимизаторы видят разную реакцию поисковиков на изменение одного и того же фактора.

На продвижение сайта влияют присутствие бизнеса в сервисах поисковой системы и в тех сервисах, откуда поисковик берет дополнительные данные (каждый берет из своих мест). Например, Яндекс активно использует данные из Я.Маркета, Я.Справочника, Я.Каталога, бизнес-справочнкика 2GIS и пр.

Что касается ссылок, не забываем, что у Гугла есть Disavow Tool, и вы не знаете, какие свои ссылки отклонил конкурент.

Дмитрий Севальнев ,
евангелист сервиса «Пиксель Тулс»

Основное, что крайне важно осознать, что Яндекс и Google - две разные поисковые машины у каждой из которых:

Своя классификация поисковых запросов.
Свой набор факторов ранжирования.
Свои формулы (для групп запросов).

1. Производить анализ ТОП в заданной поисковой системе. Изначально лучше ориентироваться на ту, которая приведёт больше целевой аудитории в тематике и регионе, а в дальнейшем, опираясь на сайты из выдачи - корректировать факторы под проблемных поисковик.

2. Посмотреть, как классифицирует и расширяет каждая поисковая система запрос? Бывает так, что запрос в Яндексе носит ярко выраженный коммерческий характер (высокая коммерциализация по https://tools.pixelplus.ru/news/kommertsializatsiya) а в Google - показатель низкий.

В этом случае, не исключено, что и целевые URL могут отличаться. Случай экзотический, но реальный.

Особое внимание на переколдовку (расширение) запроса.

3. Для Google - больше точных вхождений, больше сами объемы текстов.
При этом, не забываем про Баден-Баден и прочие текстовые пост-фильтры Яндекса - https://pixelplus.ru/samostoyatelno/stati/tekstovaya-optimizatsiya/tekstovie-filtry-v-yandex.html

4. Для Google - больше ссылок и большее влияние ссылочных факторов на текущее ранжирование.

5. В Яндексе - больший акцент на коммерческие факторы ранжирования: ассортимент, цены, способы связи, информация о компании, корзина.

6. Продвижение в регионах - фундаментальные различия в региональном ранжировании двух поисковых систем отражены на слайде.

7. Важный технический аспект . Google воспроизводит JavaScript на странице и существенно понижает значимость текста, который можно скрыть с его использованием.

В случае, если используются подобные техники для вёрстки текста - важно учесть.

8. Работа с кликовыми ПФ. В Google meta-тег Description активно используются для сниппета, необходимо использовать это.

9. Отличается индекс и его полнота. Если документ проиндексирован в Яндексе, это не значит, что он в базе Google и наоборот. Надо проверять. Аналогично и со ссылочными донорами.

10. Важно установить Google Analytics для корректного учёта внутрисайтовых ПФ.

Общий вывод . Различия в позициях одного и того же сайта в двух поисковых системах, как правило, носят индивидуальных характер. Тем не менее, наиболее частые причины (в порядке убывания вероятности):

Региональность выдачи Google
наличие санкций в одной из поисковых систем
ссылочные факторы
поведенческие факторы (GA и Метрика)
текстовые (морфология)

,
руководитель рекламного агентства SEO Интеллект

А так выглядит посещаемость сайта попавшего под бан за накрутки ПФ:

4. Коммерческие факторы.

В коммерческих тематиках на ранжирование в Яндексе сильное влияет ассортимент. Привилегии в ранжировании сайтов с широким ассортиментом позволяют агрегаторам забивать топы, не пуская туда релевантные документы компаний с узкой специализацией. При этом в Гугл сайты неплохо ранжируются сайты с небольшим ассортиментом. Например, посмотрите на выдачи обоих поисковиков по запросу «сервисные центры».

Красным в таблицах отмечены агрегаторы предоставляющий большой выбор сервисных центров различных брендов. Гугл отдает предпочтение трастовым сайтам отдельных брендов, в то время как Яндексу дает пользователю сайты с широким ассортиментом брендов.

5. Гео факторы.

Ещё одно отличие, которое хотелось бы отметить, это работа с геозависимыми (ГЗ) запросами. Трюк с поддоменами, который можно провернуть в Яндексе, клонировав основной сайт и немного поработав с вхождениями топонимов, позволяет получать локационный трафик в другом регионе, а в Гугл этот прием не работает. Вот так выглядит трафик на региональных поддоменах:

Мы проверяли на очень приличных выборках из тысяч сайтов – в Яндексе Топы, в Гугл Ж*пы.

● Может по-разному оцениваться преобладающий интент запроса, ТОПы зачастую сильно отличаются не только по набору доменов, но и по типам контента. Например, в Яндексе — статьи, в Google — продающие коммерческие страницы. Впрочем, это не общее правило, зависит от тематики.

● Google хуже справляется с русской морфологией. Яндексоиды даже немного подкололи конкурента в одном из своих семинаров. Анализ русскоязычных текстов у Google менее продвинут.

● По Рунету у Яндекса гораздо четче геотаргетинг; при продвижении коммерческих сайтов с геозависимыми запросами необходимо с самого начала обеспечить правильную привязку к региону через Вебмастер, Каталог или Справочник.

● Как минимум до недавнего времени Google гораздо спокойнее относился к обилию прямых вхождений ключа. Но буквально месяц назад ситуация начала меняться, в сентябре был мощный апдейт алгоритма , множество переспамленных страниц ощутимо потеряли в трафике.

Хватает и других мелких различий (отношение к тегу alt изображений, длине title, nofollow-ссылкам, скрытому тексту, rel canonical). Они достаточно легко проверяются по выдаче.

Для практики я не советую заучивать эти или любые другие списки отличий. Факторов много, для разных запросов актуальны разные подходы к продвижению. Составить огромный чек-лист, чтобы последовательно его прорабатывать — плохая идея.

Ага, в гугле проблемы — докупим ссылок. Ой, не сработало. Значит понатыкаем побольше вхождений. Упс, у нас в гостях Минусинск, Баден-Баден и Fred.

Куда разумнее работать с конкретным проектом, его реальной статистикой и конкурентами. Смотрим запросы, которые удалось продвинуть в одном поисковике и не удалось в другом. Изучаем ТОП по ним, ищем отличия наших посадочных страниц от лидеров. Сравниваем динамику посещаемости и позиций у разных url проекта, выявляем удачные документы и закрепляем успех на них. Меняем шаблон вывода контента на паре десятков url, отслеживаем результат. Определяем причины у резких просадок и всплесков трафика. Оцениваем разницу в ранжировании по срезам запросов (например, с вхождением “купить” или “в Москве”). И так далее и тому подобное.

Пара часов ковыряния с панелями вебмастеров и системами статистики даст бездну идей по изменениям на сайте, подскажет компромиссную стратегию для получения максимума трафика из обоих поисковиков. И на деле это проще, чем кажется.

,
основатель агентства REMARKA

,
drmax.su . Автор учебников SEO-Монстр , SEO-Гуру .
В SEO 13 лет, Опыт работы с буржуями – 7 лет. Крупнейший буржуйский клиент – с годовым оборотом интернет портала в $800.000.000 в год. Работа в 98% под Гугл.

Есть Google, а есть все прочие поисковые системы.

И эти прочие заглядывают в рот Google и перенимают все его технологические достижения. В противном случае они медленно, но верно умирают (Рамблер, Спутник, Yahoo и пр – список мертвых поисковых систем очень велик). Отсюда, если мы сможем продвинуться в Google, с большей долей вероятности, автоматически, мы поднимемся в иных поисковых системах. И даже если у альтернатив есть какие то дыры, давно закрытые у Гугла, и позволяющие манипулировать выдачей, то это не надолго.

Гугл сегодня опирается на 3 базовые вещи: контент, ссылки и алгоритм RankBrain.

Каждая из этих составляющих заключает в себе множество разнообразных факторов ранжирования, в классическом понимании. Более того, есть множество факторов ранжирования, не входящих в эти три группы.

Например, есть корреляция между длинной урла и местом в выдаче – чем короче урл, тем больше шансов проникнуть в ТОП. Что здесь первопричина – а что следствие — не суть важно, возможно, что тут сказывается отношение владельца сайта к серьезности работы над оптимизацией контента, когда он руками прописывает ЧПУ, а не доверяет всяким там плагинам или автоматическим финтифлюшкам генерировать ЧПУ из названия страницы автоматом. Такой товарищ и к подготовке контента и к линкбилдингу будет относиться гораздо серьезней, чем простой блогер.

Итак, контент . Единственное требование к нему – он должен быть полезен. Этого достаточно для признания контента качественным.

Если вы будете писать с ошибками, но при этом 100 000 человек скажут – «фига себе, как же я жил без этого контента до этого», то для продвижения и попадания в ТОП этого будет более чем достаточно. Ибо эти люди сами, без всякой на то просьбы, понаставят ссылок на него, расшарят в соц сети и поделятся со своими знакомыми этим чудо–контентом.
Чтобы контент стал полезен, он должен быть, как минимум, интересен целевой аудитории. При этом, контент не должен быть рерайтом – рерайта, должен давать что-то новое для пользователей. И тут мы автоматом переходим к понятию уникальности. Если вы описываете что-то новое (старыми словами, шутка), то контент и будет уникальным.

Спускаемся ниже в разборе структуры полезного контента. Чем более человек знаком в теме, тем богаче у него профессиональный лексикон. Он на автомате будет вставлять в текст как стандартизированные обороты, так и жаргонизмы, разбавляя и насыщая текст словами – подтверждениями, релевантными терминами (http://drmax.su/klyuchevye-slova-lsi-algoritm.html/). Все это окунает нас в сферу LSI копирайтинга и машинного обучения.

Кроме того, если товарищ ответственно подойдет к работе, создавая полезный контент, он обязательно сопряжет теорию и практику, приведет кучу ярких примеров. Это, непосредственно, скажется на длине контента. Он будет гораздо больше, чем простой текст.

Итак, из простого определения, что КОНТЕНТ ДОЛЖЕН БЫТЬ ПОЛЕЗНЫМ, автоматически вылезли его признаки: он должен быть интересен, уникален, насыщен профессиональными терминами, содержать теорию, практику и примеры, быть большим по объему.

При этом, в обратную сторону – это не работает. Если я напишу 40 000 слов про мутации генов, не обладая при этом профильным образованием и какими — то наработками в этой тематике, даже если я насыщу контент всякими терминами и прочими словоблудиями – ни один товарищ из целевой аудитории не воспримет его как полезный. Никакого профта от такого контента я не получу.

1. Трафик на доноре.
2. Ссылка хорошо вписана в контент статьи — донора, раскрывая, дополняя и поясняя её.
3. Релевантность типа «документ-документ», а не обязательно «сайт-документ». Учитесь писать отличные статьи – прокладки, для размещения своих ссылок.
4. Донор не в ссылочных/статейных биржах. Здесь велик риск получить автоматом падение качества донора и ссылка может стать «ядовитой».
5. Статья снабжена мультимедиа
6. Анкор не спамный (в разрезе всего ссылочного профиля).

Никакие сторонние метрики для определения «качества» донора не нужны. Все эти метрики выдуманы и служат только для набивания карманов, выдумавших эти метрики и продающие подписки на чекалки сайтов на эти метрики. Тут яркий пример такого зомбирования – это MOZ с их показателем DA, без которого большинство западных сеошников не могут судить о качестве сайтов. А стоимость подписки на чекалку этого и иного «синтетического» показателя – посмотрите у них сами.

Аналогично, есть и русские изобретения, не столь дорогие и претенциозные, тот же CheckTrust. Это всего – навсего способ заработка, не самый худший, признаюсь. Ребята – молодцы. Ну а Гуглу – абсолютно наплевать на этот показатель. Он о нем ничего не знает и знать не хочет и на ранжирование этот показатель влиять не может. Есть ли корреляция с показателями качества Гугла, нет ли – никто не знает. А самое главное, это никому не интересно.

Единственная реальная метрика – это количество ключей в ТОПе у донора и отсюда – размер органического трафика. Это «оценку» выставляет сама поисковая система и мы не будем спорить с ней.

Кстати, этот подход сразу выявляет товарищей, не разбирающихся в оптимизации. Если при вас заговорят о всяких там трастах, DA, трастфлов и прочих ТИЦах с мертвыми пейджранками, применительно к оценке качества сайта – не обращайте внимания на таких товарищей и критически отнеситесь ко всем их россказням.

Теперь о RankBrain и сотне прочих работающих факторах ранжирования . Хотелось бы сразу отметить одну важную штуку. Сайт должен быть не только полезен пользователю, но и удобен для работы. Что сразу переводит нас в плоскость обсуждения UI/UX дизайна и вынуждает соблюдать массу требований, начиная с классических «трех кликов до нужного контента», расположении блоков на странице, адаптацией под мобильные, скорость отображения сайта и пр…
Каждое из этих требований будет обусловлено десятком взаимопереплетающихся факторами ранжирования.

Ну возьмем, например, CTR в органике. Чем он выше, тем больше товарищей придет на ваш сайт. Более того, повышая CTR на 3-4%, Гугл поднимет в выдаче на 1 позицию, что автоматом опять позволит нарастить трафик.

В свою очередь CTR зависит от яркости сниппета, который порождается как тайтлом и дескрипшеном, так и контентом, в зависимости от запроса в органике.

Есть десятки стандартных приемов, повышающих заметность сниппета, основанных как на психологии, так и на манипуляции техникой.

К примеру, стандартные сниппеты в Гугле – 2 строки, а я могу заставить Гугл для моих страниц формировать 4-х строчные сниппеты. Под этими 4 строками текста могу прикрутить «хлебные крошки» и оценку страницы (звездочки). Такой снипет будет очень «выпуклым» и заметным в выдаче. Это и есть технические манипуляции.

А есть психологические приемы. Все эти списки (100 приемов… 25 способов), крючки и завлекалки. Это тоже позволяет повысить CTR.

Однако, если пользователь, перейдя на страницу, не найдет того, что ему обещали в сниппете, то никакой конвертации посетителя не будет. И тут мы опять возвращаемся к полезности контента.

Для себя я пользуюсь такой техникой составления Титла – в нем должно быть 2 части. В первой говориться о чем эта страница, во второй – как она может помочь посетителю. Аналогично с дескрипшеном.

Можно привести сотни приемов и способов того, что сегодня хорошо и очень хорошо работает в Гугле. Как раз сейчас я заканчиваю книжку «SEO Монстр 2018» , там в одном из разделов будут описаны эти нехитрые, но полезные и неочевидные приемы.

Возвращаясь к тому же CTR и психологическому приему списков, вы, например, знали, что целые числа в тайтле работают на 10-15% лучше, чем некруглые и что «100 приемов продвижения» в тайтле для посетителя будут привлекательней чем «112 приемов продвижения». Странно, да? Но это психология. И это работает.

В SEO все взаимосвязано. И любая манипуляция, которая будет полезна для конечного пользователя, будет положительно влиять как на позиции в органике, так и на трафик, конвертации и в конечном счете, прибыль.

В этом и заключается хитрость всего SEO. А все остальное – это всего-навсего техника и хитрые и не очень хитрые приемы оптимизации.

С чем согласны, с чем не согласны? Какой у вас опыт продвижения под Гугл и Яндекс? Пишите в комментариях ниже!

Все мои проекты, кроме этого SEO-блога:

ТОП База - качественная база для полуавтоматической регистрации с Allsubmitter или для полностью ручного размещения - для самостоятельного бесплатного продвижения любого сайта, привлечения целевых посетителей на сайт, поднятия продаж, естественного разбавления ссылочного профиля. Базу собираю и обновляю 10 лет. Есть все виды сайтов, все тематики и регионы.

SEO-Topshop - SEO-софт со СКИДКАМИ, по выгодным условиям, новости SEO-сервисов, баз, руководств. Включая Xrumer по самым выгодным условиям и с бесплатным обучением, Zennoposter, Zebroid и разные другие.

Мои бесплатные комплексные курсы по SEO - 20 подробных уроков в формате PDF.
- каталоги сайтов, статей, пресс-релизовые сайты, доски объявлений, каталоги фирм, форумы, соцсети, блоговые системы и прочее.

"Приближаясь.." - мой блог на тему саморазвития, психологии, отношений, личной эффективности

Оглядываясь на события прошедшего года, понимаешь, что он стал для большинства оптимизаторов и веб-мастеров очень насыщенным. И если всеми любимая поисковая система Рунета Яндекс вела себя достаточно сдержанно, то Google преподнес несколько значимых “подарков”.

В 2012 году Google, до этого являвшийся “отдушиной” для оптимизаторов, в одночасье превратился из добродушного друга в строгого полицая. Если раньше добиться хороших результатов можно было за счет “продавливания” ТОПа, по большому счету, лишь ссылочной массой, то теперь правила игры изменились. Однако у оптимизаторов есть на руках все необходимые инструменты для эффективного продвижения в данной поисковой системе. Какие именно? Об этом и пойдет речь в моем мастер-классе. Но обо всем по порядку.

Как изменились правила игры

Для начала предлагаю совершить небольшой экскурс в историю. Первые ощутимые трудности при продвижении сайтов в Google начались у западных SEO-специалистов еще в середине 2011 года.

  • Всё началось с появления алгоритма под дружелюбным названием “Панда”. Его целью являлось выявление низкокачественного контента, с которым он успешно борется до сих пор. Стоит отметить, что “Панда” пришла в Рунет гораздо позже, и первые трудности у отечественных оптимизаторов начались лишь в начале 2012 года.
  • Весной 2012 года компания Google представила новый алгоритм “ ” , который, также как и “Панда”, был направлен на борьбу с поисковым спамом. В отличие от других нововведений, “Пингвин” был запущен одновременно для большинства стран, в том числе и для России.
  • 28 ноября 2012 года небезызвестный Мэтт Катс объявил в своем блоге о готовящемся новом “EDM-алгоритме” , направленном на борьбу с SEO-доменами (это домены с прямым вхождением поискового запроса, как, например, plastikovie-okna-v-moskve.ru). После появления первой информации о запуске “EDM” многие оптимизаторы и владельцы SEO-доменов заметили значительное снижение трафика на их сайты.

Как мы видим, прошлый год оказался крайне насыщенным на события. Конечно, основные принципы продвижения в поисковой системе Google, по сути, не изменились. Все те инструменты, которые ранее давали результат, работают до сих пор, вот только качеству этих инструментов сейчас придается особое значение. На сегодняшний момент для эффективного продвижения в Google стоит работать по трем ключевым направлениям:

  1. Плавное наращивание ссылочной массы.
  2. Написание качественных и, что самое главное, продающих текстов.
  3. Работа с “кликовыми” поведенческими метриками.

Далее давайте рассмотрим ряд кейсов из моей практики, которые наглядно иллюстрируют то, как, используя озвученные выше методы, я справился с последствиями нововведений Google, а теперь работаю над увеличением пресловутой отработки (повышением % запросов в ТОП 10, которые достигли своей цели).

Примеры из жизни

Ввиду соглашения с клиентами о неразглашении информации, данные, представленные ниже, были обезличены. Итак, поехали:

Проект 1: возраст 3 года 8 месяцев, активно продвигается последние 18 месяцев. Это один из тех сайтов, который на себе ощутил удары новых алгоритмов и :



Как видно из графика, после запуска “Пингвина” (24-26 апреля) позиции данного сайта существенно просели. Помимо этого, в мае и июне наблюдалась тенденция к уменьшению % выведенных в ТОП запросов. Однако, начиная с июля, после того, как были проанализированы обратные ссылки и качество текстов, а также проведены соответствующие работы, стала проявляться положительная тенденция к росту. На сегодняшний день проект полностью оправился от падения, Google восстановлен и даже увеличен за счет повышения количества запросов, находящихся в ТОП 10.

Проект 2: возраст 2 года 5 месяцев, продвигается последние 2 года. Сайт получил штрафную карточку от Google после запуска “Пингвина”. Для сравнения ниже приведены данные по отработке проекта в обеих поисковых системах:



Как видно на графике, Проект 2 также получил пенальти от Google, однако при этом видимость сайта в поисковой системе Яндекс осталась на прежнем уровне. Отчасти это позволило минимизировать потери в трафике, поскольку в случае с данным ресурсом распределение трафика из поисковых систем выглядит следующим образом: Яндекс — 70%, Google — 30%. Тем не менее, работа над ошибками также была оперативно проведена, после чего позиции сайта восстановились.

Проект 3: молодой сайт, возраст 5 месяцев, продвижение проекта ведется с запуска ресурса.



Это наиболее интересный проект с точки зрения инструментов, которые использовались при продвижении. На его примере отчетливо видно, как плавно наращиваемая вкупе с качественным контентом показывают хороший результат. Стоит сделать оговорку: хотя ссылочная масса по большей части игнорирует тематику продвигаемого ресурса, но ввиду молодости сайта, ссылки закупались только с качественных и проверенных на других проектах донорах.

Отмечу, что, как показывает практика, в 90% случаев то, что хорошо для Google, хорошо и для Яндекса. Разумеется, рост позиций в главной поисковой системе Рунета не такой “взрывной”, как в Google, но он есть. Однако это уже совсем другая история, которую, в свете запуска новой , оставим для следующего мастер-класса.

Как достичь хороших результатов

Наверняка у вас мог возникнуть вопрос: “Как добиться хороших результатов или вернуть утраченные позиции в Google?” . Ответ прост: нужно количество превратить в качество . Бездумный подход, который раньше работал в подавляющем большинстве случаев, теперь не пройдет. Безусловно, и сейчас можно встретить индивидов, которые пытают продвигать свои проекты “по-старому”, но результат в большинстве таких случаев попросту отсутствует.

Как я уже писал выше, в настоящий момент в Google на первый план вышли контент, грамотная работа со ссылочной массой и . Далее я постараюсь максимально подробно рассказать про каждую из этих составляющих.

1. Контент. Ни для кого не секрет, что после запуска алгоритма “Панда” зарубежные оптимизаторы стали уделять большое внимание качеству контента на своих сайтах. Как показало время, наполнение сайта уникальной и полезной информацией дает положительный эффект в долгосрочной перспективе как в плане SEO, так и в плане маркетинга и рекламы в целом.

Как создать качественный текст, который заинтересует не только посетителей, но и роботов поисковых систем?

Все достаточно просто, и ниже я постараюсь описать по пунктам, чем стоит руководствоваться SEO-специалистам при составлении технического задания (ТЗ) копирайтерам на написание текстов:

  • Анализ конкурентов по поисковой выдаче . На этапе составления ТЗ копирайтеру стоит в первую очередь смотреть на сайты конкурентов. Основными критериями для оценки являются:
  • Размер текста . Исходя из данных о конкурентах, определяемся с минимальным и максимальным размером текста и, основываясь на принципах здравой логики, определяемся с объемом для своего текста. По своему опыту могу сказать, что не нужно стараться писать “простыни” — в 99% случаев для донесения всей необходимой информации хватает 2000-2500 символов. В конце концов, поставьте себя на место пользователя и подумайте, стали бы вы сами читать многостраничный текст о том, как хорошо “купить пластиковые окна в Москве”.
  • Количество вхождений фразы в текст . Проверяем количество точных вхождений и вхождений в словоформы ключевой фразы (например, “пластиковые окна”) в текст. По-отдельности для каждого слова, т.е. для слов “пластиковые”, “окна” и производных от них, мы смотрим на количество вхождений в текст. На основании полученных данных вычисляем максимальную плотность фразы и её отдельных слов.
  • Количество вхождений фразы в h1- h3 . Здесь все просто — смотрим на количество точных вхождений ключевой фразы в тегах h1-h3 в тексте.

Анализ текстов на страницах конкурентов можно провести в сервисе Rookee абсолютно бесплатно:


  • Естественность текстов . Оцениваем естественность текстов на страницах сайтов конкурентов. Для этого можно также использовать анализ в сервисе Rookee:


Чем значения столбцов ближе к идеальному значению, тем лучше. В приведенном примере текст не совсем естественный, и, как минимум, я бы на порядок сократил количество вхождений со словом “шина”.

  • Польза . Не стоит делать контент ради контента, всегда при его создании думайте о пользе для своих посетителей. Если же контент создается только ради позиций, то лично я считаю, что такой текст лучше в принципе не писать. Не будьте “just another one”, будьте лучшими!

Итак, после того, как текст готов, оцениваем его качество и, если оно нас устраивает с точки зрения конечного пользователя, то проверяем его на естественность инструментами, озвученными выше.

Обращаю внимание на то, что ключевую роль в цепочке “SEO-специалист —> текст” обычно играет копирайтер. Поэтому, если вы не уверены в качестве работы копирайтера или не знаете, где найти толкового специалиста, могу посоветовать заказать .

2. Работа со ссылочной массой . Для начала давайте вспомним, как ещё год назад осуществлялось продвижение в Google. Примерно это выглядело так:

1. идем на биржу или обращаемся в сервис по продаже ссылок,

2. покупаем “over 9000” ссылок на свой сайт,

4. получаем результат!

Наверняка, кто-то из вас узнал в этом и себя. Что же сейчас? В существующих реалиях такой подход если и дает эффект, то очень непродолжительный и крайне ненадежный.

Вот два мифа, которые появились в среде оптимизаторов после выхода “Пингвина”:

  • Влияние тематики на связку донор — акцептор . Факт в том, что в российской версии Google роль тематики сильно преувеличена. Если посмотреть первые 10 результатов по любому коммерческому запросу и проанализировать обратные ссылки, стоящие на сайты из ТОП 10, то в подавляющем большинстве случаев мы увидим ссылки с нетематических площадок, которые, тем не менее, хорошо работают.
  • Точное вхождение ключевой фразы в анкоры . Есть мнение, что большое количество точных вхождений ключа в анкоры ссылок негативно сказывается на позициях. Не сказывается — проверено. Грамотное использование анкоров с точным вхождением, точным вхождением с окружением и точным вхождением с разбавлением позволяет избежать переспама анкор-листа и получить стабильный рост позиций. Но зацикливаться именно на этих типах анкоров не стоит — импровизируйте! К слову, если вы продвигаете сайт в сервисе Rookee, вы можете выбрать стратегию продвижения именно под Google и самостоятельно настроить генерацию текстов ссылок:


В идеале, для достижения положительных результатов нужно плавно наращивать ссылочную массу. Необходимо, чтобы картина прироста ссылочной массы была максимально равномерной и продолжительной по времени. У большинства моих проектов график прироста ссылочной массы выглядит примерно так:





Еще один важный момент, который стоит учитывать для получения от Google максимальной отдачи: не сосредотачивайте всю ссылочную массу только лишь на продвигаемых страницах — для поисковых систем это выглядит неестественно.

Если показать наглядно, то не советую делать так :



Старайтесь делать так:


  • Поведенческие факторы (ПФ) . О ПФ и их влиянии на результаты поиска мы привыкли говорить в контексте поисковой системы Яндекс. Но не стоит забывать, что Google тоже использует ПФ при ранжировании сайтов в поисковой выдаче. Немаловажную роль здесь играет показатель CTR (кликабельности) ссылки в поисковой выдаче. К примеру, запрос с CTR 10% стабильно держится в ТОП 3 поисковой выдачи:


А вот запросу с CTR, равным 1%, пока только предстоит побороться за внимание пользователей в поисковой выдаче:



Если мы говорим о CTR ссылки на наш сайт в поисковой выдаче, то стоит упомянуть, что на кликабельность прямо влияет качество самого сниппета. Мне всегда очень нравилось, как выглядят сниппеты SEO-компаний в украинской выдаче Google. Многие методы, которые используют украинские специалисты, можно и нужно использовать для повышения CTR своего сайта в выдаче. Для наглядности приведу несколько наиболее интересных, на мой взгляд, примеров, взятых из выдачи (Google, Киев):

Чтобы сделать для своего сайта такой же выделяющийся сниппет, достаточно добавить в текст description специальные символы. Открываем таблицу спецсимволов HTML (ее можно найти в интернете) и, используя их, составляем красивый и выделяющийся description для своего сайта.

2.

В данных сниппетах используется несколько техник:

  • Сниппет №25 — рейтинг и количество отзывов реализовано с использованием микроформатов, их еще называют “микроразметкой” (прочитать про нее можно в справке Яндекса).
  • Сниппет №26 — URL украшен спецсимволами и аватаркой автора из Google+. Чтобы добавить в сниппет аватарку из G+, достаточно вставить ссылку на свой аккаунт в формате текст_ссылки. Спецсимволы в ссылке на страницу реализованы через связку “микроформат + спецсимволы HTML”. Если посмотреть код страницы, то мы увидим следующую конструкцию:

Опять же, если вы хотите получить такую же красоту, то читаем справку по микроформатам, ссылку на которую я уже приводил выше.

Исходя из своего опыта, могу посоветовать всем читателям работать над своими сниппетами — использовать представленные выше техники и придумывать свои. К примеру, спецсимволы можно указывать и в теге Title — это тоже будет способствовать улучшению кликабельности сниппета в выдаче поисковой системы Google. Улучшая CTR сниппетов, вы будете в конечном счете улучшать и кликовые поведенческие метрики, что в конечном итоге положительно отразится и на росте позиций в поиске.

В заключение статьи я хочу сказать, во-первых, надеюсь, что данный материал был вам полезен. Во-вторых, надеюсь, что мне удалось развенчать некоторые мифы об агрессивности поисковой системы Google по отношению к SEO-специалистам. Используя информацию из данного мастер-класса, вы точно сможете эффективно продвигать свои ресурсы в Google.

Успехов и максимально быстрой дороги к ТОПу!



Поведенческие факторы и их учет в Яндекс и Гугле
На протяжении этого курса мы уже много раз повторяли – пишите хорошие тексты, ставьте хорошие ссылки, делайте хороший сайт – поисковые системы учтут все это и подарят вам высокие позиции. Поведенческие факторы ранжирования – сокращенно ПФ – это и есть те самые алгоритмы, которые позволяют поисковикам отличать по настоящему хорошие сайты от подделок.

Мы можем написать тематические тексты, купить ссылки – и вполне вероятно сумеем обмануть «машину». Но человека обмануть не получится – и поисковые системы научились это использовать.

ПФ учитывают множество различных факторов из разных областей. Тут и поведение пользователя на сайте, и «кликабельность» страницы в результатах выдачи, и источники трафика. Все их мы подробно рассмотрим. Начнем же с самых базовых принципов, чтобы понимать как вообще работают поведенческие факторы.

Очень упрощенно модель ранжирования результатов можно описать так:

Релевантность: текст страницы отвечает на запрос? Если да:

ПФ: пользователям нравится страница? Если да – высокие позиции, если нет – значит это сайт-подделка.

Итого приходим к одной очень важной мысли. Накрутить поведенческие факторы достаточно легко, поэтому:

1. Главная задача учета ПФ – не тащить хорошие сайты в ТОП, а убирать оттуда плохие. Мысль не совсем очевидная, но очень важная.

Если у сайта отличные ПФ – то возможны два варианта: либо сайт хороший, либо поведенческие накручивают. Если ПФ плохие – вывод только один, сайт тоже не фонтан.

Это работает так: сайт занимает 3-е место по некоторому запросу. По третьему месту обычно кликают 40% посетителей. Если же на данный сайт переходят только 10% - значит что-то тут не то. Яндекс посчитал ресурс хорошим. Но пользователи, только увидев TITLE/сниппет, уже понимают – нужной информации у вас они не найдут. Стало быть позиции однозначно нужно понизить.

А вот если «кликабельность» сайта в выдаче высокая – то это МОЖЕТ поднять его, а может и не поднять. Тут уже поисковики будут оценивать ПФ в комплексе с другими факторами ранжирования.

2. Поведенческие факторы оцениваются относительно конкурентов по выдаче. Т.е. нет каких-то точных цифр – если на сайте Васи пользователи просматривают 50 страниц – то сайт хороший.

Условие нужно формулировать так: если на сайте Васи глубина просмотра БОЛЬШЕ чем на сайте Пети, то Вася – лучше.

Пример условный, глубина просмотра не является особо значимым условием, но суть вы поняли. Поведенческие сайта сравниваются с соседями по выдаче. Если у одного из сайтов они сильно выбиваются вверх или вниз – то это повод для пересмотра позиций. Особенно, если выбиваются вниз.

3. ПФ бывают нескольких видов.

Поведение пользователя в поисковой системе (кликабельность объявления, возвраты в поиск)

Поведение пользователя на сайте (глубина просмотра, время посещения, показатель отказов)

- «возвратные» факторы (повторные визиты, добавление сайта в закладки)

Навигационные факторы (поиск по названию фирмы или имени домена, прямые заходы на сайт)

Непоисковые ПФ (трафик с других сайтов, соц. сетей и т.п.)

Поведенческие факторы внешних ссылок (есть ли по ссылкам живые переходы – этот момент мы уже рассматривали в главах про набор ссылочной массы).

4. ПФ бывают запросо-зависимыми либо независимыми.

Некоторые поведенческие факторы (кликабельность объявления) рассчитываются для конкретного ключевого слова. Страница плохо отвечает на один запрос, но вполне вероятно хорошо отвечает на другой. ПФ нужно смотреть для каждого конкретного запроса.

Другие же (поиск по бренду, непоисковый трафик) являются показателем качества всего ресурса в целом. Они будут влиять скорее на траст сайта, чем на позиции по конкретным ключевым словам.

Источники информации о ПФ
После прочтения этого материала у любого человека возникает логичный вопрос. А откуда вообще поисковые системы узнают всю эту информацию? Большой Брат следит за нами? В принципе так оно и есть.

У поисковиков есть три главных источника информации:

- собственная выдача . Отслеживается поведение пользователя непосредственно в процессе поиска в Гугле или Яндексе

- браузеры и тулбары . Очень и очень неслучайно и Гугл и Яндекс выпустили на рынок свои браузеры. Казалось бы, ну зачем им лезть в сферу разработки ПО, да еще и бесплатного. Ан нет.

Если вы пользуетесь одним из таких фирменных браузеров, либо у вас установлены Яндекс.Бар или Гугл.Тулбар – то все посещенные вами сайты будут известны поисковой системы. Данные передаются обезличенно, но информацию о полезности сайтов поисковики получают.

Благодаря этим инструментам они видят очень многое. Какие сайты нравятся пользователям, а с каких они уходят. По каким ссылкам кликают (это к вопросу о качественности и естественности ссылочной массы). На какие сайты возвращаются повторно. И многие другие показатели.

- системы статистики. Яндекс Метрика и Гугл Аналитикс - это бесплатные и очень мощные инструменты для анализа посещаемости вашего сайта. По каким ключевым фразам приходят к вам люди, какие страницы смотрят, какие запросы имеют высокую конверсию визит-покупка, а какие низкую. Всего не перечислить.


И эти классные инструменты поисковики дают нам абсолютно бесплатно. В обмен же мы отдаем им всю информацию о наших сайтах.

Официальная позиция поисковиков однозначна – системы статистики не учитываются при ранжировании. Но как-то слишком уж наивно думать, что имея в руках мощнейший инструмент для улучшения результатов выдачи, поисковые системы не будут его использовать.

Некоторые вебмастера опасаются устанавливать счетчики поисковых систем на свои сайты. На мой взгляд страхи необоснованные. Если у вас более менее нормальный сайт, то установка счетчиков скорее в плюс сыграет.

Также неоднократно обсуждалось, что крупнейший независимый счетчик Рунета LiveInternet продает свою статистику Яндексу. Неизвестно так ли это на самом деле, но вполне возможно.

Накрутка поведенческих факторов
Я уже писал, что ПФ поддаются накрутке. Как с помощью специальных автоматических программ, так и с помощью специальных сервисов, на которых сидят армии школьников, готовых делать заданные действия за сверх-символическую оплату.

Именно поэтому поисковики вынуждены ограничивать влияние поведенческих факторов.

На мой взгляд накрутка ПФ дело бесперспективное. Если у сайта хорошие поведенческие, то они скорее всего хорошие в комплексе. Т.е. там и возвраты на сайт, и малый процент отказов, и большой непоисковый трафик и т.д. «Подделать» все это разом не получится, а накрутка какого-то одного показателя эффекта не даст.

Ну и не забывайте, что ПФ используются в большей степени для отсева плохих сайтов. Т.е. даже мега-хорошие ПФ могут на рост позиций не повлиять.

Моя книга издана в бумажном варианте. Если этот учебник оказался для вас полезным - то вы можете отблагодарить меня не только морально, но и вполне осязаемо.
Для этого нужно перейти на

«Шеф-редактор блога GetGoodRank, веб-аналитик, блоггер.
Как измерить уровень удовлетворенности пользователя сайтом? Поисковые системы применяют различные методики. Ясно одно, каждый поисковик учитывает поведенческие факторы и действия пользователей на сайте в процессе ранжирования. А многочисленные исследования это доказывают»

Во время очередной видеоконференции Google Джон Мюллер ответил на вопрос вебмастера, что поисковая система не учитывает действия пользователей на сайте в качестве фактора ранжирования. Более того, Google вряд ли видит и учитывает все действия, производимые пользователем на сайте при каждом посещении.

Стоит ли расценивать данный ответ, как официальное заявление, что поисковик не учитывает поведение пользователей на сайте?

Нет. И вот почему.

Поведение пользователей в ранжировании сайтов

Поведение пользователей - наиболее объективный параметр определения качества, удобства сайта. Прибыль сайту приносят именно пользователи, а не поисковые системы.

Поисковая система «видит», что пользователи делают на сайте, и предлагает эти данные вебмастерам для оценки эффективности сайта и СЕО. Так, в панели Google Analytics доступны следующие метрики:

  • сессии
  • пользователи
  • просмотры страниц
  • количество просмотренных страниц за одну сессию
  • средняя длительность сессии
  • показатель отказов
  • новые сессии
  • демография посетителей сайта
  • социальные сигналы
  • и множество других метрик, основанных на реакциях и действиях пользователей на сайте

Если Google не видит, что пользователи делают на сайте, то каким образом эти данные попадают в Google Analytics?

Более того, Google Analytics предлагает вам данные об операционных системах и устройствах, с которых был осуществлен вход на сайт. А в панели инструментов есть раздел под названием «Поведение», где вебмастер видит карты поведения, страницы входа и выхода.

Поисковые системы самостоятельно запустили механизмы черного СЕО, предоставив оптимизаторам четкие руководства к действию: выше ранжируется тот сайт, которые оказывается более релевантным запросу и авторитетным среди прочих. Это спровоцировало ссылочную коммерцию, а также стало причиной низкого качества и ценности контента. Ведь не было необходимости наполнять качественным контентом страницы, если высокому ранжированию способствовали переоптимизированные тексты «ни о чем». Сегодня поисковая система исправляет «ошибки прошлого», уравновешивая параметры релевантности и авторитетности пользовательскими факторами.

Google позиционирует поведение и удовлетворенность пользователей как фактор конверсии. Все рекомендации представителей поисковых систем сводятся к созданию сайтов для людей и улучшению сайтов для простого взаимодействия пользователя и ресурса. Официальный блог Google говорит:

The goal of many of our ranking changes is to help searchers find sites that provide a great user experience and fulfill their information needs. We also want the “good guys” making great sites for users, not just algorithms, to see their effort rewarded.

Мы усовершенствуем алгоритмы ранжирования с единственной целью - обеспечить отличный пользовательский опыт каждого человека и помочь ему найти то, что он ищет. Мы также поощряем тех ребят, которые создают сайты для людей, а не для поисковиков. (перевод редакции )

Алгоритм ранжирования сложен, и формула его не разглашается, с тем чтобы снизить возможность манипулирования результатами выдачи. Алгоритм учитывает множества параметров одновременно, и заявить со 100% уверенностью, что поведенческие факторы не учитываются при ранжировании нельзя.

Непрямые доказательства влияния поведенческих факторов на ранжирование

Компания Searchmetrics опубликовала список факторов ранжирования в виде простой инфографики. Однако из исследования видно, что 25% факторов основаны на поведении и реакциях пользователей на сайт.

Также Google привлекает асессоров для оценки сайтов и выявления факторов, определяющих удовлетворенность пользователя. Оценки асессоров не влияют напрямую на позиции проверяемого сайта, однако учитываются в формуле ранжирования, которая в последующем применяется ко всем сайтам определенного типа (информационные, блоги, форумы, корпоративные и пр.). Доказательством этого факта являются инструкции для асессоров (Google Quality Rating Guidelines), время от времени появляющиеся в сети.

Всем-всем привет!

При ранжировании в поисковой выдаче Яндекс да и любой другой поисковик учитывает массу вещей, в том числе и поведенческие факторы (ПФ). Давайте попробуем разобраться в их влиянии на продвижение в поисковых системах. Погнали!

Поведенческие факторы — это показатели того, как ведут себя пользователи на Вашем веб-ресурсе. А если быть точным, то:

  • Сколько времени проводят на сайте;
  • Какой ;
  • Какое количество страниц просматривают при посещении;
  • Как взаимодействуют с различными элементами сайта;
  • Ну и много других факторов.

Все это учитывается поисковыми системами и впоследствии применяется для ранжирования сайтов в выдаче: чем лучше ПФ, тем выше позиции сайта. Ведь Яндекс и Google в последнее время делают акцент именно на полезность выдачи для своих пользователей.

Каким образом ПС черпают данные о поведении пользователей?

Для того, чтобы передать Яндексу данные о своих посетителях, достаточно просто . А Вы думали почему она бесплатна? Точно такая же ситуация происходит и в Гугле, только с .

Конечно, полагаться исключительно на системы аналитики ПС не могут, поэтому существует еще несколько способов, благодаря которым они узнают поведенческие факторы сайта:

  1. Браузеры. В настоящее время о конфиденциальности можно забыть, так как каждый браузер может передавать информацию о Вас поисковым системам. А браузеры от Яндекс и Google: Яндекс.Браузер и Chrome, соответственно, передают еще больший массив данных о Вас;
  2. Специальные расширения для браузеров. Наверное, у всех есть предустановленные дополнения от популярных поисковиков, например, почтовый клиент. Они также могут собирать информацию о поведении пользователей;
  3. И еще много-много способов получить интересующие ПС данные.

Таким образом получается, что все мы пропалены безбожно, от чего жизнь SEO-оптимизатора становится только сложней. Ведь поисковики ставят пользователя во главу, а значит и все сайты, представленные в выдаче, должны быть сформированы так, чтобы он получил максимально полный ответ на свой вопрос с удобством.

Продвижение поведенческими факторами

Давайте подумаем о том, как поведенческие факторы влияют на позиции сайта в выдаче. Итак:

Поисковая система имеет какие-то данные о каждом сайте, среди которых представлен Ваш, по определенному запросу. Вы находитесь на 9 позиции, а главный конкурент на 3-й. Ваша задача: войти в ТОП-3.

Для выполнения своей задачи Вы наняли копирайтера с высоким уровнем текстов и заполнили свой сайт контентом. Причем сделали это так, чтобы пользователь получил максимально разжеванный ответ на свой вопрос. На страницу по этому определенному запросу льется трафик, однако если Вы займете ТОП-3, то получите еще больше посещений.

Страница же главного конкурента уступает по качеству материала Вашей и пользователь, перешедший на нее не получает должного ответа и не задерживается там дольше полутора минут. Тогда как посетители Вашей страницы находятся на ней чуть ли не на две минуты больше, да еще и проявляет активность в виде переходов по различным ссылкам. Поисковая система это заметила.

Как Вы думаете что произойдет дальше? Коль Ваша страница более пользователя и дает более исчерпывающий ответ, от чего он задерживается надолго, по сравнению с главным конкурентом, Вы займете более выгодную позицию, а конкурент будет опущен вниз.

Из вышеизложенного примера можно сделать вывод: для того, чтобы иметь хорошие позиции в ПС, нужно делать сайт, исходя из потребностей пользователей. То есть веб-ресурс должен быть удобным для взаимодействия и полезным . Именно на этом строится принцип продвижения поведенческими факторами.

Однако из-за такого механизма работы поисковых систем появился один коварный «черный» — накрутка поведенческих факторов.

Накрутка поведенческих факторов

Данный метод в свое время был очень популярным среди SEO-оптимизаторов, так как имел высокую эффективность. Но вскоре ПС просекли этот тренд и выдвинули ответные меры на подобное баловство в виде фильтра за накрутку поведенческих факторов.

Принцип работы метода таков:

  1. Вы регистрируетесь в сервисе накрутки ПФ;
  2. Выбираете способ: нагнать роботов или реальных людей;
  3. Затем Вы чувствуете планомерное улучшение поведенческих;
  4. ПСки это тоже видят и повышать Вас в выдаче.

На первый взгляд все просто, однако фильтр быстро вычисляет все это действо и дает жесткое наказание. А вычисляет он это так:

Для роботов, то есть автоматической накрутки ПФ, свойственны схожие IP-адреса, схожие браузеры, схожие устройства, схожее поведение. За счет сопоставления всех данных о посетителях, фильтр выявляет данное преступление и наказывает.

Если же Вы решили нагнать реальных людей, то есть воспользоваться ручной накруткой, то фильтр может вычислить это по истории взаимодействия с поиском того человека, который заходит на Ваш сайт. Не будет же нормальный пользователь за один день интересоваться автомобилями, кулинарными рецептами и IT-технологиями или чем-нибудь еще.

Поэтому опытные веб-мастера не советуют прибегать к подобным услугам, ведь гораздо лучше улучшать поведенческие факторы сайта естественными способами.

Как улучшить поведенческие факторы?

Существует несколько «белых» способов улучшения ПФ:

  1. Грамотная ;
  2. Наполнение сайта полезным, интересным и исчерпывающим материалом. Для этого подойдет, как






2024 © gtavrl.ru.