Поведенческие факторы ранжирования google. Поведенческие и коммерческие факторы ранжирования. Плотность ключевых слов и их положение

Я уже несколько лет занимаюсь поисковым продвижением сайтов Евгения Попова . Для тех, кто не знает, Евгений Попов известен как успешный инфобизнесмен и автор многочисленных обучающих курсов по теме создания сайтов и информационного бизнеса.

Недавно Евгений попросил меня подготовить статью о самых важных факторах ранжирования Яндекса и Google. Я собрал и проанализировал информацию из многих авторитетных источников, плюс дополнительно подкрепил ее комментариями и пояснениями из своего многолетнего опыта по продвижению сайтов.

В итоге был создан довольно полезный PDF-отчет, который получил название «34 основных фактора ранжирования Яндекс и Google ». Данный отчет создавался в конце 2016 года, но все перечисленные факторы все также актуальны и в 2018 году, так как периодически обновляются. Особенно с учетом последних нововведений от поисковых систем. Не так давно было запущены новые алгоритмы: Баден-Баден от Яндекса и Google Fred .

Для тех, кто не любит что-то скачивать, выкладываю ниже полное содержание аналитического материала под названием: «34 основных фактора ранжирования Яндекс и Google в 2016-2017 году».

О ПОДБОРКЕ ФАКТОРОВ

Читать сотни факторов (которые учитывают поисковые системы) интересно, но не очень полезно в плане практического применения. Большинство существующих материалов на эту тему либо уже устарели, либо изначально не адаптированы под русскоязычный Интернет.

Мы проанализировали много публикаций и исследований различных факторов в авторитетных источниках (ссылки представлены ниже). Дополнительно сверили все эти утверждения с заявлениями ведущих разработчиков Google и Яндекс. В итоге получилась подборка наиболее важных факторов, которые учитывают современные поисковые системы Яндекс и Google.

Но мы представили не только описание самих факторов, но и дали по ним подробные пояснения, чтобы вы смогли внедрить те или иные моменты на своих сайтах и получить реальную пользу в
виде роста позиций в поисковых системах.

Подумайте, пожалуйста, за нас. Уберите лишнюю «воду» и дайте нам более приближенную к жизни выборку» — такую просьбу высказал один из веб-мастеров.

Сразу подчеркну, что не стоит пытаться узнать и учесть абсолютно все факторы ранжирования поисковых систем. Это бессмысленная трата времени. И прочитав текст ниже, вы поймете почему.

По известным от разработчиков данным Яндекс учитывает более 800 факторов ранжирования, а Google (как минимум) 271 фактор .

Данные по Яндексу получены из интервью руководителя поисковых сервисов Яндекса Александра Садовского для www.sostav.ru , а также из других заявлений официальных лиц.

Данные по Google получены на основе исследования ресурса northcutt.com .

Дополнительно использовались материалы статьи Брайана Дина (Brian Dean, интернет-ресурс backlinko.com). В своей работе зарубежный SEO-специалист привел описание более 200 факторов, которые учитывает Google при построении поисковой выдачи.

Ниже представлен полезный аналитический материал, но он ни в коем случае не претендует на истину в последней инстанции.

Дополнительное пояснение:

Темным цветом представлен русский перевод и описание фактора с английского языка (информация была взята из материалов статьи Брайана Дина http://backlinko.com/google-ranking-factors).

Синим цветом дается расшифровка конкретного фактора. Вы сможете прочитать не только описание, которое адаптировано под современные реалии русскоязычного Интернета, но и получите ценные советы из 7-ми летнего практического опыта от SEO-специалиста Руслана Савченко.

ФАКТОР №1. ВОЗРАСТ ДОМЕНА

«Разница между шестимесячным доменом и годовалым на самом деле не так уж велика » – Мэт Каттс (Matt Cutts) руководитель отдела веб-спама и качества поиска Google.

Поисковые системы безусловно учитывают возраст домена… но это не очень важный фактор.

Руслан Савченко : На самом деле очень важно различать понятия «возраст домена» и «возраст сайта». Многие начинающие веб-мастера покупают давно зарегистрированные доменные имена, но сайты на этих доменах не развивались.

Поисковые системы учитывают именно «возраст сайта». Если сайт был долгое время недоступен или стояла временная страница («заглушка») — это не засчитывается в возраст. В целом не стоит акцентировать большое внимание на возрасте домена, важнее работать над качеством сайта.

P.S. При покупке нового сайта (домена), обязательно проверьте его историю через сервис https://archive.org/web/ .

ФАКТОР №2. НАЛИЧИЕ КЛЮЧЕВЫХ СЛОВ В ДОМЕНЕ

Не дает такой же эффект, какой был раньше, но наличие ключевых слов в доменном имени по-прежнему учитывается. В конце концов, поисковые системы до сих пор выделяют жирным шрифтом ключевые слова, которые появляются в имени домена.

Ключевые слова в названии доменного имени учитываются, хотя это далеко не самый важный фактор. Но если есть возможность зарегистрировать доменное имя с ключевой фразой, которая точно отражает название и тематику сайта, то почему бы это не сделать?

При наличии ключевых слов в домене, они подсвечиваются. Соответственно повышается показатель кликабельности в поисковой выдаче. Если пользователь видит в адресе сайта выделение слов, которые он набрал в строке поиска, вероятность перехода на сайт повышается. Это положительный фактор, который также учитывается.

ФАКТОР №3. ИСТОРИЯ ДОМЕНА

Домен с частой сменой собственника (через WHOIS) или при не своевременном продлении регистрации («дроп»), может заставить поисковые системы «обнулить» историю сайта, и перестать учитывать ссылки, указывающие на домен.

Очень желательно, чтобы владелец домена не менялся часто. Каждая смена собственника временно «замораживает» накопленное к сайту доверие. Поисковые алгоритмы ждут, что будет делать с сайтом новый собственник.

Стоит отметить: если вы резко поменяете содержимое сайта (не дизайн, а именно тематику и сам контент), то поисковые системы также обнулят доверие к вашему сайту. Возраст домена перестанет оказывать прежнее влияние.

ФАКТОР №4. ДОМЕН ТОЧНОГО СОВПАДЕНИЯ

Домены точного совпадения (EMD) все еще могут дать вам преимущество… если, конечно, у вас качественный сайт. Но когда на таком домене размещается низкокачественный сайт, он слабо защищен от EMD-алгоритма.

Для начала давайте расшифрую, что из себя представляет так называемый домен точного совпадения (EMD).

EMD-домен (Exact Match Domain) - если переводить дословно, то это домен с точным вхождением ключевых слов. Когда вы регистрируете доменное имя, которое состоит исключительно из популярной ключевой фразы, то это может вызвать подозрение у поисковых алгоритмов. В наибольшей зоне риска находятся домены:

  • со словами в названии «купить, скачать, бесплатно и т.п.».
  • если в названии домена присутствуют исключительно слова из популярной ключевой фразы, но отсутствует уникальное имя бренда и т.п..
  • Если домен состоит из 3-х и более ключевых слов, к примеру, «купить недвижимость в Краснодаре недорого». У Google разработан специальный EMD-алгоритм, который борется с так называемыми EMD-доменами.

Фактор вхождения ключевых слов в название домена оказывает всё меньшее влияние на поисковую выдачу, но при прочих равных, поисковые системы отдадут предпочтение сайту с узкотематическим названием (содержащим ключевые слова), чем порталу с общей тематикой.

Какой сайт, по вашему мнению, лучше отвечает на запрос «ремонт BMW». Сайт с доменным именем AvtoMir.com или сайт Remont.BMW-club.com? Уверен на 100%, что (без учета остальных факторов) предпочтение отдается именно 2-му варианту. Точно так же думают Google и Яндекс.

Кстати я не зря привел пример с поддоменом 3-го уровня Remont.BMW-club.com. Вариант с доменом 2-го уровня Remont-BMW.com был бы не самым оптимальным.

Представители поисковых систем отмечали, что с большим недоверием относятся к доменам 2-го уровня, которые состоят исключительно из ключевых слов. Именно такие домены рискуют получить наказание от алгоритма EMD. Это и не удивительно, ведь не так давно, как раз на таких доменных именах создавали бесполезные для людей сайты («дорвеи»).

Но если имя домена – это название вашей фирмы или бренда в сочетании с ключевым словом, то это удачный вариант и EMD ему не грозит.

При этом если у вас стоит выбор: зарегистрировать домен состоящий из ключевых слов или из названия вашего бренда, то лучше отдать предпочтение именно второму варианту.

Ведь даже если вы не боитесь алгоритма EMD, то ссылки, ведущие на ваш сайт, уже не смогут быть полностью безанкорными. А за это можно получить наказание уже от других алгоритмов и фильтров. К примеру, тот же Google Penguin и Минусинск от Яндекса, которые наказывают сайты за большое количество внешних ссылок с прямым вхождением ключевых слов в анкор.

Но это уже тема отдельного большого разговора, поэтому переходим к следующим факторам ранжирования.

ФАКТОР №5. ПРИСУТСТВИЕ КЛЮЧЕВОГО СЛОВА В ТЕГЕ «TITLE»

Тег title является вторым по важности SEO-параметром веб-страницы (после самого контента), и поэтому оказывает сильное влияние на ранжирование по конкретному поисковому запросу.

Не стоит забывать, что именно содержимое тега «title» Яндекс и Google показывают в поисковой выдаче.

Если объяснить работу поисковых систем максимально упрощенно, то ответ на запрос пользователя формируется исходя из ключевых слов, которые присутствуют в теге title, а также в тексте самой страницы. Это один из важнейших SEO-параметров.

Другое дело, что ни в коем случае нельзя перенасыщать текст и title страницы ключевыми словами. За это у современных поисковых систем существуют различные санкции: начиная от фильтра «уникализации заголовков», заканчивая алгоритмами, которые наказывают за переспам, избыточное содержание ключевых слов в тексте страницы и т.д.

ФАКТОР №6. ТЕГ «TITLE» НАЧИНАЕТСЯ С КЛЮЧЕВОГО СЛОВА

Важно понимать, что существует заголовок страницы (он находится в теге title), который пользователи видят в результатах поисковой выдачи.

Но есть ещё заголовок к тексту на странице (он находится в теге H1). Его пользователи видят уже после того как перешли на саму страницу сайта.

Оба эти заголовка очень важны для поисковой оптимизации сайта. Поэтому ключевая фраза должна присутствовать в обоих тегах.

ФАКТОР №9. КЛЮЧЕВОЕ СЛОВО ЧАСТО УПОТРЕБЛЯЕТСЯ В ТЕКСТЕ ДОКУМЕНТА

Если ключевое слово встречается в тексте страницы чаще, чем любые другие, то это является положительным фактором соответствия страницы определенному поисковому запросу.

Именно поэтому ещё несколько лет назад оптимизаторы создавали SEO-тексты с большим вхождением ключевых слов, выделяли их жирным и т.п. В современных условиях за большое количество ключевых слов в тексте можно быстрее получить «спам-фильтр», чем добиться каких-то бонусов к релевантности страницы.

Поэтому пишите тексты, которые будет интересно читать людям, создавайте страницы, которые смогут решать конкретную проблему пользователя. В современных условиях даже одного вхождения ключевой фразы в тексте уже достаточно, чтобы она была релевантна тому или иному поисковому запросу.

ФАКТОР №10. ЛАТЕНТНО-СЕМАНТИЧЕСКИЙ ИНДЕКС КЛЮЧЕВЫХ СЛОВ В КОНТЕНТЕ (LSI)

Ключевые слова LSI помогают поисковым системам определять значения слов с болеe чем одним значением. Например, слово Apple — это компьютерная компания или фрукт. Наличие или отсутствие LSI также может выступать показателем качества контента на сайте.

В последние годы даже появился термин LSI-копирайтинг . И соблюдение определенных требований позволяет повышать релевантность определенного текста и соответственно всей страницы в целом. Давайте попробуем разобраться, что такое LSI.

Для начала приведу цитату, которую ни в коем случае не стоит пытаться понять неопытным людям. Если вы новичок, лучше сразу пропустите этот абзац. Но именно такие понятия даются, когда в некоторых авторитетных источниках подобные термины пытаются объяснить более «научным» языком: «LSI — это сингулярное разложение терм-документной матрицы, которое позволяет выловить ключевые составляющие этой матрицы и проигнорировать шумы. »

Прочитали? А теперь забудьте. Постараюсь дать более понятное объяснение:

LSI – это способ определения тематики и качества текста на основе анализа содержащихся в нем слов. Проще говоря, если в тексте встречаются слова «двигатель», «колесо», «руль» — то, скорее всего, текст про автомобиль.

Поисковые системы начали вводить алгоритмы, которые борются с перенасыщенными одними и теми же ключевыми словами текстами. Если в тексте очень часто употребляется одна и та же ключевая фраза, то у поисковых систем Яндекс и Google возникают вопросы к качеству материала.

Либо это попытка искусственно повысить значимость страницы по определенному поисковому запросу, либо автор не очень компетентен в данной теме, раз он не может использовать синонимы и в целом более богатый лексикон. И первый и второй вариант может привести к понижению страницы сайта в поиске.

Учитываются также качество оформления текста, отсутствие грамматических ошибок и многие другие параметры.

Тексты, которые написаны с учетом требований LSI, крайне редко попадают под какие-то фильтры и намного легче поднимаются на высокие места в поиске. Особенно это актуально в тематиках с высокой конкуренцией.

P.S. Проанализируйте ваших конкурентов, которые находятся на первых местах в Google и Яндекс. Посмотрите на оформление их страниц, какие слова они используют в текстах и т.п. Это даст вам много пищи для размышлений, если ваш сайт ещё не находится в ТОПе.

Но это действительно большая тема, а мне не хотелось бы вас утомлять, поэтому переходим к следующему фактору.

ФАКТОР №11. КЛЮЧЕВЫЕ СЛОВА LSI В ТЕГАХ «TITLE» И «DESCRIPTION»

Как и в случае с контентом сайта, ключевые слова LSI в мета-тегах страницы помогают определить правильное значение слов-синонимов. Это также один факторов релевантности.

Исходя из контекста алгоритмы поисковых систем понимают к какой тематике относится слово с несколькими значениями. К примеру, на сайте появился заголовок: «Зажглась новая звезда эстрады». Если бы в заголовке не было слова «эстрады», то было бы непонятно к какой тематике относить этот фрагмент текста – к астрономии или к шоу-бизнесу.

Именно поэтому важно, чтобы в тегах «title» и «description» всегда были слова, которые четко определяют тематику страницы вашего сайта.

ФАКТОР №12. СКОРОСТЬ ЗАГРУЗКИ HTML-СТРАНИЦЫ И ТЕХНИЧЕСКИЕ ОШИБКИ НА САЙТЕ

Поисковые системы учитывают скорость загрузки страницы в качестве одного из факторов ранжирования. Боты поисковых систем могут оценивать скорость вашего сайта достаточно точно, основываясь на коде страницы и размере загружаемых файлов.

Это не самый важный фактор. Тот же Александр Садовский (руководитель поисковых сервисов Яндекса) заявлял, что алгоритмы не наказывают сайт за какие-то технические ошибки и недостатки.

Но если прямых санкций и нет, то есть косвенное негативное влияние на ранжирование. К примеру, если страницы вашего сайта долго загружаются и на них постоянно возникают ошибки – это раздражает пользователей.

Чаще всего недовольные посетители просто закрывают ваш сайт и уходят к вашим конкурентам. Соответственно у вашего сайта ухудшаются так называемые поведенческие факторы. А они уже напрямую влияют на ранжирование. Более того, существует показатель «отказов». В частности, когда пользователь провел на странице вашего сайта менее 15 секунд и вернулся обратно в поиск.

Соответственно поисковые системы будут понижать ваш сайт в результатах поиска не за сами технические недостатки вашего сайта, а за последствия, которые они вызывают.

ФАКТОР №13. ПОВТОРЯЮЩИЙСЯ КОНТЕНТ (В ТОМ ЧИСЛЕ ДУБЛИ СТРАНИЦ)

Идентичный контент на одном сайте (даже слегка измененный) может отрицательным образом повлиять на видимость сайта в поисковых системах.

Дубли страниц, повторяющийся контент на разных страницах – это довольно негативные факторы. Тем самым вы забираете «вес» у своих же страниц.

Более того, вы заставляете роботов поисковых систем индексировать лишний неуникальный контент (страницы). А у поисковых ботов строго ограниченное время для каждого сайта.

ФАКТОР №14. ОПТИМИЗАЦИЯ ИЗОБРАЖЕНИЙ

Изображения на страницах передают важную информацию о их релевантности. Поисковые системы определяют тематику картинок, анализируя название файла самой картинки, и текст, который находится в тегах: alt, title, description.

В идеале нужно заполнять все теги и делать подписи к картинкам. Особенно тег alt (альтернативный текст картинки). На его содержимое поисковые системы обращают внимание в первую очередь.

Поэтому подписывайте, что изображено на картинках. Также желательно, чтобы в тегах описания изображения присутствовали ключевые слова, под которые оптимизирована сама страница.

ФАКТОР №15. ЧАСТОТА И РАЗМЕР ОБНОВЛЕНИЙ КОНТЕНТА

Поисковым системам нравится недавно обновленный контент, особенно для запросов, которые чувствительны ко времени.

Поисковые системы любят часто обновляемые сайты. Безусловно, ваши старые записи также могут хорошо ранжироваться, но, если вы внесете в них существенные изменения, что-то добавите, улучшите – все это пойдет только в плюс.

Поддерживайте ваши материалы в актуальном состоянии, либо пишите новые записи и ставьте на них ссылки с ваших старых страниц.

ФАКТОР №16. ВИДИМОСТЬ КЛЮЧЕВОГО СЛОВА

Присутствие ключевого слова среди первых 100 слов контента страницы считается значимым сигналом релевантности.

Ведь если пользователь пришел на страницу сайта и уже в начале страницы не нашел ответ на свой запрос, то он, чаще всего, закроет ваш сайт и отправится в поиск искать дальше. Поисковые системы это также понимают, поэтому присутствие ключевого слова в самом начале текста имеет двойное значение.

ФАКТОР №17. КАЧЕСТВО И ТЕМАТИКА ИСХОДЯЩИХ ССЫЛОК

Более того, многие начинающие веб-мастера начитались уже устаревших мифов о том, что исходящие ссылки забирают ценный вес их сайта и поэтому добавляют ко всем исходящим ссылкам параметр rel=«nofollow». Тем самым они не только не сохраняют вес своих страниц, а просто отдают его в никуда.

Плюс ко всему такой подход наносит вред вашему сайту. Ведь rel=«nofollow» стоит ставить только в том случае, если вы ссылаетесь на нетематический ресурс.

Проводились эксперименты на различных сайтах. Так вот страницы, с которых стояли ссылки на качественные тематические материалы по теме, занимали более высокие места в поиске, чем страницы, с которых вообще не было исходящих ссылок.

Логика здесь простая. Даже невероятно авторитетная Wikipedia, у которой показатель ТИЦ 150 000 и огромное доверие от поисковых систем – всегда ссылается на источники и дополнительные материалы по теме. Вы скажете, так у них все исходящие ссылки закрыты параметром rel=«nofollow». Да, это так, но сделано это было для защиты от спамеров. Так как пока не были предприняты эти меры, многие веб-мастера и оптимизаторы пытались любой ценой получить ссылку с Википедии.

Но вывод простой. Если вы не являетесь известным экспертом в своей области и ваш интернет-ресурс не имеет большого доверия со стороны поисковых систем, то алгоритмы Яндекса и Google вряд ли поверят, что вы написали очень качественную статью, не использовав ни одного источника и ни разу никого не процитировав.

Ещё хуже, если вы сделали рерайт или, проще говоря, переписали своими словами чужую статью. Именно с этим и ведут борьбу поисковые системы, и их алгоритмы уже очень хорошо научились определять авторов и плагиаторов.

Кстати в этом кроется небольшой секрет, почему большие аналитические статьи с неуникальными частями текста, но со ссылками на источники или другие материалы по теме, занимают высокие места в поиске. Точно также успешно живут новостные агрегаторы, которые публикуют неуникальные материалы, но всегда ставят активные ссылки на источники.

Есть и другие практические секреты, и нюансы по поводу исходящих ссылок, но нам уже пора переходить к следующему фактору.

ФАКТОР №18. ПОЛЕЗНЫЙ ВСПОМОГАТЕЛЬНЫЙ КОНТЕНТ

В соответствии с ныне общедоступным документом Google Rater Guidelines, полезный вспомогательный контент является показателем качества страницы (и, следовательно, дополнительным фактором ранжирования). К примерам можно отнести: процентные и кредитные калькуляторы, конвертеры валют, интерактивные рецепты и т.п.

Все дополнительные функции и возможности, которые несут пользу для посетителей вашего сайта, также дают дополнительные бонусы к ранжированию. Все дополнительные «фишки» влияют не столько напрямую, как косвенно. Ведь пока пользователь сайта использует калькулятор или другую функцию, он проводит дополнительное время на вашем сайте.

Таким образом, удовлетворяя и заинтересовывая посетителей вашего сайта, вы улучшаете пользовательские факторы – а это очень важно в современных условиях. Именно эти факторы оказывают прямое влияние на позиции вашего сайта в поиске Google и Яндекс.

ФАКТОР №19. МУЛЬТИМЕДИЙНЫЕ МАТЕРИАЛЫ НА САЙТЕ

Изображения, видео и другие мультимедийные материалы могут служить сигналом качества контента.

В продолжение предыдущего фактора. Благодаря красивым картинкам и качественным видео, вы можете задерживать пользователей вашего сайта и улучшать поведенческие данные. Плюс, поисковые системы лучше ранжируют страницы, на которых присутствуют изображения и видео.

При прочих равных, страница, на которой есть хотя бы одна картинка, будет занимать более высокие места в поиске, чем ее исключительно текстовый аналог.

ФАКТОР №20. КОЛИЧЕСТВО И КАЧЕСТВО ВНУТРЕННИХ ССЫЛОК, УКАЗЫВАЮЩИХ НА СТРАНИЦУ

Количество внутренних ссылок на страницу показывает ее важность относительно других страниц сайта.

Важно качество и количество ссылок на целевую страницу. Каждая страница вашего сайта имеет определенный «вес». Он может расти, если на эту страницу ведут внешние ссылки с других сайтов или имеются ссылки со страниц вашего сайта.

Соответственно, когда вы написали новую статью на какую-то тему, подумайте, а может у вас уже есть статья по схожей теме и было бы уместно сослаться на неё по нужной ключевой фразе?

ФАКТОР №21. ДЛИНА URL-АДРЕСА

Search Engine Journal отмечает, что слишком длинные URL-адреса могут навредить релевантности страницы.

Такая тенденция есть. Желательно создавать короткие URL-адреса страниц. В идеале они должны состоять из 2-3 ключевых слов, написанных на транслите.

ФАКТОР №22. ЖИВЫЕ ЛЮДИ-АСЕССОРЫ

Хотя это не было подтверждено, Google подала патент на систему, которая позволяет людям-редакторам влиять на SERP (страницу результатов поиска).

Так называемые асессоры действительно присутствуют и у Яндекса, и у Google. Конечно, сайтов миллионы, и оценить всю поисковую выдачу вручную — нереально. Но самые высокие места (ТОП 10) поисковой выдачи в наиболее конкурентных тематиках оцениваются в том числе специальными асессорами.

Именно поэтому изначально некачественные сайты имеют очень мало шансов выйти в ТОП поисковой выдачи. Даже если предположить, что владельцы «плохих» сайтов разгадают текущие алгоритмы поисковых систем и выйдут на первые места в поиске, то шансов надолго там задержаться будет крайне мало.

ФАКТОР №23. ОПТИМИЗАЦИЯ САЙТА ПОД МОБИЛЬНЫЕ УСТРОЙСТВА

Создание адаптивных сайтов в наше время – это уже не дань «моде», а реальная необходимость. Сайты, которые не адаптированы для мобильных устройств, получают штрафы от поисковых систем и сильно понижаются в результатах мобильного поиска.

Ни для кого не секрет, что большинство современных людей ищут товары и услуги в Интернете в том числе с планшетов, мобильных телефонов и т.п.

В некоторых тематиках процент пользователей, которые заходят на сайты исключительно с мобильных устройств, достигает 80%.

Поэтому если вы до сих пор не сделали дизайн вашего сайта адаптивным, то пора срочно этим заняться. Вы банально теряете новых посетителей и потенциальных клиентов.

ФАКТОР №24. КОММЕРЧЕСКИЕ ФАКТОРЫ

Если у вас коммерческий сайт, то довольно серьезное влияние на его позиции в поиске оказывают современные коммерческие факторы. К ним можно отнести: присутствие страницы контактов, удобная форма заказа, наличие доставки, доступность службы технической поддержки клиентов, широта ассортимента товаров и др.

На самом деле только самых важных коммерческих факторов можно перечислить более 30-ти. Это специфическая тема и здесь есть много нюансов, поэтому подробно данный вопрос будем рассматривать отдельно.

ФАКТОР №25. ССЫЛКИ СО СТАРЫХ ДОМЕНОВ

Полностью согласен. Но стоит отметить, что получать ссылки с авторитетных доменов довольно сложно (или дорого). Конечно, есть определенные интересные методы получения качественных и естественных ссылок (в том числе без затрат). Но это большая отдельная тема, поэтому идем далее.

ФАКТОР №26. КОЛИЧЕСТВО ССЫЛАЮЩИХСЯ ДОМЕНОВ

Количество ссылающихся доменов является одним из самых важных факторов ранжирования в алгоритме Google, в чем вы можете убедиться из графика Moz (горизонтальная ось – позиция в списке результатов поиска):

Мои личные наблюдения также подтверждают описанную выше информацию. Лучше иметь 10 обратных ссылок с 10-ти разных доменов, чем 20 ссылок, но с одного домена.

ФАКТОР №27. ССЫЛКИ С САЙТОВ-КОНКУРЕНТОВ

Здесь речь идет о следующем. К примеру, вы продвигаетесь по запросу: «купить автомобиль в Москве». Если бы вы получили ссылки с сайтов, которые стоят в ТОП 10 по этому же запросу, то это дало бы мощнейший эффект.

Но будем реалистами. В тематиках с высокой конкуренцией никто не захочет ставить ссылку на конкурента. Только если вы не гений угроз или дипломатии.

Хотя в моей практике бывали случаи, когда удавалось получить безанкорную ссылку (просто по URL-адресу) с сайта конкурента в ТОП 10. Но это больше исключение из правил.

При этом не обязательно пытаться получить ссылки с прямых конкурентов. Смотрите сайты за пределами ТОП 10. Более того, можно искать сайты по смежным запросам в этой же тематике.

Кстати в информационных тематиках есть несколько интересных подходов, благодаря которым можно получать ссылки с «непрямых» сайтов-конкурентов. Это важная и большая тема, поэтому мы обязательно рассмотрим её отдельно.

ФАКТОР №28. ССЫЛКИ И УПОМИНАНИЕ САЙТА В СОЦИАЛЬНЫХ СЕТЯХ

Ссылки и упоминание названия вашего сайта в социальных сетях дают как прямой, так и косвенный эффект для продвижения. Кстати некоторые социальные сети лучше работают для Яндекса, а некоторые для Google. И речь идет далеко не только про Facebook, Twitter и Вконтакте.

Более того, существует подход, который позволяет не только повышать доверие к страницам вашего сайта (за счет ссылок из социальных сетей), но и дополнительно продвигать конкретные поисковые запросы.

Также сейчас все более важной становится работа по получению не только ссылок, но и отзывов, упоминаний о вашем сайте на различных форумах, сайтах рекомендаций, в тех же социальных сетях. В том числе, когда на том или ином интернет-ресурсе вообще не стоит обратная ссылка на ваш сайт, а присутствует исключительно упоминание бренда или доменного имени в тексте.

Это направление получило название крауд-маркетинг и для достижения высоких результатов в конкурентных тематиках без него сложно обойтись.

ФАКТОР №29. КАЧЕСТВО КОНТЕНТА, КОТОРЫЙ ОКРУЖАЕТ ССЫЛКУ

Здесь все логично. Если страница-донор, с которой будет стоять ссылка на ваш сайт, имеет качественный и интересный контент, красивое оформление, полезные картинки, видео и т.п., то она может занимать более высокие места в поисковых системах. И такая страница будет иметь больше доверия со стороны Яндекса и Google. Соответственно, и с ссылки с такой страницы будут иметь больший вес и авторитет.

Довольно глупо приобретать ссылку на ваш сайт с качественного сайта, но размещаться в каком-то неинтересном и плохо оформленном контенте. Ещё хуже, если эта страница будет размещена в каком-то разделе с большим уровнем вложенности. К примеру, будет помещена в очень старый материал, находящийся в архиве.

Тем более владельцы качественных интернет-ресурсов вряд ли разрешат размещать на своем сайте материалы плохого качества. А если они разрешают публиковать плохие статьи со ссылками на своем сайте, то сразу же возникают вопросы к перспективам и к ценности такого сайта-донора.

ФАКТОР №30. ПОКАЗАТЕЛЬ ОТКАЗОВ

Поисковые системы вполне могут использовать пользователей, как тестеров качества (если отказов много - сайт, скорее всего, не очень хорошего качества).

«Отказом» считается, когда пользователь провел на конкретной странице сайта менее 15 секунд и ушел с обратно в поисковую выдачу. Этот фактор в сочетании с другими поведенческими данными позволяет поисковым системам дополнительно оценить качество определенных веб-страниц.

ФАКТОР №31. ПОВТОРНЫЕ ПОСЕЩЕНИЯ САЙТА

Поисковые системы также могут смотреть, возвращаются ли пользователи на сайт после первого посещения. Повторный трафик может повысить позиции сайта в списке результатов поиска.

Учитываются не только повторные посещения сайта, но и многие другие действия. К примеру, как часто пользователи сохраняют сайт у себя в закладках, переходят ли на сайт напрямую по URL-адресу, вводят ли название сайта в поиске, делятся ли ссылками на сайт и т.п.

ФАКТОР №32. КОЛИЧЕСТВО КОММЕНТАРИЕВ НА САЙТЕ

Страницы с большим количеством комментариев могут быть сигналом активности пользователей и косвенным подтверждением качества контента.

Дата публикации: 19.02.2015

комментариев 25

  1. NMitra написал:
    19 Фев 2015 в 21:18

    Да, я выключила аналитикс — позиции не упали

  2. Алексей написал:
    19 Фев 2015 в 22:18

    Есть три маленьких проекта, на одном из них есть как аналитикс так и метрика, на двух других только метрика, на последних двух (хотя они очень молодые) некоторые нч выскочили в гугле буквально после месяца запуска просто вот сами, а в яше ниже 100-й строки эти же нч. Не уверен, конечно, что это именно по этой причине, но случайность интересная, которая требует подтверждения.
    Игорь, не хотите провести эксперимент? 🙂

  3. Bakalov Igor написал:
    20 Фев 2015 в 10:19

    Алексей, сомнительный будет эксперимент 🙂

  4. Семён написал:
    20 Фев 2015 в 10:20

    Не понятен ответ:
    Мы решили вместо поведенческих факторов и социальных сигналов использовать рост и вес вебмастера.
    Что в данном случае подразумевали под ростом и весом вебмастера?
    Догадываюсь что рост — это увеличение числа страниц сайта, а вес — это количество ссылок? Моя догадка верна?
    Ответ больше похож на шутку:)

  5. Сергей Нижегородцев написал:
    20 Фев 2015 в 12:11

    Привет, Игорь! Спасибо за хорошую подборку ответов команды Гугл на тему ПФ.

    Я уверен, что Яндекс скоро сделает то же самое. Этим и накрутчиков добьют, и больше случайные сайты не попадут под раздачу, которых пытаются выбить из ТОПа конкуренты.

    Опять будет много недовольных, но всем не угодишь. Накрутчики сейчас, как перед агонией, обкакавшись несколько раз подряд (последний раз 31.12.14) и загубив тысячи коммерческих проектов, все активнее зазывают лохов в свои сервисы — http://i.imgur.com/cI89QLw.png 🙂

    К тебе вопрос. Многие любители ссылок и накруток (особенно кто на них наживается) стонут, что выдача рухнет. Что думаешь по этому поводу.

    Спасибо заранее за ответ 🙂

  6. Максим написал:
    20 Фев 2015 в 12:54

    По поводу веса и роста. Эта метрика может учитываться для контентных проектов, где автор — может считаться новичком, любителем, экспертом — и благодаря некому «Автор-ранку» материалы будут ранжироваться выше или ниже.

    Но давайте поговорим про интернет-магазин, как понять его рост и вес? Число страниц? Трафик? Входящие ссылки? Что-то еще?

  7. Bakalov Igor написал:
    20 Фев 2015 в 18:09

    На счет «веса и роста», ребят у вас совсем с чувством юмора туго? 🙂

  8. Marian написал:
    21 Фев 2015 в 15:31

    Про рост и вес комментари убили)))
    Ребята, иногда нужно понимать всё буквально 🙂

  9. ВВО написал:
    22 Фев 2015 в 21:09

    Вам про BrowseRank все ясно на форуме ответили, жаль, что вы так и не поняли.
    Что тут нового и полезного в этой статье?

  10. Bakalov Igor написал:
    22 Фев 2015 в 22:38

    ВВО, на форуме Google я ясно дал понять, что меня не интересует мнения так называемых «ведущих участников», т.к. они пишут откровенную чушь.

  11. ВВО написал:
    23 Фев 2015 в 17:30

    Ведущие участники наверняка знают поболее вас, так как на прямую контактируют с Гуглерами и зачастую ответ ВУ — это трансляция ответа сотрудника Гугл.
    Что касается разного рода поведенческих факторов, то есть интервью Мэтта, Липатцева, о том, что именно для целей ранжирования они не учитываются.
    Всякие адепты поведенческих факторов, которые бебожно впаривают лохам всякого рода накрутки, не могут смериться с тем, что для Гугл этот лохотрон не работает.

  12. Bakalov Igor написал:
    23 Фев 2015 в 17:48

    ВВО, а вы случайно сами не из этих «ведущих участников»? А то по манере общения больно смахиваете.

  13. Дмитрий Севальнев написал:
    24 Фев 2015 в 20:35

    Общение с сотрудниками Google, даже больше чем с сотрудниками Яндекса, напоминает общение со стенкой.

    Им доводы - они в ответ шаблоны.

    Это, конечно, круто, отрицать сам факт учёта ПФ, высший пилотаж, покер-фейс на 100% -) Но тут, кажется, всем очевидно, что это абсурд.

    Даже Mail учитывает и выводит два интегральных ПФ-фактора в своём Вебмастере, а вот Google не учитывает. Ага, да, точно.

  14. Bakalov Igor написал:
    25 Фев 2015 в 14:00

    Дим, а почему покерфейс Яндекса, касательно отмены ссылок в Московской коммерческой выдаче тебя не смущает? 🙂

  15. Дмитрий Севальнев написал:
    26 Фев 2015 в 1:04

    Игорь, мне кажется они просто разные цели преследуют -)

    Яндекс - хочет типа сломать систему и нарушить карго-культ оптимизаторов, и, надо сказать, для многих данные заявления работают. Хотя сам Яндекс и не раскрывает карты о наблюдаемом объеме коммерческих ссылок в Рунете.

    Что же касается Google - я не знаю за что они борются, ты думаешь за то чтобы народ отказался от накруток? Если да, то хочется каких-то более мощных действий, скажем, фильтр Пеликан для ПФ. Мало же кто смотрит эти видеовстречи с вебмастерами, а практика работы с ПФ в Google - говорит явно об обратном =)

  16. Сергей Анисимов написал:
    09 Мар 2015 в 14:41
  17. Анатолий написал:
    10 Мар 2015 в 19:06

    Спасибо, Игорь, спасибо за подборку информации, как всегда интересно.
    Собственные наблюдения за последние годы:
    Накрутка ПФ для Яндекса — эффект стримится к 0!
    Накрутка ПФ для Google — эффект явно есть, причём достаточны быстрый

    Чистота выводов конечно под большим вопросом т.к. невозможно отследить значение ПФ в отрыве других факторов, даже если с сайтами борльше нечего не делать, поскольку на длительном отрезке времени даже с этими сайтами происходят колебании (иногда очень значительные)…

  18. Артем написал:
    16 Апр 2015 в 20:13

    А только мне кажется здесь противоречие «Речь шла только о том, что если вы выпихните сайт в топ плохими ссылками, то очень скоро он оттуда улетит под плинтус. А то, что не кликают по топовому результату – это только сигнал, что с выдачей не совсем все правильно и нужно обратить внимание. Такой сайт либо заслуживает ручных мер, либо алгоритм ранжирования нуждается в корректировке.

  19. Bakalov Igor написал:
    17 Апр 2015 в 10:21

    Артем, да странного много тут, например увиливания про граф переходов. У них на сайте есть публикации, где вскользь упоминается, что для ряда исследований использовали данные тулбаров, но в ранже видите-ли не используют. Стоит понимать, что это лишь официальная позиция Google и не стоит верить им на слово 😉

  20. Николай написал:
    07 мая 2015 в 21:27

    Они говорят, что поведенческие внутри сайта не является сигналом ранжирования. Джон Мюллер тоже сто раз отвечал на этот вопрос.
    Он привел простой пример, сказав, что когда он вбивает запрос в гугле, то очень часто открывает сразу несколько вкладок, допустим читает одну, остальные 4 открыты в других вкладках. После чего он может вообще про какие-то забыть и закрыть их позже, или перебить запрос на более уточняющий. Таким образом время на сайте очень шумный сигнал. Также он сказал, что если находит ответ на свой вопрос то тут же закрывает вкладку.
    А накрутки ПФ работают потому, что накручивается CTR в выдаче. А Рэнд Фишкин уже делал эксперимент, предлагая своим фэнам вбивать запрос в гугле, идти на 3 страницу и кликать по ссылке. И конечно эксперимент подтвердился, что CTR влияет на выдачу. Гугловцы об этом и говорят, что они учитывают поведенческие факторы только внутри самой выдачи. Смотрят кто куда жмет, как часто и т.д. Только вот непонятно CTR влияет только на данную страницу, или хороший ctr на некоторых страницах положительно влияет и на другие страницы. Ведь хороший ctr может быть не только из за привлекательного заголовка, но и за доверие к бренду(известному домену).

  21. Bakalov Igor написал:
    08 мая 2015 в 10:49

    Николай, в том то и фишка, что Гугловцы говорят, что CTR и прочие «кликовые» фишки — не влияют.
    Что до времени на сайте, не проблема учитывать время только на активной вкладке, это все реализуемо средствами JS.

  22. Николай написал:
    08 мая 2015 в 11:34

    Об этом говорили на каком-то вебмастерском гугловском видео. Кстати тебя там видел тоже вроде, среди задающих вопросы через скайп, если не ошибаюсь конечно.
    В очках там есть такой гугловец:), вот он и говорил, что они оценивают поведение пользователей на выдаче, а не на сайтах. Что там еще можно оценивать кроме CTR? Ну например очередность кликов, скажем вбил запрос, выдало результаты, кликаешь сначала по третьему месту, потом по второму. Вроде ctr обеспечил этим двум ссылками одинаковый, но заинтересовался сначала третьим местом, посчитав его заголовок более привлекательным к примеру.
    Ну и Джон Мюллер об этом говорил несколько раз, отвечая на вопросы про то что якобы гугланалитикс подглядывает за нами 🙂

  23. Bakalov Igor написал:
    08 мая 2015 в 13:01

    Николай, немного не правильно вы поняли. Допустим возьмем Яндекс. Есть ваш сайт на 3 месте по [запросу], если на него кликают чаще (читай выше CTR), то Яндекс считает, что этот сайт лучше и его по этому запросу надо поставить выше. У Google же официальная (!) позиция принципиально другая. Они в целом смотрят на поведение и клики пользователей в SERP и затем в целом «улучшают» алгоритмы, чтобы сайты на которые кликают чаще были выше. По факту конкретная связка запрос-документ не важна, т.к. это для них «шум». Поскольку поиск всегда старается найти грань между точностью и полнотой, на выходе может оказаться так, что ваш сайт не будет ранжироваться лучше, даже при высоком CTR. Немного сумбурно, но надеюсь вы поняли о чем я.

  24. Николай написал:
    08 мая 2015 в 20:35

    Возможно, но эксперимент Рэнда Фишкина это подтвердил, когда он сказал своим подписчикам в твиттере сделать определенные действия в серпе, то есть вбить запрос и кликнуть куда нужно.

    Может быть они еще смотрят на соотношение брендовых запросов и переходов по ним. Соответственно чем больше брендовых запросов делается, тем выше сайт должен ранжироваться и по другим небрендовым но релевантным запросам.

    Хотя возможно конечно и показатель отказов из поиска считают. Хотя тот же Джон Мюллер говорил, что он сам ищет довольно быстро, если быстро ответ нашел, то закрывает страницу. Но тут наверное от запроса зависит, ведь очевидно что в ecommerce запросах пользователю понравился сайт в том случае если он остался на странице и начал делать действия какие-то, добавлять в корзину и т.д. А если открыл и сразу закрыл, то вероятно что-то не так, допустим товара нет временно в продаже, о чем висит уведомительная надпись, значит будут уходить со страницы, а следовательно зачем ее высоко показывать.

  25. Bakalov Igor написал:
    09 мая 2015 в 0:04

    Николай, ну я же не зря сделал акцент, что это официальная (!) позиция Google 😉 А сеошники знают, что далеко не все заявления представителей поиска являются истиной 🙂

«Шеф-редактор блога GetGoodRank, веб-аналитик, блоггер.
Как измерить уровень удовлетворенности пользователя сайтом? Поисковые системы применяют различные методики. Ясно одно, каждый поисковик учитывает поведенческие факторы и действия пользователей на сайте в процессе ранжирования. А многочисленные исследования это доказывают»

Во время очередной видеоконференции Google Джон Мюллер ответил на вопрос вебмастера, что поисковая система не учитывает действия пользователей на сайте в качестве фактора ранжирования. Более того, Google вряд ли видит и учитывает все действия, производимые пользователем на сайте при каждом посещении.

Стоит ли расценивать данный ответ, как официальное заявление, что поисковик не учитывает поведение пользователей на сайте?

Нет. И вот почему.

Поведение пользователей в ранжировании сайтов

Поведение пользователей - наиболее объективный параметр определения качества, удобства сайта. Прибыль сайту приносят именно пользователи, а не поисковые системы.

Поисковая система «видит», что пользователи делают на сайте, и предлагает эти данные вебмастерам для оценки эффективности сайта и СЕО. Так, в панели Google Analytics доступны следующие метрики:

  • сессии
  • пользователи
  • просмотры страниц
  • количество просмотренных страниц за одну сессию
  • средняя длительность сессии
  • показатель отказов
  • новые сессии
  • демография посетителей сайта
  • социальные сигналы
  • и множество других метрик, основанных на реакциях и действиях пользователей на сайте

Если Google не видит, что пользователи делают на сайте, то каким образом эти данные попадают в Google Analytics?

Более того, Google Analytics предлагает вам данные об операционных системах и устройствах, с которых был осуществлен вход на сайт. А в панели инструментов есть раздел под названием «Поведение», где вебмастер видит карты поведения, страницы входа и выхода.

Поисковые системы самостоятельно запустили механизмы черного СЕО, предоставив оптимизаторам четкие руководства к действию: выше ранжируется тот сайт, которые оказывается более релевантным запросу и авторитетным среди прочих. Это спровоцировало ссылочную коммерцию, а также стало причиной низкого качества и ценности контента. Ведь не было необходимости наполнять качественным контентом страницы, если высокому ранжированию способствовали переоптимизированные тексты «ни о чем». Сегодня поисковая система исправляет «ошибки прошлого», уравновешивая параметры релевантности и авторитетности пользовательскими факторами.

Google позиционирует поведение и удовлетворенность пользователей как фактор конверсии. Все рекомендации представителей поисковых систем сводятся к созданию сайтов для людей и улучшению сайтов для простого взаимодействия пользователя и ресурса. Официальный блог Google говорит:

The goal of many of our ranking changes is to help searchers find sites that provide a great user experience and fulfill their information needs. We also want the “good guys” making great sites for users, not just algorithms, to see their effort rewarded.

Мы усовершенствуем алгоритмы ранжирования с единственной целью - обеспечить отличный пользовательский опыт каждого человека и помочь ему найти то, что он ищет. Мы также поощряем тех ребят, которые создают сайты для людей, а не для поисковиков. (перевод редакции )

Алгоритм ранжирования сложен, и формула его не разглашается, с тем чтобы снизить возможность манипулирования результатами выдачи. Алгоритм учитывает множества параметров одновременно, и заявить со 100% уверенностью, что поведенческие факторы не учитываются при ранжировании нельзя.

Непрямые доказательства влияния поведенческих факторов на ранжирование

Компания Searchmetrics опубликовала список факторов ранжирования в виде простой инфографики. Однако из исследования видно, что 25% факторов основаны на поведении и реакциях пользователей на сайт.

Также Google привлекает асессоров для оценки сайтов и выявления факторов, определяющих удовлетворенность пользователя. Оценки асессоров не влияют напрямую на позиции проверяемого сайта, однако учитываются в формуле ранжирования, которая в последующем применяется ко всем сайтам определенного типа (информационные, блоги, форумы, корпоративные и пр.). Доказательством этого факта являются инструкции для асессоров (Google Quality Rating Guidelines), время от времени появляющиеся в сети.

Где я рассмотрел основные моменты, дать что-то более конкретное, на что реально стоит обратить внимание при оптимизации сайта.

Сегодня расскажу вам про факторы ранжирования, которые очень важны для Google. Их более 200 и описывать все я не собираюсь, а точнее не собираюсь все писать самостоятельно, так как уже все до меня давно расписано в очень хорошем виде. Дам вам очень крутую инфографику, сделанную другим ресурсом.

А сейчас расскажу лишь про ТОП-10 факторов, которые стоит учитывать в первую очередь.

Вся информация ниже - перевод с англоязычных источников. Делаю его с чек-листа, который получил на ресурсе backlinko.com в обмен за подписку.

1. Наличие ключевого слова в начале тега title

Google отдает предпочтение и больший вес ключевому слову, если оно находится в начале заголовочного тега title. Поэтому, старайтесь размещать его, как можно ближе к началу.

Например, если взять ключевую фразу "поведенческий фактор", то можно сделать 2 варианта заголовка:

  • Поведенческий фактор: что это?
  • Что такое поведенческий фактор.

Большую значимость будет иметь первый вариант, так как ключ находится в самом начале заголовка. Старайтесь свои заголовки в title оформлять должным образом, но, чтобы это было естественно.

На графике ниже можно видеть, что значимость ключевой фразы в начале title (ось Y) имеет больший вес, что сказывается на позициях.

Это первый по значимости фактор в ранжировании гуглом.

2. Длина контента

Документы с большим наличием контента имеют свойство занимать позиции выше в выдаче. Считается, что большой контент может покрыть тему больше и дать более исчерпывающий ответ.

Ниже на графике вы можете видеть эксперимент по анализу позиций в зависимости от длины контента.


Видно, что с возрастанием величины контента (ось Y) позиции имеют свойство расти. Поэтому, старайтесь писать свои тексты обширными, чтобы давать исчерпывающие ответы.

3. Скорость загрузки страниц

Чем выше скорость загрузки сайта, тем выше позиции. Это один из немногих факторов, который Google публично подтвердил. Это очень важно. Поэтому, настоятельно рекомендую проштудировать мой материал о том, .

4. Плотность ключевых слов и их положение

Хоть сейчас Google не может ориентироваться только на плотность ключевых слов при оценке релевантности документа, но все же плотность учитывается.

Поэтому, стоит стратегически использовать ключевые слова, размещая их в заголовочном теге title, как можно ближе к началу (см. выше), размещать в первых 100 символах документа, а также заключать в тег H2 или H3.

Более частое употребление ключевых фраз, чем других в тексте, говорит Google о том, что документ именно про то, что говорится в ключе. Но это не значит, что стоит злоупотреблять ключевыми словами. Тут очень важным моментом является анализ сайтов конкурентов из ТОПа, чтобы выявить их количество ключей.

Имеется очень тонкая грань, когда употребив на 1-2 ключа больше, можно быть песимизированным и не попасть не первую страницу выдачи. Будь-те осторожны!

Тоже самое могу сказать и про заголовочные теги H2-H6. Не стоит употреблять в них ключи. Заголовка titile и H1 вполне достаточно.

5. Авторитет страницы / PageRank

Выстройте свою стратегию по наращиванию ссылочной массы.

6. Авторитет домена

При ранжировании страницы, Google также обращает внимание на авторитет домена в целом (вот почему такие сайты, как Amazon и youtube авторитетнее, чем большинство остальных ресурсов).

7. Релевантность ссылки

Но google больше внимания уделяет релевантности ссылки, которая ведет на сайт. Один экс-сотрудник Google заявил, что релевантность - новый PageRank.

Выстраивая ссылочную массу, следите за соответствием тематик вашего сайта и ресурса, с которого на вас ведет ссылка. Если у вас проект про органическое питание, то не должно быть никаких ссылок с сайтов про грузовики и татуировки.

8. Задержка или время проведенное на сайте

Что посетитель делает, когда попадает на ваш сайт? Он остается и начинает просматривать другие страницы или сразу возвращается обратно к выдаче?

Google обращает очень пристальное внимание на то, как посетитель взаимодействует с сайтом. Количество времени, проведенное на сайте - супер важный параметр.

Действие: сделайте контент убедительным и, чтобы его потребление происходило без помех. Будет большая задержка на сайте - будет и рейтинг.

9. Отзывчивый дизайн

Больше половины всего веб-трафика происходит с мобильных устройств.

Официальная позиция Google в том, что они предпочитают отзывчивый дизайн над просто отдельным сайтом для мобильных устройств.

Действие: убедитесь, что сайт грузиться быстро на моб. устройствах и имеет гибкую конструкцию, то ест адаптивность под популярные разрешения экранов.


10. Ненадежный и дублированный контент

Google хочет ранжировать сайты, имеющие надежный и оригинальный контент. Многие пожилые сайты за многие годы существования накапливают много мусорных страниц, как архивных, так и страниц категорий.

"Хлам" страницы и дубликаты могут удерживать рейтинг сайта в нижнем положении.

Действие: удалить мусорные страниц и дубликаты контента или закрыть их в Noindex.

Итак, друзья, вот основные 10 факторов ранжирования, которые стоит соблюдать. Большинство из них не секрет. Думаю, что вы догадывались по поводу некоторых пунктов, например про влияние количества контента. Факто конечно же хороший, но не стоит также писать статьи о чем либо, чтобы сделать тексты, как можно длиннее.

Идеальный вариант предполагает выявить среднюю длину документов из ТОПа, так как поисковые системы не просто так их поставили на верх выдачи. После этого с приблизительно такой же длиной писать текст. Количество и плотностью ключевых слов определяется точно также. Как это все делать бесплатно с помощью одного сервиса, я покажу в следующих статьях.

А в окончание статьи даю громадную инфографику, со всеми факторами ранжирования. Смотреть ее будет приятно, сделано все круто. Оригинальный текст из графики ниже смотрите тут .

Также стоит уделить внимание переводу этого материала на блоге Сергея Кокшарова.

Теперь сама инфографика. Приятного просмотра и до скрой встречи.

С уважением, Константин Хмелев!

P.S. Опишите свои впечатления от инфографики, если понравилась.

ПФ — это самый явный тренд в современном SEO и действительно фундаментальное понятие в продвижении сайта. Сегодня дело обстоит так: вряд ли вы добьётесь высокой посещаемости сайта, если у вас плохие ПФ.

Довольно известный блоггер Арбайтен так и вовсе утверждает, что сайты продвигаются исключительно поведенческими факторами.

Чтобы получить максимальный эффект от знания темы, сначала определимся, что это вообще такое.

Что такое поведенческие факторы

Поведенческие факторы (сокращенно ПФ) — это действия пользователей, которые учитываются при ранжировании. То есть необязательно это только их действия на вашем сайте — учитывается и то, что юзер делает, к примеру, на выдаче поисковика. Еще нормальное определение в видео:

Особенно высоко влияние поведенческих факторов ранжирования для продвижения по высокочастотным запросам и для борьбы на первых страницах выдачи. Именно поэтому по низкочастотникам еще можно продвинуться, прописав ключ в тайтле. Или переместиться с 80 на 40 место по запросу, просто поправив текст на странице. А уж чтобы получать топ-3, надо работать над сабжем.

Виды ПФ

ПФ делятся на три основные группы — кликовые, хостовые и источники трафика.

Кликовые

Кликовые поведенческие факторы — это те, которые совершаются на выдаче поисковика. Три самых основных из них:

  • CTR — кликабельность вашего сниппета. Если на описание вашего сайта кликают больше, чем на описания конкурентов — это учитывается поисковой системой как хороший знак. Причем CTR считается только для тех сайтов, у которых достаточно трафика. Для всех остальных используется условный CTR (CTR по умолчанию) – он примерно на уровне 10 места в выдаче, так что сайты без трафика могут особо не тратить время на улучшение этого фактора.
  • Последний клик в выдаче. Если после вашего сайта пользователь не вернулся на выдачу — высока вероятность, что он нашел ответ у вас, а значит, ваш сайт действительно хорош.
  • Единственный клик в выдаче. Это вообще стопроцентное попадание.

Дискуссионным является вопрос, для всех ли сайтов данные факторы одинаково важны. Ведь есть такое понятие как казуальный интерес, когда пользователь смотрит очень много сайтов, чтобы скоротать время и не ищет что-то определенное. Согласитесь, это радикально отличается от ситуации, когда он ищет конкретный товар.

ПФ в Яндексе — это всего лишь часть алгоритма Матрикснет, который имеет важнейшую роль в формировании выдачи и учитывает особенности тематике. Не факт, что если вы на своем сайте уменьшите показатель отказов до нуля, то он взлетит. Может быть, в вашей тематике 50% отказов — это норма. Вот в этом и превосходство Матрикснета над глупыми сеошниками. Думайте головой, вживайтесь в тему, ставьте себя на место пользователя.

Наконец, есть еще такая вещь, как вес клика. То есть если пользователь сделал 100 кликов в выдаче, то, естественно, каждый из них будет цениться гораздо меньше, чем один клик юзера, который кликнул всего раз.

Не исключено, что Яндекс учитывает данные, о которых вы даже не задумываетесь. Например, переход в другую поисковую систему (обычно кнопки для этого действия имеются под пагинацией в выдаче).

Основной способ улучшения кликовых ПФ – работа со сниппетами. Чем больше кликов и заходов на сайт, тем лучше. Кликовые факторы мощнее и важнее других.

Хостовые

Здесь учитывается все, что происходит на вашем сайте. Наиболее важны здесь:

  • Общая количество посетителей сайта
  • Показатель отказов
  • Наличие «ядра» аудитории, коммьюнити
  • Вернувшиеся посетители
  • Глубина просмотра (среднее количество просмотренных страниц в рамках сессии)
  • Время, проведенное на странице
  • Среднее время, проведенное на сайте
  • Активные действия (заполнения форм, комментарии и так далее)

Один из способов улучшения – увеличение скорости загрузки сайта. Также в деле улучшения хостовых ПФ можно почитать Михаила Сливинского или Дмитрия Сатина.
Хостовые поведенческие факторы ранжирования, как говорил Артур Латыпов, учитываются мономами. То есть количество отказов плюс что-то, и всё это умножено на весовой показатель (насколько эта связка факторов важна).

Источники трафика

Для хороших результатов ранжирования важно также, чтобы сайт получал не весь трафик с поисковых систем. На нем также должна быть доля прямых заходов, переходов с закладок, из социальных сетей, переходов со ссылок на сайт.

А вот инфографика от блоггера Seoprofy, которого я также хорошо котирую:



Какие поведенческие факторы учитываются

Здесь самые основные моменты:

  • Последний клик (остался ли гость на вашем сайте, завершив на нем сессию поискового запроса, или пошел искать дальше, по другим «просторам» сети).
  • CTR сниппета.
  • Глубина просмотра (сколько html-документов пролистано в рамках одной сессии).
  • Процент отказов, так называемый bounce rate (время менее 15 секунд на странице не учитывается поисковыми системами и считается за отказ).
  • Какое количество времени в среднем проводят гости на ресурсе.
  • Действия, которые человек совершает на странице (кликает по рекламе, крутит скроллом, открывает ссылки и т. п.)
  • Количество прямых заходов (чем больше у ресурса постоянной целевой аудитории, тем лучше, это один из важнейших влиятельных факторов).
  • Вернувшиеся посетители.
  • Социальные сигналы (если люди делятся материалом в соцсетях, это говорит о его полезности, интересности, поисковики благосклонны к таким действиям).
  • Источники трафика (откуда чаще всего приходят юзеры). Поисковики быстро распознают фальшивый, накрученный трафик и умеют определять естественный.

Откуда поисковые системы берут информацию о действиях пользователей?

О, их инструментарий растет с каждым годом. Именно благодаря этому и стало возможным увеличение роли ПФ в ранжировании. Вот основные источники:

  • Свои браузеры. Я даже думаю, что пофиг, сняли ли вы галочку об отправке сведений о своих действиях — Яндекс Браузер и Google Chrome все равно будут анализировать вас.
  • Поисковая выдача.
  • Системы аналитики Яндекс Метрика и Google Analytics.
  • Всякая дополнительная хрень вроде Яндекс Бара.
  • Ходят также страшные истории о том, что разработчикам популярного софта (какого-нибудь мьюторрента, к примеру) платят за то, чтобы они также собирали информацию о действиях пользователя и отправляли в поисковик. Или, допустим, зачем Яндекс купил PuntoSwitcher?

Также для получения большей информации о ПФ запускаются такие технологии, как «Многорукий бандит» Яндекса. А раньше отечественный поисковик ограничивался тем, что тасовал 9-11 места после апдейтов.

Как улучшить ПФ?

Банальный совет – это максимально улучшать контент, юзабилити, дизайн и прочие аспекты ресурса, которые позволят человеку с комфортом пользоваться сайтом. Полезность представленной информации, ее релевантность поисковым фразам, содержательность.

Перед тем, как приступить к работе по улучшению ПФ, обязательно подумайте, какие из факторов актуальны в данной тематике и для вашего ресурса. А только потом начинайте работу над ними.

Один из лучших способов анализировать ПФ — заказать аудиты на askusers, либо нанять много редакторов на биржах текстов. Часть их может исправлять ошибки в тексте, часть — аргументированно писать, отвечает ли текст на запрос. Их можно нанимать через микрозадачи на Turbotext, как советует Кирилл Лакиманов: http://www.lucky-seo.com/post/pochemu-moy-sayt-ne-v-tope .

Чтобы понять, положительно ли сказалась ваша работа над улучшением поведенческих факторов, смотрите на посещаемость сайта в Google, так как западный поисковик оценивает изменения гораздо быстрее Яндекса. Если трафик с Гугла просел (дайте ему 2 недели на оценку) — значит, вы не попали в цель, и лучше откатить изменения. Яндекс, скорее всего, даже ничего не успеет сообразить.

Увеличиваем продолжительность сессии

Чтобы заставить юзера подольше задержаться на странице, нужно дать ему то, что он ищет. Для этого особое внимание уделяйте релевантности контента. Не должно быть никаких расхождений между заголовком, отображающимся в сниппете и самим текстом, на который пользователь попадет, если пройдет по ссылке.

Это делается так — берёте запрос и думаете, что хочет получить пользователь от страницы, задавая этот запрос. И так со всеми ключами.

В статьях старайтесь как можно глубже раскрывать темы, давая максимум ответов на гипотетические вопросы в рамках обсуждаемого предмета. Если вы спец в теме — составьте сначала план статьи, подзаголовки, а потом раскрывайте.

Старайтесь в статьях использовать такую психологическую уловку, как задание вопросов читателю. Это заставит его задумываться, прокручивая в голове ответы.

Не думаю, что для интернет-магазинов увеличение времени на странице актуально.

Структура подачи материала тоже должна быть легкой для восприятия: удобный для чтения шрифт, абзацы в тексте, равномерное распределение изображений и ссылок по документу. Все это позволит вам на дольше задержать гостя.

Увеличиваем глубину просмотра

Повысить количество просматриваемых страниц можно за счет качественного юзабилити, грамотно расставленных ссылок и завлекательных фраз в контенте.

Задумайтесь, почему у сайтов вроде Adme фантастическая глубина просмотра? Потому, что если вы зашли на статью, то на странице висят ссылки на другие статьи с такими заголовками, что просто не остается выбора, кроме как перейти на эти статьи.

Обязательно нужно использовать сквозные блоки, призывая пользователей посмотреть, к примеру, подборку самых популярных или самых комментируемых статей. Навигационные ссылки помогут людям быстро сориентироваться в крупной статье, ссылки «хлебные крошки» позволят легко возвратиться назад, если у юзера появится такая потребность.

Большое значение имеют контекстные ссылки в статьях, перейдя по которым можно найти близкие по тематике материалы и получить больше ответов на запрос. При этом нужно избегать навязчивости, все это должно выглядеть как добрые советы, а не принуждения «прыгать» по другим страницам.

Специальный плагин для WordPress YARPP связывает между собой похожие статьи и отлично влияет на ПФ. Есть также плагины, которые при прокрутке посетителем статьи организуют всплывающее окно, советуя ему похожую запись для просмотра.

Уменьшаем количество отказов

Одними из главных причин отказов бывают «выпрыгивающие» рекламные плагины на полстраницы и слишком медленная скорость загрузки документа. Никому не нравится, когда при заходе на сайт на тебя «наваливается» раздражающий баннер, далекий от искомого запроса; большинство моментально закрывает такую страницу.

Не любит современный пользователь и ждать. Поэтому в первую очередь надо позаботиться о качественном хостинге и чистом коде, чтобы страницы грузились быстро. Не стоит загромождать документ тяжелыми виджетами или картинками.

Да, и кстати. Не забудьте о работе над мобильной версией сайта.

Уходят юзеры и тогда, когда в течение нескольких секунд не находят ответов на свои вопросы. Конечно, за несколько секунд никто не успеет прочесть текст, но люди научились сканировать его, и если за пару мгновений глаз не зацепиться за привлекательные фразы, то внимание потеряно. Поэтому важно структурированно подавать материал, делать больше подзаголовков, выделять интересные моменты, значимые фразы и глубоко раскрывать тему. Наличие картинок, фотографий, прочих изображений и видеороликов лишь помогает привлечь внимание гостя.

Уберите с поля зрения все, что может раздражать, используйте гармоничные цвета в дизайне, подавайте статьи в «красивой» структуре, акцентируйте интересные места, применяйте психологические приемы для построения привлекательных заголовков и тогда отказ просмотров уменьшится.

Вообще, вот еще одно очень хорошее видео по продвижению поведенческими факторами от Дмитрия Севальнева и Артура Латыпова — это одни из ведущих специалистов по SEO.

Контроль сниппетов по запросам

Делая запрос поисковику, человек получает выдачу, состоящую из заголовков страниц сайтов и кратких анонсов – сниппетов. На верхних местах располагаются ресурсы, которые, по мнению поисковой системы, точнее других отвечают вопросу. Но это лишь мнение машины. У реального человека может быть иное мнение. Читая сниппеты, он может решить, что страница на 7 месте лучше соответствует его запросу и перейдет именно на нее, а не на 1-ый или 2-ой сайт. И если так будут поступать все больше пользователей, то и робот в своих анализах поймет, что этот ресурс более релевантен определенным запросам, и поднимет его в ТОПе.

Необходимо контролировать сниппеты, чтобы они выглядели более привлекательно и зазывающе. Для этого нужно качественно прописывать Description (ПС, особенно Google, иногда берут из него информацию для анонса) и проверять, как выглядит сниппет по ключевым словам после переиндексации страницы и текстового апдейта. Если бот сформировал не очень удачный отрывок, можно подправлять текст в том месте, откуда он был взят в сниппет.

Для интернет-магазина также необходима и настройка расширенных сниппетов.

Разумеется, на кликабельность в выдаче влияют также фавикон, название домена, урл.

Создайте рассылку

Используйте ссылки

Оставляйте ссылки на свой сайт на форумах, в комментариях на других сайтах, в группах соцсетей. По поводу ссылок помните железное правило — работают только те ссылки, по которым есть переходы. Если переходов нет — эти ссылки бесполезны.

Просите читателей делиться комментариями

Чаще обновляйте контент

Добавляйте новые материалы — чем выше постоянный трафик, тем чаще следует обновлять контент. Не забывайте о том, что статьи должны быть полезными и интересными.

Предложите что-то пользователям

Это могут быть некоторые подарки, к примеру, в виде бесплатной книги, которую юзер может получить за те или иные действия, или ссылка на полезный в рамках темы видеоролик, недоступный в обычном режиме. Словом, дайте что-то посетителю, в обмен на его небольшие усилия. Человеку всегда приятно получать подарки, даже если они кажутся незначительны. Это лишь скажет о том, что вы цените внимание гостей и готовы дать нечто большее, чем просто качественный материал.

Как делать анализ ПФ?

Самыми удобными, популярными и точными являются сервисы статистики Яндекс Метрика и Google Analytics. Во-первых, они бесплатны – достаточно зарегистрироваться в них, добавить код на свой сайт, и можно пользоваться всеми возможностями. Во-вторых, в них много других полезных инструментов для анализов.

Метрика — на какие ПФ обращаем внимание в первую очередь

Отслеживать поведение пользователей я предпочитаю через Яндекс Метрику. Потому что, во-первых, Google Analytics присваивает вашим сайтам единый идентификатор, через который можно спалить сайты одного владельца, а во-вторых, продукт Яндекса просто гораздо удобнее.

Арбайтен писал, что у коммерческих сайтов показатель не должен быть 12% и больше, а для информационных — 13% и больше. Он советует довести его до 7 и 8 процентов соответственно. Тут я могу добавить лишь то, что это очень общие цифры, а в целом это зависит от тематики. Думать надо всегда своей головой. Например, для информационных сайтов очень важно время, проведенное пользователем на странице — лучше, если бы оно было не меньше 2 минут.

Кстати, попробуйте через Метрику отсеять все страницы на вашем статейнике, где пользователь проводит меньше всего времени. Скорее всего, это будут статьи, которые тянут ваш сайт вниз. Также посмотрите, какие запросы имеют высокий процент отказов — по ним лучше переделать контент.

Самые основные и порой неожиданные данные может дать Вебвизор. Аналога этому сервису у Гугла нет. Возьмите за правило каждый день 40 минут уделять на изучение данных Вебвизора — и в скором времени вы не будете представлять, как продвигали сайт без этого.

Еще один важный фактор, который разбирал блоггер Арбайтен — это постоянные посетители. В Метрике его просто так не посмотришь, потому что там в число «вернувшихся» включаются также посетители, которые просто еще раз зашли на ваш сайт — может быть по ссылке или по рекламе, они не ставили цель посетить именно ваш сайт. А под постоянными мы имеем в виду именно тех, кто осознанно ищет именно вас. Прямые заходы — это тоже не всегда постоянные посетители, так как сюда включаются еще и переходы по ссылкам из скайпа, из pdf-файлов и так далее. То есть просто так через Метрику вы количество постоянных посетителей не узнаете. Арбайтен предложил выбирать в Вебвизоре тех посетителей, у кого число визитов в истории больше 10:

А чтобы отсечь роботов и тех, кто переходит из поиска, можно ужесточить фильтры:

И тогда получится чисто ваша постоянная аудитория «без примесей».

Все эти данные позволят оценить общее качество всего сайта. Но если речь идет о продвижении конкретной страницы, то все эти показатели надо смотреть по отношению к ней.