Как поднять свой сайт с блогом в поисковой выдаче

Основные изменения в поисковом алгоритме Google и Яндекс 2018 для блогов и гайд: «Базовые фишки для того, чтобы поднять блог в топ поисковой выдачи»
Нажимая кнопку вы соглашаетесь с Политикой обработки персональных данных. Подпишитесь на нашу телегу (@svoemedia)
Поисковики стремительно поумнели, а SEO приняло их правила игры. Сегодня проще, выгодней, надежней следовать легальным методам оптимизации сайта или блога, которые предлагают Google и Яндекс, чем пытаться их обмануть. Для того чтобы попасть в топ поисковой выдачи по запросам нужно знать, как работают поисковые движки, внимательно следить за обновлениями их политики, хотя бы базово понимать, от чего зависит ранжирование веб-страниц.
Ирина Сорогина
SMM-специалист Svoemedia
Максим Колташов
Главный редактор Svoemedia
Саша Иващенко
Стратег Svoemedia

Скорее жив, чем мертв

SEO – полезный и действенный инструмент по улучшению позиций сайта в поисковой выдаче. Да, вкладывать в него время и деньги стоит. Нужно четко понимать, что оптимизация вторична по отношению к качеству веб-контента, тогда многие вопросы отпадут сами собой.

Отношения сеошников и поисковиков складывались непросто. Для Google и Яндекс их системы поиска – это актив, который должен приносить деньги, не в ущерб удобному, быстрому и эффективному поиску пользователем нужной информации. Они предлагают набор легальных инструментов, чтобы максимально облегчить вам доступ к умам миллионов людей. При условии, что ваш контент реально может быть им полезен.
На SEO долгое время смотрели как на отмычку, позволяющую проникнуть на тусовку безбилетником с черного входа. Это тупиковый путь. Сегодня оптимизация – это инструменты, помогающие оформить прописку в топе легально, не допустить распространенных ошибок.
В пору босоногого детства, когда интернет только появился, нужную информацию пользователи находили с помощью примитивного каталога сайтов. Со временем сайтов становилось все больше, ориентироваться стало труднее. Возникла идея сортировать страницы по соответствию поисковым запросам пользователей.

Создатели Гугл Сергей Брин и Ларри Пейдж решили руководствоваться следующим принципом ранжирования: чем чаще на сайт ссылаются в других источниках, тем он лучше. В этот момент проклюнулось SEO. Работа SEO-специалиста сводилась к тому, чтобы закупать ссылки.

Топ поисковой выдачи наполнился всяким шлаком и спамом. Это сильно подрывало авторитет поисковых систем, поэтому разработчики начали фильтровать спам и накладывать санкции. Одновременно возникла идея монетизации поисковиков и легальной продажи высоких позиций в поиске. Поисковики начали развивать контекстную рекламу и внутренние сервисы (например, Гугл Адвордс, Яндекс.Маркет).

Ключевые обновления алгоритмов Гугл и Яндекс для улучшения качества сайтов и результатов поиска

Гугл
Яндекс
2011: Panda — фильтр против плагиата, копирования текстов, некачественного контента, напичкивания сайтов ключевыми словами, пользовательского спама. В 2016 году стал частью основного алгоритма.
2015: Минусинск — алгоритм определяет сайты, которые используют SEO-ссылки для поискового продвижения, и ограничивает эти сайты в ранжировании.
2012: Penguin — борется с мусорными и нерелевантными ссылками, анкорными ссылками с чрезмерным количеством ключевых слов. С 2016 года — часть основного алгоритма.
2016: Палех — благодаря этому алгоритму, поиск лучше находит веб-страницы, которые соответствуют запросам не только по ключевым словам, но и по смыслу.
2015: RankBrain — система машинного обучения, которая помогает Гугл понять смысл запросов и выдавать наилучшие результаты поиска.
2017: Баден-Баден — алгоритм определения переоптимизированных страниц.
2017: Fred — борется с некачественными сайтами с чрезмерным количеством партнерских ссылок и сайтами, созданными только для получения дохода от рекламы.
2017: Королёв — этот алгоритм с помощью нейронной сети сопоставляет смысл запросов и веб-страниц, помогает находить ответы на редкие и сложные вопросы.

Как работает поисковой алгоритм Google

Для того чтобы попасть в топ поисковой выдачи, улучшить позиции своего сайта, нужно хотя бы примерно представлять, как работает поисковой алгоритм популярных сервисов. Сделать это непросто, потому что даже описание на официальной страничке Google слишком размытое и загадочное.

Мы берем за основу описание работы поисковика Google, поскольку все прочие поисковые платформы, так или иначе, следуют в его фарватере и внедряют схожие идеи по ранжированию сайтов.

В упрощенном виде принцип работы поисковика выглядит так:

1
Сначала происходит сканирование — поисковый робот («паук») обнаруживает новые и обновленные страницы. «Паук» — небольшая программа, которая автоматически шерстит интернет на предмет свежей информации, переходит по ссылкам, копирует код и отправляет на сервер. Бесполезные страницы (дубликаты и прочее) игнорируются. Программа читает и воспринимает инструкции, которые вы для нее оставили в коде.
2
Затем она добавляет эту информацию в индекс. Когда пользователь запускает поиск, это не означает, что поисковик мгновенно просматривает сеть на предмет релевантных ответов. Он обращается к своей базе данных, известной как индекс. Робот сканирует содержимое страницы, теги, атрибуты и т.д. Для нас важно понимать, что, если ваш сайт не попал в базу, то он не сможет появиться в выдаче ни на каком месте по определению.
3
В процессе поиска релевантных страниц к работе подключается поисковой алгоритм. Ведь поисковику нужно решить проблему, в каком порядке выдавать юзеру 1000+ результатов запроса. Здесь начинается настоящее SEO.
Этапы создания контент-плана
Схематично принцип работы Гугл можно изобразить так
Поисковой алгоритм Google больше не является неким мистическим сводом правил, доступным только посвященным. Все факторы и метрики, которые учитываются в процессе ранжирования, задокументированы и открыты для ознакомления.

Фишка в том, чтобы правильно подобрать и смешать ингредиенты, понять, как определить вес каждого фактора, его влияние на поисковую выдачу, и корреляцию между метриками.
Например, вы ищите информацию по запросу: «рецепт яблочного пирога». Гугл находит релевантные страницы.

При этом оценивает их по разным критериям, чтобы выдать в определенном порядке. Важно понять, что вес у этих критериев может быть разным.

Возьмем 2 критерия и разберемся, как они могут влиять друг на друга:

1
Критерий 1 — URL,
1
Критерий 2 — обратные ссылки на страницу.
Гугл находит страницу с URL www.recepty.ru/yablochniy-pirog, так как в URL есть ключевые слова «рецепты» и «яблочный пирог». Но Гугл смотрит еще и обратные ссылки на эту страницу. Возможно, эти ссылки также будут содержать ключевые слова «рецепты» и «яблочный пирог». Но Гугл снизит вес критерия 2, ведь если ключевые слова есть в URL-адресе, то они скорее всего будут и в обратных ссылках, релевантных или нет. И наоборот, Гугл может придать более высокий вес критерию 2, если ключевых слов нет URL-адресе.

Для профессионального сеошника знать принцип работы поисковых систем полезно и правильно. Если вы не занимаетесь SEO профессионально, есть несколько моментов, которые нужно запомнить (более развернутый гайд, как попасть в топ поисковой выдачи, ищите в конце статьи):
Чтобы ваш сайт был проиндексирован поисковиком, не забудьте о тегах и атрибутах.
URL должен соответствовать содержанию страницы и возможному поисковому запросу.
Обратные ссылки на ваш сайт важны, но они должны быть качественными и релевантными.
Это самое основное (помимо качества самого контента), базовый уровень языка «привет — пока — дайте мне стейк с гарниром». Гугл оперирует порядка 200 метриками для определения места сайта в поисковой выдачи. Хуже того, каждый день в политику поисковой системы вносятся обновления. Продвинутый уровень SEO требует регулярно отслеживать изменения в работе алгоритма Гугл. Все остальные поисковики со временем дублируют эти нововведения.

Изменения в поисковом алгоритме Google 2018

Гугл постоянно работает над усовершенствованием поискового движка (ежегодно вносится до 500-600 изменений в алгоритм) и публикует релизы для издателей и разработчиков сайтов. На сегодняшний день главная задача Гугл — максимально сократить время пребывания пользователя на странице поисковика, а не просто, как могло показаться, срубить побольше денег с ленивых издателей.
Илья Григорик, Google Webmaster Team: «Вопреки распространенному мнению, на самом деле мы пытаемся сократить количество времени, которое пользователи проводят на нашей странице с результатами поиска. Мы хотим, чтобы они быстро находили информацию, которую ищут; что означает уменьшение времени, проведенного на странице результатов поиска».
Именно на эту задачу работают последние нововведения Гугл, главные из которых были запущены в июле-августе 2018 года. Самые основные из них: мобильная версия отныне go first, с июля она совмещена с декстопной и индексируется первая. Причем это не должна быть упрощенная версия, дубликат, но вполне самостоятельный продукт. Для удобства пользователей информация на странице должна быть структурирована. Скорость загрузки сайта должна быть оптимизирована, особенно — мобильной версии.

Чтобы повысить рейтинг сайта в результатах поиска Гугл в 2018 году, необходимо сделать следующее:

1
Уделите больше внимания мобильной версии сайта: контенту, удобству и т.д. Количество пользователей мобильных устройств растет, и Гугл стремится повысить удовлетворенность этих пользователей.
2
Проверяйте все параметры для мобильной версии — именно она индексируется первой. Убедитесь, что метаописания, теги и т. д. настроены как в мобильной, так и в десктопной версии сайта.
3
Используйте разметку структурированных данных (строка кода, которую нужно добавить в HTML-код сайта). Поисковые системы считывают этот код и используют для получения расширенных результатов поиска. Часто это приводит к более высоким позициям.
4
Убедитесь, что контент на вашем сайте быстро загружается для пользователей. С июля 2018 года низкую скорость загрузки Гугл рассматривает как сигнал для понижения рейтинга.
5
Переведите свой сайт на HTTPS, если он еще не переведен. Гугл наказывает сайты, не переведенные на HTTPS, и помечает их как «небезопасные».

Еще есть несколько трендов в политике Гугл, которые в настоящее время обсуждают эксперты в области SEO. Вот к чему нужно готовиться:

1
Гугл продолжит борьбу с фейковыми новостями. Уже было кое-что сделано в этом направлении: блокирование рекламы фейковых новостей, запрет оскорбительных поисковых подсказок, добавление тегов «Fact check» к результатам поиска. В дальнейшем Гугл планирует снижать рейтинги сайтов, которые публикуют фейковые новости.
1
Упоминание бренда без активной ссылки будет рассматриваться как один из сигналов для ранжирования. Технологии искусственного интеллекта играют все большую роль в ранжировании. Поэтому есть основания полагать, что «бессылочные» упоминания будут влиять на рейтинг сайта.
1
В будущем могут наказывать за навязчивую, прерывающую просмотр страниц рекламу. Гугл уже начал бороться с навязчивыми мобильными объявлениями. Может показаться, что это не коснулось крупных брендов. Возможно, прежде чем наказывать, Гугл будет оценивать количество доверия, которое бренд завоевал другими способами.

Факторы ранжирования Гугл и Яндекс

При условии соблюдения всех формальных требований поисковиков выиграть конкуренцию при прочих равных условиях может помочь анализ факторов ранжирования.

На поисковую выдачу как в Яндексе, так и в Гугле влияют сотни факторов. У поисковиков есть официальные руководства по оптимизации сайтов. Из них понятно, какие сайты нравятся Яндексу и Гуглу, что может повлиять на позицию в поиске, но четкого перечня факторов ранжирования не существует.
Информацию для размышления также могут дать исследования факторов ранжирования. Эти исследования на основе статистических и других методов делают предположения о влиянии коммерческих, текстовых, ссылочных, поведенческих, социальных и других факторов на позицию в поиске.

Например, в исследовании компании «Ашманов и партнеры» приведены топ-50 параметров, влияющих на поисковую выдачу для Яндекса в сравнении с Гугл. В исследовании основное внимание уделяется коммерческим факторам.
Корреляция факторов ранживарония в Google и Яндекс — попадание в ТОП-30, позиция, рост за год (из отчёта «Факторы ранжирования в 2017 году», согласно исследованию «Ашманов и партнёры»)
Есть зарубежные исследования о факторах ранжирования в Гугл. Например, согласно последнему исследованию SEMrush, таких факторов 17. В качестве основного фактора ранжирования SEMrush определил посещаемость сайта. За посещаемостью следуют поведенческие факторы: время на сайте, глубина просмотра и показатель отказов. Согласно исследованию, все это является критерием авторитетности сайта и влияет на его ранжирование.
В последнее время поведенческие факторы оказывают существенное влияние на ранжирование. Причем трафик сам по себе, клики по привлекательным заголовкам второстепенны. Гораздо важнее удержать внимание пользователя, сделать так, чтобы он провел на сайте как можно больше времени и вернулся на сайт еще раз.

Как обмануть поисковики (лучше не надо)

Несмотря на то, что поисковики воюют не на живот, а на смерть с «черными» приемами оптимизации, некоторые разработчики находят «дыры» в алгоритмах и пытаются обмануть поисковики. Это может дать кратковременный эффект, но потом сайт все равно опускается в поиске (это в лучшем случае), а в худшем — поисковики применяют более жесткие санкции.
Накрутка поведенческих факторов
Вот чем это обычно заканчивается, как в кейсе по накрутке поведенческих факторов
Но кое-что все-таки можно сделать. Например, «Ашманов и партнеры» предлагают поработать со ссылками и ключевыми словами в тексте:
Казалось бы, эпоха ссылочного ранжирования кончилась. Но нет — ссылки со словами запроса по-прежнему остаются среди самых сильных факторов ранжирования. При этом не обязательно гоняться за точным вхождением запроса в «анкор», важнее иметь больше ссылок с разрозненными словами запроса, а также их синонимами и «спектральными» словами. И даже если они ведут не на нужную страницу, а на другие страницы сайта, это тоже хорошо (хотя роль ссылок на страницу в Google в последнее время увеличилась).
Похоже, за точными вхождениями запроса в текст продвигаемой страницы можно не гнаться. С вхождениями запроса в произвольной форме всё не так однозначно, но их значимость тоже под вопросом. Это, пожалуй, хорошая новость — а плохая состоит в том, что, хотя слова запроса и могут быть рассыпаны по тексту, их должно быть очень много, иначе шансов попасть в топ практически нет.
Но делать это надо очень аккуратно. У Яндекса есть ограничения, которые могут наложить на сайт за махинации со ссылками и ключевыми словами. Яндекс понижает в результатах поиска сайты, которые размещают на других ресурсах ссылки, созданные исключительно для того, чтобы повлиять на ранжирование в поисковых системах. А за размещение текстов с неестественным, избыточным количеством ключевых слов страницу могут и из поиска исключить. Гугл также понижает рейтинг сайта или вообще перестает его показывать за манипулирование рейтингом в результатах поиска с помощью ссылок и ключевых слов.

Таким образом, есть тонкая грань между оптимизацией и тем, что алгоритмы поисковика могут принять за манипулирование аудиторией. Один из способов проверить, манипулирование ли это или нет — это спросить себя: «Помогает ли этот материал пользователям? Сделал бы я то же самое, если бы Гугла и Яндекса не было?»

Гайд: Базовые фишки для того, чтобы поднять блог в топ поисковой выдачи

На основе руководств, исследований и нашего опыта мы выработали определенный подход к оптимизации статей в блогах. Руководствуясь этим подходом, мы способствуем улучшению позиции сайтов в поисковиках.

В целом, развитие контентной составляющей сайта (публикация обзоров, статей, справочных материалов) полезно для поисковой оптимизации, согласно отчету компании «Ашманов и партнеры».
Единственное — Яндексу не нравятся новости на коммерческих сайтах, но это не повод их убирать, если с ранжированием в Яндексе всё хорошо

Если конкретно, то для оптимизации каждой статьи в блоге мы обычно делаем следующее:

1
Пишем для людей
Четко, грамотно и по делу. Стараемся дать развернутые ответы на вопросы пользователей по теме. Поисковики поумнели за последнее время и научились узнавать именно такие тексты.

Яндекс: «Думайте о пользователях, а не о поисковых системах. Стали бы вы создавать сайт, страницу или ее элемент, если бы не существовало поисковиков? Приходят ли пользователи на ваш сайт или интернет-магазин не только из поисковых систем?»

Гугл: «Оптимизируйте контент для пользователей, а не для поисковых систем. Разрабатывая сайт, думайте о пользователях, но не забывайте и о его доступности для поисковых систем.»
1
Учитываем поведенческие факторы
Пишем так, чтобы текст было интересно читать — это увеличит время пребывания на странице. Делаем грамотную перелинковку — это влияет на глубину просмотра. Пишем качественные лонгриды, чтобы увеличить процент прокрутки страницы. Все это позитивно влияет на ранжирование.
1
Вставляем кнопки для шеров в соцсетях
У пользователя должна быть возможность поделиться не только всем сайтом, но и конкретной страницей, в нашем случае — статьей в блоге. Поисковики оценивают, насколько сайт и бизнес, стоящий за ним, популярны в соцсетях.
Шеринг статей
1
Задаем title и description
В тайтл можно включить ключевые запросы или синонимы. Важны также спектральные слова (слова, уточняющие намерения пользователя или локализацию: «недорого», «в Москве» и т. п.). В дексрипшн включаем дополнения к запросу.
1
Задаем правильный URL
Он должен быть «говорящим», то есть отражать содержание статьи. Так мы помогаем пользователям и поисковикам предположить, о чем говорится на странице сайта.
Теги в Тильде
Теги и URL в Тильде: Заголовок соответствует Title, Описание — Description. /simple/nativ-adversing — URL
1
Задаем тег alt для изображений
Поисковые системы воспринимают альтернативный текст как ключевые слова и учитывают их при индексации. Текст должен отражать содержание картинки.
Alt для изображений в Тильде
Alt для изображений в Тильде
1
Иногда вставляем в статьи видео
Поисковикам нравится видеоконтент.
Видео в статье про шрифты
Видео в нашей статье про шрифты
В нашем гайде по подготовке сайта на Тильде к публикации
мы рассказываем, что нужно сделать по сайту в целом, в том числе в части оптимизации для поисковиков

Выводы

Чтобы поднять сайт в поисковой выдаче с помощь блога, нужно делать следующее:
1
Прочитать руководства от Яндекс и Гугл, посмотреть исследования факторов ранжирования для ориентира;
2
Писать интересные, качественные и полезные тексты для людей;
3
Не забывать о title, description, URL, alt теге и видеоконтенте;
4
Создавать хороший контент, чтобы тематические ресурсы сами начали на вас ссылаться;
5
Не пичкать тексты ключевыми словами, а сосредоточиться на поведенческих и социальных факторах ранжирования.
Подписывайтесь на нас!
Наши статьи и письма редки, полезны и прекрасны. По email или в телеграм
Оставляя свои контактные данные в этой форме, вы даете свое согласие на обработку персональных данных
Made on
Tilda