SEO-продвижение в 2010 и 2021 году: что изменилось за это время
За последние 10 лет в мире поменялось многое, в том числе и поисковое продвижение. На смену простым действиям по оптимизации пришла кропотливая интеллектуальная работа. "SEO с человеческим лицом" заменило бессмысленные и беспощадные приемы "черного" SEO.
Специалисты Kokoc Group Павел Талакин и Лилия Голикова пройдутся по ключевым составляющим оптимизации и расскажут, как с ними работали раньше, как они развивались и как обстоит дело сейчас.
Как это было раньше
В 2010 году продвижение сайтов было простым и быстрым делом. Добавил побольше ключевиков (желательно в точной форме) в тексты страниц, вписал их в title, description, keywords, H1, H2, купил побольше ссылок (ну или прогнал по каталогам) – и все. Через несколько недель можно видеть результат.
С точки зрения владельца сайта и специалиста по SEO это было отличное время. С точки зрения простого пользователя, пришедшего в поисковик, чтобы найти нужную информацию – ужасное:
- В результатах выдачи была масса бесполезных для пользователя, "мусорных" сайтов, созданных только для показа рекламы или продажи ссылок.
- Многие владельцы сайтов не уделяли внимание качеству текстов. Зачем, ведь для хорошего ранжирования достаточно добавить ключевые слова? Часто текст с ключевиками размещался внизу страницы или вообще скрывался, чтобы его видел только поисковой робот.
- На многих сайтах "хромали" юзабилити и дизайн в целом – ведь это не было фактором ранжирования. Ими занимались в основном коммерческие сайты, и только в той мере, в которой это напрямую влияло на конверсию.
- Процветали приемы "черного" SEO: ключевые слова, написанные белым шрифтом на белом фоне, дорвеи, автоматически перенаправляющие пользователя на другой ресурс и т. п.
Такая ситуация сложилась потому, что до 2010 года алгоритмы поиска только развивались. Хотя все поисковики декларировали заботу о пользователе и стремление выдавать в SERP качественные результаты, факторы ранжирования тогда были довольно примитивными. Этим активно пользовались оптимизаторы: появилось множество способов обмануть поисковые системы и продвинуть сайт на первые позиции с помощью различных приемов.
С 2010 года началась другая эра – борьбы поисковиков с некачественной выдачей и нечестными методами продвижения.
Ссылки
2010 год. Начало второго десятилетия 21 века было временем расцвета ссылочных бирж. В 2010 и несколько лет спустя ссылки играли огромную роль в продвижении как под Яндекс, так и под Google. Молодому сайту достаточно было купить определенное количество ссылок, чтобы уже через некоторое время оказаться в топе поисковика. Качество донора ссылок не играло большой роли.
Распространенным способом продвижения был "прогон по каталогам" – добавление ссылки на продвигаемый сайт в различного рода каталоги, для пользователя большей частью бесполезные.
Популярны были сетки саттелитов и дорвеев – сайтов, созданных только для того, чтобы передавать ссылочный вес на продвигаемый ресурс и автоматически перенаправлять на него трафик. Сайты-саттелиты/дорвеи чаще всего были низкого качества, с автоматически генерируемым нечитабельным контентом.
В 2012 году Google запускает один из самых значимых своих алгоритмов – Penguin. Фильтр определяет спамные ссылочные методы оптимизации и пессимизирует в выдаче сайты, которые их используют. После введения алгоритма больше всего пострадали сайты:
- с обратными ссылками с некачественных площадок (в том числе сеток саттелитов и дорвеев);
- с большой долей ссылок с прямыми анкорами;
- с однообразным ссылочными профилем (ссылки с одинаковых типов доноров).
На данный момент алгоритм определяет множество спамных приемов, в том числе переадресацию на другой ресурс, сгенерированный контент, скрытый текст и ссылки, показ разного контента пользователю и поисковику и т. д.
В 2015 году Яндекс вводит похожий алгоритм – "Минусинск", который выявляет покупные ссылки. Те сайты, на которых доля покупных ссылок значительно превышает долю естественных, – понижаются в выдаче.
Также в Яндексе еще с 2009 года работает фильтр АГС, который очищает выдачу от дорвеев и других некачественных сайтов. Собственно, в народе аббревиатура АГС так и расшифровывается – "антиговносайт".
Что сейчас?
Влияние ссылок на продвижение полностью не исчезло. Пока это представляется невозможным, ведь обратные ссылки – индикатор популярности и авторитетности ресурса. Однако требования к качеству ссылочной массы ужесточились:
- сайт-донор ссылки должен быть трастовым, качественным;
- играет роль тематика, контекст, в котором размещается ссылка – приветствуются идентичные или родственные тематике акцептора сайты и страницы;
- большое количество анкорных ссылок будут восприняты поисковиками как спам;
- ссылка должна выглядеть как можно более естественной, размещенной человеком, а не площадкой;
- ссылочный профиль должен быть разнообразным: нужны линки не только из статей, но и с форумов, из соцсетей. Также следует позаботиться о том, чтобы ссылки шли с большого количества разных доноров, а не с одного.
Ссылочные биржи по-прежнему существуют, но серьезно пересмотрели стандарты работы. Лидеры рынка предлагают автоматическую проверку качества доноров, ссылки из соцсетей и крауд-ссылки, безанкорные ссылки и т. п.
Сетки саттелитов еще используются, но уже в другом виде. Сейчас их называют сетками PBN, и организовывать продвижение с помощью PBN гораздо сложнее, чем в 2010 году. Каждый из таких сайтов должен быть качественным в глазах поисковика – с уникальным и полезным контентом, а также хорошими поведенческими факторами. Все это – затраты времени и денег.
Оптимизация контента
В 2010 году для быстрого вывода сайта в топ поисковой выдачи стандартным было использование на страницах большого количества ключевых слов – то, что сейчас называют переспамом. На многих сайтах тексты представляли собой ключевики, разбавленные "водой". В лучшем случае ключевых слов просто было много – любому пользователю была видна неестественность такого текста.
Именно тогда появилось понятие "SEO-текст" – созданный только для того, чтобы "понравиться" поисковой системе, неинтересный и неполезный для пользователя, часто нечитабельный.
Из-за слабого развития алгоритмов поисковиков оптимизаторы старались разместить ключевые слова в точной форме – так повышались шансы, что сайт будет ранжироваться по нужному вам запросу. В интернете появились сотни тысяч текстов, в которых были вписаны ключи вида "пластиковые окна москва купить цена", что также не прибавляло им читабельности.
В 2011 году Google начинает жесткую борьбу с таким контентом с помощью фильтра Google Panda. Алгоритм выявляет ресурсы с некачественным контентом и понижает их в выдаче. К такому контенту фильтр относит: дублированные и переспамленные ключевыми словами тексты, тексты без структурирования и форматирования ("портянки"), страницы, которые не интересны пользователю ("Панда" анализирует поведенческие факторы).
В 2013 поисковые технологии Google дополняются "Колибри" – алгоритмом, который умеет понимать запрос пользователя, изложенный в свободной разговорной форме, и точно так же понимать нормальный, естественный текст на странице. Алгоритм учитывает контекст запроса и контекст ключевых слов на странице. Отпадает необходимость использовать для продвижения массу точных запросов, предпочтение отдается сайтам с естественными текстами, LSI контентом.
В 2015 году серия алгоритмов на основе Колибри была дополнена технологией Rankbrain. Это искусственный интеллект, который умеет определять релевантные страницы не по наличию на них таких же слов, как в запросе, а по смыслу (интенту) запроса. Он может понимать, что вы ищете, даже если вы не знаете, как это называется, или не можете точно сформулировать запрос.
Яндекс начинает борьбу с контентным спамом еще в 2010 году:
- стартует алгоритм "Переспам", направленный на пессимизацию сайтов с текстами-портянками (без форматирования и абзацев и с большим количеством ключевых слов);
- в 2011-2012 запускается "Переоптимизация". Алгоритм определяет и уводит под фильтр SEO-тексты – с избыточным вхождением ключевиков, акцентом на них (выделение "жирным"), переспамом в заголовках H1, H2;
- в 2017 году выходит "Баден-Баден". Пессимизируются страницы с неестественным количеством ключевых слов, некачественным "водным" текстом.
Что сейчас?
Ключевые слова все еще имеют значение. Но с учетом развития алгоритмов поисковых систем они уже не главный и единственный инструмент оптимизации текста. На первый план выходит качество:
- естественность как количества вхождений ключевых слов в текст, так и их словоформ. Нужно учитывать и то, что все больше запросов формулируются голосом (голосовой поиск), а значит – их формулировки все больше будут приближены к обычной человеческой речи;
- полезность текста для пользователя – оценивается по поведенческим сигналам (глубина просмотра, время на странице) и социальным (расшаривания страницы в социальных сетях);
- соответствие текста запросу и как можно более полный ответ на вопрос пользователя;
- удобное для восприятия оформление текста: списки, таблицы, абзацы, подзаголовки и т. д.
Поменялись и методы оптимизации – для страниц пишутся читабельные, полезные и уникальные тексты, для блогов – развернутые, длинные статьи. Используется LSI-копирайтинг.
Появилось множество сервисов оценки текста, которые проверяют его уникальность (в том числе определяется примитивный рерайт), переспам ключевыми словами, качество и читабельность (Главред, Тургенев и т. п.).
E-A-T
Принцип E-A-T расшифровывается как "Экспертность. Авторитетность. Достоверность." и применяется Google к текстам, в которых речь идет о здоровье и финансах. Нетрудно догадаться, что в 2010 году и долгое время после качество текстов было таким, что ни о каком E-A-T речь не шла. Этот алгоритм был впервые запущен в 2018 году и получил название "Медицинское обновление", так как затронул в первую очередь медицинские сайты.
В 2020 принцип E-A-T работает в полной мере и по прогнозам его влияние будет только усиливаться. При оптимизации сайтов в тематиках медицины, здоровья, кредитования, страхования и тому подобных необходимо, чтобы:
- контент был подготовлен экспертом в данной тематике (данные автора-эксперта нужно указать);
- автор контента имел определенный авторитет в сети;
- в материале были достоверные факты и ссылки на исследования или публикации других экспертов.
В Яндексе запуск подобного алгоритма только ожидается. Возможно, это произойдет в 2021 году.
Метатеги
Работа с основными для продвижения метатегами (Title, Description, H1) за период с 2010 изменилась не так сильно. Из отличий можно назвать:
- нивелирование роли тега keywords. Когда-то, на заре становления поисковых систем, этот тег имел решающее значение для того, чтобы вы вообще попали в результаты поиска. Но с развитием алгоритмов необходимость в нем отпала. Если в 2010 году его заполнение ключевыми словами считалось обязательным для SEO, то сейчас эту методику используют только наиболее консервативные оптимизаторы;
- смещение акцента при прописывании Title и Description. В 2010 году главным было наполнить их ключевыми словами, побольше и в точной форме. В 2020 году основное внимание уделяют кликабельности заголовков в поисковой выдаче. Ключевые слова тоже используются, но в более естественном, читабельном виде.
Mobile First Index
В 2010 году процент переходов на сайты с мобильных устройств составлял всего около 3%, и речи об адаптивности сайтов под мобильные, конечно же, не было. К 2016 году, когда Google ввел принцип Mobile First, этот показатель превысил 43%, а в 2020 году на сайты с мобильных заходят уже до 80% пользователей.
До введения мобильного индекса сайт ранжировался и на десктопах, и на мобильных одинаково – на основании своей десктопной версии. После введения Mobile First ранжирование и там, и там будет рассчитываться исходя из мобильной версии. И если сайт на мобильных медленно грузится, неудобен для использования, работает с ошибками и т. д. – велик риск потерять позиции в выдаче.
С 2016 года Google стал применять Mobile First Index точечно, по отношению к сайтам, на которых объем мобильного трафика превышал десктопный ("письма счастья").
В 2020 году планировалось введение мобильного индекса для всех сайтов, но эти планы были сдвинуты из-за Covid. Сейчас запуск запланирован на 2021 год.
В любом случае работы по созданию или корректировке мобильной версии сайта / адаптивного дизайна уже несколько лет обязательно включаются в продвижение, а SEO-аудиты предусматривают проверку работы вашего сайта на мобильном.
Скорость загрузки
Этот фактор ранжирования приобрел весомое значение сравнительно недавно, примерно в 2016 году. Его появление, в том числе, связано с ростом мобильного трафика – ведь многие сайты, шустро загружающиеся на десктопе (на стандартных 100 Мбит локального интернета), очень плохо вели себя на 2G/3G.
К 2020 году его влияние не уменьшилось, а лишь усилилось. Поисковики смотрят с точки зрения пользователя – мало кто посчитает сайт, который долго грузится, удобным. И Google, и Яндекс предлагают свои инструменты проверки скорости загрузки для веб-мастеров и рекомендации по результатам проверки, а также создание специальных быстрых страниц (AMP и Турбо).
В 2021 году скорость загрузки войдет в новый показатель качества сайта от Google – Page Experience.
На текущий момент все SEO-агентства обязательно включают улучшение скорости загрузки страниц в перечень работ по продвижению сайта.
Локальное SEO
Этот вид продвижения появился еще в 2009, но расширился и набрал обороты сравнительно недавно. Опять же – благодаря повышению доли использования мобильных устройств с GPS для поиска.
В 2010 и позже о локальном SEO можно было говорить, в основном, как о продвижении под регионы: соответствующие ключевые слова, гео-метатеги, телефон с кодом региона на сайте и тому подобное.
Примерно с 2018 (в СНГ) локальное SEO расширяет перечень используемых методик. Теперь это и продвижение на онлайн-картах, в сервисах отзывов, агрегаторах.
В 2020 году и далее значимость локального продвижения будет только расти, подстраиваясь под потребности пользователей. Многие ищут услуги и товары рядом с собой со смартфонов. Устройство определяет гео-положение пользователя, и результаты поиска подбираются, исходя из него – в первую очередь показываются те, что расположены рядом. При этом многие ведут поиск не только в поисковике, но и непосредственно на картах: в мобильном приложении Яндекс или Google карт.
Особенное значение этот вид SEO приобрел для локального бизнеса – кафе, салонов красоты, медицинских клиник и т. п. Разработаны отдельные комплексы методов локального продвижения, и они продолжают развиваться. Огромное значение стало уделяться работе с отзывами – ведь часто именно на их основании потребитель принимает решение.
Дизайн и юзабилити
В 2010 году SEO и юзабилити существовали отдельно друг от друга, никак не соприкасаясь. Даже когда в 2012-2013 годах активно заговорили о влиянии поведенческих факторов на позиции сайта, что сделало сообщество оптимизаторов? Правильно, принялось их искусственно накручивать с помощью различных сервисов. И только после санкций Яндекса за накрутку в 2014-2015 годы SEO развернулось в сторону изучения и улучшения юзабилити. Ведь именно простота, удобство и интуитивность дизайна сайта прежде всего влияют на поведение пользователей и формируют соответствующие сигналы для поисковой системы.
К 2020 году Яндекс и Google научились оценивать юзабилити сайтов не только на основании поведенческих факторов, но и самостоятельно. Поисковики умеют анализировать размер и расположение элементов на сайте, удобство навигации и многое другое, даже уникальность и современность дизайна.
Анализ юзабилити тесно связан с проверкой удобства сайта на мобильных, оценкой скорости загрузки страниц – по сути это части единого целого. Частичная связь прослеживается и с коммерческими факторами ранжирования (о них ниже).
Сейчас, если вы обратитесь в хорошее SEO-агентство, в продвижение обязательно будут входить анализ и улучшение дизайна и юзабилити, поведенческих факторов. А при необходимости специалисты даже выполнят работы по редизайну сайта.
Коммерческие факторы ранжирования
В период между 2010 и 2020 появилась еще одна ветвь факторов ранжирования – коммерческие. Яндекс явно упомянул об их влиянии еще в 2011 году. В случае с Google ситуация менее определенная, но влияние этих факторов на позиции сайтов однозначно есть.
Во многом появление этих факторов было обусловлено увеличением количества коммерческих сайтов в выдаче. Поисковикам была необходима система, по которой они могли бы отсеивать мошеннические и некачественные сайты, выдавая пользователям только наиболее достойные.
Коммерческие факторы определяют, насколько можно доверять вашему сайту и компании – ведь пользователь будет заказывать у вас товар / услуги и рискует своими финансами. Кроме того, они определяют, насколько качественно вы предоставляете услуги и достойны ли показываться по коммерческим запросам (с вхождениями "цена", "купить", "заказать" и подобными) в поисковой выдаче.
Конечно же, списка коммерческих факторов ни один из поисковиков не публиковал, но исходя из исследований и наблюдений SEO-сообщества их насчитывается несколько десятков.
На данный момент прокачка коммерческих факторов – маст хэв для продвижения интернет-магазинов, сайтов услуг и других коммерческих ресурсов. Часть факторов используется в продвижении и некоммерческих сайтов.
Выводы
Об изменениях можно было бы говорить еще много – о том, как канули в лету ТИЦ и PR, или как пророчили смерть SEO после введения персонализированной выдачи, или как агрегаторы потеснили с первых мест SERP простые смертные интернет-магазины и т. д. Но остановимся на уже перечисленных изменениях – они наиболее значимы.
Основное принципиальное отличие продвижения-2010 и SEO-2020 – это ориентация на пользователя. Период, когда качество и позиции сайта рассчитывались только математическими алгоритмами, сменился периодом, когда поисковики стали смотреть на сайты с точки зрения человека. На несколько порядков выросли и продолжают развиваться дальше технологии искусственного интеллекта и аналитика поведения пользователей. Теперь, чтобы попасть на первые позиции, нужно стремиться понравиться пользователю, а не поисковой системе.