подписка
Подписаться
22/06/2021

 

В 2021 году встречаются владельцы сайтов, которые продолжают использовать способы поисковой оптимизации, которые уже давно не работают и даже могут принести вред ресурсу. 

Специалисты Kokoc Group Павел Талакин и Лилия Голикова  – о самых распространенных "устаревших" методах SEO, а также о том, что можно и нужно делать вместо них.

 

Покупка большого количества ссылок

Когда-то, в золотые времена, которые с ностальгией вспоминают владельцы сайтов и сеошники, попасть в топ поисковых систем было легко. Достаточно было проставить как можно больше ссылок на продвигаемые страницы. Не имело особого значения, с каких ресурсов вели линки, соответствовали они тематике вашего сайта или нет, были качественными или мусорными. Главное – их количество. За сравнительно небольшие деньги можно было купить или арендовать целую пачку беклинков.

Сейчас ссылки по-прежнему имеют значение, но не их количество, а качество. Сайт с тысячей ссылок, ведущих с мертвых или некачественных ресурсов, проиграет в позициях сайту с сотней хороших обратных линков. Более того, некачественные ссылки могут увести вас под фильтр Яндекса или Google. Их алгоритмы умеют определять покупные, неестественные ссылки, а также анализировать качество сайтов-доноров.

depositphotos_29933851-stock-photo-the-word-links

Поэтому сейчас работа оптимизатора заключается не в том, чтобы купить много ссылок и постоянно следить, чтобы их было больше, чем у конкурентов, а в формировании естественного ссылочного профиля.

Прогоны по каталогам

Еще один старый способ получения ссылочной массы – автоматическая регистрация во всевозможных каталогах – тематических и не очень. Хотя сейчас все еще встречаются объявления о таких услугах, мы не рекомендуем их использовать. Вспомните, когда вы сами в последний раз обращались к какому-то интернет-каталогу? Вот и никто не обращается, посещаемости у таких ресурсов практически нет.

После прогона вы:

  • получите неработающие ссылки (по ним не будут переходить люди) – для поисковика они не будут иметь значения;
  • можете попасть под бан Яндекса, так как он негативно относится к таким источникам ссылок.

Вместо этого используйте ссылки из социальных сетей, с живых форумов (крауд-маркетинг) – такая ссылочная масса будет гораздо полезнее для продвижения.

Спамные ссылки в комментариях

Сразу отметим, что нужно отличать крауд-маркетинг, когда ссылки размещаются вручную на посещаемых ресурсах, от обычного спама. В последнем случае комментарий со ссылкой создается с помощью софта, который автоматически добавляет одинаковые комментарии на десятках тысячах ресурсов. Такие беклинки бесполезны, потому что:

  • на работающих ресурсах их "вычистят" модераторы;
  • даже если модерация их пропустит или не заметит, пользователи негативно относятся к спаму. Вряд ли вы получите переходы по такой ссылке;
  • на мертвых сайтах и форумах они не будут работать и подобно каталогам могут негативно повлиять на позиции вашего сайта.

s-l1600

Перебор с анкорами в перелинковке

Раньше одним из методов оптимизации была массовая внутренняя перелинковка с анкорами. Например, в статьях старались поставить как можно больше ссылок на другие страницы сайта, привязав их к определенным ключевым словам. Так как анкор был важен для продвижения, копирайтерам приходилось вписывать в тексты не всегда подходящие по тематике, нечитабельные слова и фразы.

В 2021 году такие неестественные анкоры не только не работают, но и могут навлечь понижение позиций за переспам текста.

Разумеется, если вы ставите полезные пользователю ссылки с уместным текстом анкора, это не повредит, а напротив, будет положительно влиять на продвижение. Увеличатся время, проведенное пользователем на сайте, количество просмотренных страниц и взаимодействие с сайтом, а также шансы, что человек сделает заказ.

Выделение ключевых слов жирным

Метод, использование которого еще можно встретить на очень старых сайтах – выделение всех продвигаемых ключевых слов страницы тегами <b> или <strong> (когда-то даже были дискуссии, какой тег лучше влияет на продвижение). Считалось, что таким ключевым словам Google и Яндекс уделяли больше внимания.

Сейчас этот метод уже не работает (по мнению многих, он не особо работал и тогда). Конечно, вы можете выделить ключевое слово или часть текста с ним жирным тегом, если это уместно и нужно для смыслового акцента, но вряд ли это повлияет на ваши позиции.

А вот если выделить жирным все ключевые слова в тексте, это может быть воспринято поисковиком как переоптимизация. Бан за это маловероятен, разве что у вас используются и другие черные/серые методы продвижения – но все же лишние "штрафы" от поисковика вам вряд ли нужны.

Много ключевых слов в тайтле

Метатеги, в том числе title, важны для продвижения, поэтому оптимизаторы всегда старались "впихнуть" в них больше ключевых слов, под которые продвигалась страница. Часто тайтл из-за этого превращался в совершенно нечитабельную конструкцию: перечень ключевиков, еще и в точной форме, слегка "склеенных" неким подобием смысла.

Однако в 2021 году нет необходимости "подсказывать" поисковым системам, о чем ваша страница, таким методом. Они прекрасно могут определять тематику и релевантность запросам по всему содержанию страницы и по нормальному тайтлу, написанному для людей.

1 (4)

Сейчас для продвижения более значима другая оценка title – его кликабельность в поисковой выдаче. Необходимо формировать заголовок страницы так, чтобы пользователь, увидев его среди других на странице выдачи, заинтересовался и кликнул по нему. Распространенный и работающий метод – составлять title и description как рекламное объявление Google Ads или Яндекс.Директ: указывать не только ключевые слова, но и выгоды, удобства для покупателя.

Если пользователей будет привлекать тайтл-страницы, они будут по нему кликать и переходить на сайт, это будет учтено поисковыми системами как положительный фактор ранжирования. Кроме того, это будет работать на увеличение поискового трафика, конверсий и вашей прибыли: ведь чтобы пользователь что-то у вас купил, нужно чтобы он зашел на сайт.

Как можно больше ключевых слов в тексте

Те, кто давно работает с SEO, прекрасно помнят этот метод оптимизации, который был одним из основных. Текст на странице насыщался ключевиками по максимуму. На задний план отодвигалась естественность и читабельность текста, важно было "скормить" поисковому краулеру как можно больше продвигаемых ключевых слов. Объяснялось это несовершенством поисковых алгоритмов. Они рассчитывали релевантность страницы запросу довольно примитивно, в том числе по количеству ключевых слов на ней.

Потом алгоритмы усовершенствовались, поисковики внедрили технологии искусственного интеллекта. Сейчас Google и Яндекс отлично понимают запросы пользователей в любой форме и умеют сопоставлять с ними содержание сайта даже по синонимам и общей тематике. За переоптимизированные тексты поисковики стали накладывать фильтры на сайт, понижая позиции или вообще убирая из выдачи. Об этих санкциях сейчас знают практически все, и вряд ли кто-то станет сознательно оптимизировать тексты таким образом.

Однако из-за настороженного отношения поисковиков к плотности ключевых слов на странице необходимо контролировать этот показатель, чтобы случайно не попасть под фильтр. Ведь кто-то может написать текст, перенасыщенный ключевыми словами, и без намерения его оптимизировать. Для проверки можно использовать text.ru, advego.com и другие ресурсы, которые покажут % ключевых слов в тексте.

Отдельные страницы под похожие запросы

Возьмем такой список ключей:

  • купить желтую уточку для ванны;
  • куплю уточку для ванны желтого цвета;
  • магазин желтых уточек для ванны.

Они отличаются, но интент (смысл запроса) у них один и тот же – пользователь хочет купить желтую уточку для ванны.

Раньше под каждый такой запрос создавалась отдельная страница, и ее продвижение прорабатывалось отдельно. Метод довольно неплохо работал, но после усовершенствования алгоритмов Google и Яндекс в нем отпала необходимость. Поисковики научились определять похожие по смыслу слова и понимать, что хочет пользователь.

Теперь можно не тратить усилия на продвижение нескольких страниц, а сосредоточиться на одной, оптимизировав ее сразу под все похожие ключи. Для этого после сбора семантического ядра проводится кластеризация – объединение одинаковых по интенту ключевых слов в кластеры, которые будут продвигаться на одной странице.

Тексты большого объема

Когда-то считалось, что чем больше текста на странице, тем лучше для ранжирования. Отчасти это было связано с необходимостью вписать на страницу побольше ключевых слов. Создавались портянки-описания даже там, где просто не о чем было писать по существу – к гвоздям, шурупам и другим подобным товарам.

Сейчас это совсем не обязательно. Мы не говорим, что длинные тексты вредны – будет только плюсом, если вы добавите на страницу больше полезной для пользователя информации. Но объем только ради объема точно не нужен.

books

Проанализировав конкурентов в топе Яндекса или Google, вы можете увидеть, что у них на странице большие тексты; в этом случае, да, скорее всего вам также понадобится написать не меньше. Но если у конкурентов на страницах товара описание на 500 знаков, и эти страницы в топе, значит, объем текста для продвижения здесь не имеет особого значения, и вы можете сконцентрироваться на более важных вещах.

Аффилиаты и сателлиты

Еще два метода черного/серого SEO, которые нанесут сайту вред.

Аффилиаты – сайты-дубли основного сайта, принадлежащие одной организации, которые создавались ради того, чтобы занять больше мест в поисковой выдаче и вытеснить из нее конкурентов. Делали сайт-дубликат довольно простым путем: основной сайт копировали на другой домен, немного изменяли дизайн, размещали другие телефоны, другое название компании. Сайт оптимизировали и выводили в топ. В итоге получалось, что первая и вторая позиции поисковой выдачи были заняты разными ресурсами, но оба принадлежали одной компании.

Сателлиты – сайты для ссылок на основной сайт, т. е. для наращивания ссылочной массы. Также создавались примитивно, конвейерным методом. На сателлитах был простенький дизайн, копипастные тексты (или нечитабельные, заказанные по 10 рублей за штуку на биржах). Они не были предназначены для людей или продвижения, их единственной задачей были ссылки на основной сайт.

Сейчас оба эти метода не работают вообще или могут привести к проблемам в ранжировании.

Аффилиаты легко определяются поисковой системой по:

  • общему владельцу домена;
  • общему адресу офиса;
  • одному и тому же хостингу;
  • общей тематике;
  • одинаковой CMS, шаблонам страниц и другим признакам.

Если два ваших ресурса будут определены как аффилиаты, Google (или Яндекс) оставит в выдаче только один из них. И хорошо, если это будет основной сайт, а не дубликат.

Использование сателлитов для ссылок перестало работать потому, что для поисковика стало иметь значение качество сайта-донора. Ссылки с созданных массово на коленке ресурсов не только не улучшат ваши позиции, а наоборот, могут их ухудшить.

Накрутка поведенческих факторов

О значении поведенческих факторов поисковые системы объявили всего лишь несколько лет назад, и практически сразу появились специалисты и целые компании, предлагающие их накрутку. За определенную сумму боты (или живые люди) будут вбивать в Яндекс (или Google) нужные запросы, переходить на ваш сайт из результатов поисковой выдачи, переходить по страницам сайта, кликать на кнопки, даже положат товары в корзину – в общем, будут имитировать действия реального заинтересованного пользователя.

В Google проблема подобной накрутки пока не стоит так остро, а вот Яндекс ведет борьбу с этим явлением уже несколько лет. С переменным успехом, конечно, победа оказывается то на стороне студий-"накрутчиков", то на стороне Яндекса. Прошло уже две волны показательных банов сайтов и контор, искусственно завышающих поведенческие сигналы, однако проблема еще не решена окончательно.

Учтите, что:

  • за накрутку поведенческих можно попасть в бан Яндекса минимум на 8 месяцев.
  • Яндекс обладает развитой технологической базой, мощными человеческими и машинными ресурсами, поэтому скорее всего рано или поздно найдет способы определения накруток, и тогда ваш сайт может попасть под штрафы;
  • накрутки искажают реальную статистику вашего сайта. Вы не сможете точно определить, по каким запросам переходили, какие действия совершали боты, а какая часть статистики приходится на реальных пользователей, а значит, не сможете принимать верные решения по оптимизации.

Поэтому мы рекомендуем сосредоточить свои усилия на улучшении поведенческих факторов естественными способами:

  • улучшая юзабилити;
  • прописывая привлекательные метатеги на страницах;
  • добавляя полезный контент (фото, видео, таблицы, инфографику, различный интерактив);
  • грамотно проставляя ссылки на другие страницы – так, чтобы пользователь заинтересовался и перешел читать еще одну статью, и еще, и еще.

Самое главное

Что объединяет все перечисленные выше устаревшие методы? Правильно, стремление вывести сайт в топ поисковой системы каким-нибудь хитрым методом, при этом полностью исключая из SEO-стратегии самый важный фактор – пользователя. Для которого, собственно, сайты и должны быть предназначены.

Алгоритмы Яндекса и Google нацелены на то, чтобы высоко ранжировать ресурсы, которые нравятся людям. Все технологии машинного обучения и ИИ работают, чтобы научиться как можно точнее понимать желания пользователя и его оценку сайтов.

Поэтому приоритеты в SEO-стратегии желательно сместить именно в эту сторону: делать сайт удобным, привлекательным и полезным именно с точки зрения пользователя.

Прокомментировать
Читайте также
22/06/2021
Что происходит с аудиторией "Яндекса"?
Посещаемость многих сервисов "Яндекса" сократилась в мае как год к году, так и по отношению к январю. Что по этому поводу говорят представители поисковика и другие участники рынка... Подробнее
Николай Полушкин
эксперт, DIUS
11/02/2021
Влияет ли CMS на SEO-продвижение. Или это только миф
Что лучше для SEO-продвижения - платный или бесплатный движок. И влияет ли на продвижение конкретная CMS. Давайте разбираться... Подробнее
17/08/2017
В "Директе" можно делать более длинные заголовки
"Яндекс" дал рекламодателям возможность использовать в объявлениях два заголовка. Их длина: до 35 и до 30 символов... Подробнее
15/07/2013
Что влияет на позиции сайта в Google?
Исследование MozCon: главные факторы ранжирования - авторитетность ссылок, ключевые слова и скорость загрузки... Подробнее
15/10/2010
Bing оценит релевантность по "Лайкам"
Сайты, которые активно продвигаются в Facebook, смогут привлечь больше трафика по некоторым категориям поисковых запросов системы Bing.com: поисковик компании Microsoft умеет показывать предпочтения друзей конкретного пользователя Facebook... Подробнее