Форум
Читайте нас также:

об электронной торговле - для интернет-магазинов и ритейла. портал и сообщество

Форум
Что и как закрывать от индексации на сайте интернет-магазина?
АВТОРЫ:

Что и как закрывать от индексации на сайте интернет-магазина?

АВТОРЫ: материал подготовлен Labrika.ru

Как страницы сайта появляются в поисковой выдаче, всем понятно. Поисковый робот гуляет по страницам и добавляет их в индекс. Чем больше страниц в индексе, тем лучше. Но на сайте интернет-магазина есть много страниц и даже разделов, которые не должны проходить в индексацию – иначе это приведет к пессимизации вашего интернет-магазина в выдаче.

В этой статье Labrika.ru напоминает, что нужно закрыть от индексации на сайте интернет-магазина, зачем и как это сделать.

ЧТО скрывать?

На сайте интернет-магазина обычно закрывают административные данные, страницы с личными данными пользователей, дублирующийся контент, облако тегов, страницы оформления заказа, корзину, RSS, результаты поиска и т.д.

ЗАЧЕМ скрывать эти страницы?

Административные данные – это страница входа в административную панель. Она подразумевает только служебное использование,  поисковой системе эти данные не важны.

Личные данные пользователей. Логично, что доверяя вам свои персональные данные, пользователь не хочет их распространения и появления в выдаче. Особенно если это не просто имя и фамилия, а например, номер кредитной карты.

Дублирующийся контент.  Это настоящий бич интернет-магазинов. Даже частичное дублирование может сильно пессимизировать  ваш сайт в выдаче. В интернет-магазинах эта проблема стоит особенно остро.

Вот самые распространенные виды дублирующегося контента в ИМ:

страницы сортировки и выдачи по поиску. У вас неизбежно есть на сайте поиск, фильтры товаров по цене, компании -производителю, и т.д.  И каждая страница с выдачей по поиску или сортировкой по фильтру является дублем. Как правило, такие страницы полностью дублируют заголовок страницы и контент, изменяется только адрес страницы (URL). Поэтому их надо закрывать от индексации.

– дубли страниц с session ID. Часто интернет-магазины отслеживают посетителей, присваивая  каждому из них session ID  – уникальные параметры URL-адреса. В итоге, когда пользователь дает кому-то ссылку на страницы сайта с session ID  в URL-адресах, эти дубли страниц попадают в индекс поисковых систем. Вот как это выглядит:

www.magazin.ru

www.magazin.ru/?session=57830573

Из-за session ID попасть в индекс могут сотни дублирующихся страниц . Лучший способ избежать этого — использовать для идентификации клиентов cookie, а не session ID в адресах страниц. Также рекомендуется прописать тег canonical для каждой страницы.

Безопасные страницы на https. У интернет-магазина очень часто, к примеру, корзина работает на безопасном протоколе https. Если при этом в навигационном меню ссылки сделаны не абсолютные (с указанием полного адреса: http://magazin.ru/categorya/towar), а относительные (без указания полного адреса, /categorya/towar), тогда из корзины навигационные ссылки будут вести не на обычные, а на безопасные версии страниц, т. е. на https://magazin.ru/categorya/towar. В итоге поисковый робот перейдет по ним и проиндексирует дубли страниц.

В идеале, эту проблему надо решать заранее, еще только проектируя архитектуру сайта. Но если такой возможности нет, и "что имеем, то имеем", то надо прописать 301 редирект с безопасных страниц на обычные.

Облако тегов. Очень удобная система поиска для пользователей. Но от поисковой системы такие вещи лучше скрывать. Причина та же – неуникальность контента (дубли).

Страницы оформления заказа и корзина. Эти страницы полезны только для пользователей. Поисковым системам незачем обращать на них внимание. Никакой полезной и важной информации данные страницы не содержат.

RSS. Полезная вещь для сайта, но для поискового робота это еще один дубликат. Поэтому лучше закрыть от индексации, по крайней мере, Яндексом.

КАК скрыть данные от индексации?

Самый простой способ –  использование файла robots.txt.  Файл Robots.txt – располагается в корневой папке сайта (например, site.ru/robots.txt).

 В нем есть множество директив, но касательно индексации можно выделить две: Disallow (запрещающая) и Allow (разрешающая).

Стандартный код с использованием этих директив выглядит так:

User-Agent: Yandex

Disallow: /

#весь сайт закрыт от индексации

User-Agent: Yandex

Allow: /news

Disallow: /

#от индексации закрыты все страницы, кроме раздела news

Чтобы закрыть индексацию для Google, нужно в начале прописать: User-Agent: Googlebot.

А чтобы учесть обоих поисковых роботов, нужно прописать в коде так:

User-Agent: *

Disallow: /

Использовать этот файл нужно аккуратно, потому что можно случайно закрыть важные страницы.  При указании целой папки в директиве Disallow, нужно быть на 100% уверенным, что в этой папке нет ничего полезного.

Хотелось бы заметить, что файл robots.txt воспринимается Яндексом и Google по-разному. Если закрыть страницы для Яндекса, он не будет обращать на них внимание. А вот для Google robots.txt – это всего лишь рекомендация. То есть никаких гарантий, что страница не попадет в индекс, нет.

Перекладывать всю работу на robots.txt тоже не стоит. Возможны случаи, когда файл окажется недоступным по каким-либо техническим причинам. Тогда, все скрытое станет явным, а это может обернуться  настоящим  seo-кошмаром.

Получается, что единственное средство для настройки индексации является ненадежным?

Зачем тогда нужен файл robots.txt и как по-другому можно закрыть страницы?

В robots.txt можно закрыть доступ ко всему сайту на время внесения изменений, коррективов или переработки страниц. Это необходимо, чтобы поисковая система не вносила недоработанные страницы в индекс.

Страницы с личными данными пользователей, формы регистрации, сортировки и поиска можно закрывать и в robots.txt. Но лучше запретить индексацию этих страниц на уровне CMS. Так будет надежнее.

Административные данные лучше всего также скрывать с помощью специальных плагинов CMS. Файл robots.txt не обеспечивает защиту в этом случае, и при желании хакер может взломать вход в вашу административную панель.

Для дублирующихся страниц можно настроить 301 редирект или воспользоваться тегом rel=canonical – именно в этом его прямое назначение

Также для запрета на индексацию можно использовать мета-тег robots. Он имеет 4 параметра: Index-Noindex и Follow-Nofollow. Чтобы закрыть страницу от индексации, необходимо указать:

< head>

< meta  name=”robots” content=”noindex, nofollow”>

< /head>

Использование этого мета-тега имеет свои преимущества. Например, вы можете закрыть только контент, если он дублируется, оставив при этом открытыми ссылки.

Код, соответственно, изменится:

< head>

< meta name=”robots” content=”noindex, follow”>

< /head>

По поводу закрытия RSS-ленты сложно дать однозначный совет. При продвижении в Яндексе, лучше всего убрать эту информацию из индекса. А Google воспринимает RSS более адекватно, и появление ленты в индексе, скорее всего, не навредит.



Прокомментировать



:D
:)
:(
:o
:shock:
:?
8)
:lol:
:x
:P
:oops:
:cry:
:evil:
:twisted:
:roll:
:wink:
:!:
:?:
:idea:
:arrow:
:|
:mrgreen:
.

Читайте также

Вопрос про составление текстов для объявлений Яндекс Директ 3

Ну и добавлю, что стоит поработать над формулировками в сторону увеличения их лаконичности и информативности. Не забудьте, что у Яндекса ограничение на заголовки объявлений -…
Mail.ru запустил еще один инструмент для объединения онлайна и оффлайна
Mail.ru запустил еще один инструмент для объединения онлайна и оффлайна

Mail.ru продолжает активно вовлекать офлайн-продавцов в онлайн. Так в myTarget появился инструмент для тех магазинов и заведений, которые решили начать продвигаться через интернет
Google поможет компаниям оптимизировать рекламу
Google поможет компаниям оптимизировать рекламу

Нововведение предназначено для тех компаний, которые все еще не внедрили отслеживание конверсий на своих ресурсах








2001 - 2017 © Оборот.ру. Все права защищены