Секретное оружие Google против "черных SEOшников"
Компания продолжит разрабатывать фильтры, выявляющие сайты оптимизаторов, пытающихся манипулировать выдачей. Об этом рассказал уже экс-сотрудник отдела по борьбе с веб-спамом Google Джейсон ДеМерс.
В своем интервью www.searchenginejournal.com он раскрыл некоторые подробности того, как Google борется с "черными оптимизаторами", рассказал о том, как работают некоторые фильтры и что ждет веб-мастеров в будущем.
Следите за ссылками
Одним из самых важных факторов для высокого ранжирования сайта является его ссылочный профиль. Джейсон ДеМерс рекомендует очень тщательно следить за тем, какие ссылки ведут на ваш сайт. При этом необходимо контролировать не только SEO-параметры сайта-донора (PR, возраст домена и т.д.), но и то, какой контент находится на ссылающейся странице, какие анкоры содержит ссылка на ваш сайт и т.д. Google стал внимательнее анализировать ссылочные профили сайтов. Например, если из 100 000 ведущих на ваш сайт ссылок 90 000 будут иметь одинаковый оптимизированный анкор, то это послужит для поисковика прямым сигналом о том, что ссылки не являются естественными, а, следовательно, проставлены с целью манипуляции выдачей.
Что касается контента страницы, то он должен быть уникальным и полезным для читателя. Если Google заподозрит, что страница была создана с единственной целью – поставить ссылку, то это также может стать причиной санкций со стороны поисковика.
"Кровожадный" Penguin
Отдельно Джейсон ДеМерс высказался по поводу последнего нововведения Google – алгоритма ранжирования, который называется Google Penguin. Именно из-за него веб-мастера по всему миру понесли серьезные убытки. ДеМерс заверил, что попасть под каток Penguin – это не так страшно, как схлопотать какой-нибудь из фильтров, которые накладываются на сайт поисковиком. Penguin – это всего лишь алгоритм пессимизации сайтов в выдаче, который был создан специально для того, чтобы вычислять приемы "черного SEO". Раньше все эти техники отлавливались вручную, а теперь компания просто автоматизировала процесс.
Стоит отметить, что Penguin в первую очередь наказывает веб-мастеров за низкокачественные входящие ссылки и их количество, а также за переоптимизированный контент и внутренние ссылки.
Google ищет и найдет
Поисковая система уже сейчас научилась раскрывать сетки блогов, нарушающие условия лицензии поиска Google. Так ДеМерс заметил, что одним из признаков, по которым определяются такие сайты, является схожесть техник, используемых их владельцами. Если один сайт использует запрещенные техники, то наверняка такие же техники используются на других сайтах владельца – эта схожесть позволяет системе вычислять и наказывать целые кластеры сайтов.
Право на амнистию
Чаще всего Google применяет санкции к сайтам по двум причинам: низкокачественный контент и плохое ссылочное окружение.
Если фильтр наложен на сайт за контент, то веб-мастеру первым делом необходимо позаботиться о качестве наполнения проекта. Контент должен нести пользу посетителю сайта, а не служить одной единственной цели – обогащению владельца проекта.
Если же причиной фильтра является плохое ссылочное окружение, то здесь первым делом необходимо начать избавляться от низкокачественных ссылок. К счастью, теперь это можно сделать и через специальную функцию в панели веб-мастера.
Чем больше зарегистрированных, тем лучше поведенческие факторы
Это полный бред. Если Ваша база индексируется и странички участвуют в поиске, то я соболезную. Т.к. любой человек может завладеть этой информацией.
А другими способами Яндекс никак не может узнать сколько у Вас пользовтелей.
Яндексу куда важнее юзабиллити, сколько человек по времени находится на страничке, глубина просмотра, качество материала, уникальность и.т.д. В савокупности очень много факторов влияет на ранжирование сайтов, но никак не зарегестрированные пользователи. Свернуть