+7 (343)


  Главная  →  Наши статьи  →  Поисковые системы. Реклама и другие возможности. Часть 2 Поисковая оптимизация.

Поисковые системы. Реклама и другие возможности. Часть 2 Поисковая оптимизация.

В поисковых системах, как источниках посетителей нас больше всего интересуют две вещи – реклама (поскольку поисковая система имеет огромный охват аудитории) и нахождение нашего сайта как можно выше к первой строчке в результатах поиска по интересующим нас запросам (поскольку пользователь всё-таки приходит на поисковик, чтобы что-нибудь найти, а не рекламу посмотреть).

 

И если первое для них – основной источник дохода, а поисковые системы, как и другие сайты информационной направленности, зарабатывают больше на рекламе, чем на других услугах, то второе – источник собственно существования поисковика. И они вынуждены бороться за то, чтобы посетитель как можно быстрее находил искомое – сайты с интересующей его информацией. Для сайта же, человек, нашедший его в поиске – идеальный целевой посетитель, потому что он нашёл этот сайт именно в тот момент, когда ему требовалось именно то, что есть на этом сайте.

Оптимизация и оптимизаторы.

И раз уж есть источник целевых посетителей, конечно, многие хотят использовать его в своих целях. То есть попасть в так называемый топ — первую страницу поисковой выдачи по нужным запросам. Поисковая машина – не думает, это робот, который работает по определённой программе, заданной человеком. Эта программа призвана отсеивать сайты, которые не относятся к запросу и выбирать из оставшихся те, которые подходят, по её мнению, для того, чтобы показать их пользователю. Причём выше показывать те, которые больше соответствуют  запросу.

 

Но, как и всегда, то, что один человек придумал, другой может обойти. Так появилась новая отрасль знаний в интернете – поисковая оптимизация (SEOSearch Engine Optimization), и новая профессия – оптимизатор. Если очень сильно обобщить, для краткости, то оптимизаторы – это люди, которые занимаются тем, что выводят сайты как можно ближе к первым местам в результатах поиска. То есть выполняют некие действия, которые позволяют заставить поискового робота считать, что именно этот сайт — достоин быть на первой странице выдачи поисковых результатов. Сделать это можно двумя способами – либо «уговорить», либо «обмануть». Так оптимизаторы разделились на «белых» и «чёрных».

 

Поисковики по-разному относятся к белой и чёрной оптимизации. С «белыми» оптимизаторами они сотрудничают – никто не против конструктивного диалога — и декларируют своё мнение о «правильных» сайтах. А с «чёрными» – борются всеми доступными методами – кому захочется, чтобы его обманывали?

 

Самое интересное в том, что никто кроме разработчиков поисковика, не знает в точности, как он определяет, какие сайты хуже, а какие – лучше; какие должны появляться выше, а какие – вообще отсеиваться. Оптимизаторы выясняют это различными путями – эксперименты, обмен опытом, анализ конкурентов. Reverse Engineering в-общем :о)

 

«Белые» оптимизаторы на основе полученных данных меняют сайт к лучшему, так, что поисковый алгоритм меняет своё мнение и начинает размещать сайт ближе к первым местам. Это достаточно трудоёмкий процесс, учитывающий огромное количество факторов, как внутренних, так и внешних, который под силу только высококлассным аналитикам, имеющим большой опыт.

 

Но есть и обходной путь – путь «чёрных» оптимизаторов. Они используют те факторы, которые более всего подвержены влиянию со стороны и которые проще изменять. Тем самым они сбивают с толку поисковые системы, засоряя результаты поиска, но добиваясь относительно быстрых результатов.

Белые начинают и выигрывают.

Будь всё так просто, можно было бы закрывать поисковые системы и снова вручную просеивать тысячи сайтов в поисках нужной информации. Но аналитики и программисты поисковых систем постоянно борются со «спамом», создаваемым чёрной оптимизацией.

 

Они отслеживают методы, которыми пользуются обманщики, и принимают меры – изменяют соответствующим образом алгоритмы ранжирования (сортировки результатов поиска), отслеживают и блокируют сайты, продвигаемые «чёрными» методами. В результате появляется бесконечный эволюционный процесс, в котором выживают только сильные – в данном случае, те, кто использует тот подход, который не вызывает противоречий между оптимизаторами и поисковиками. То есть «легальные», «белые» методы, которые появились раньше, дают хоть и менее заметный во времени, но более продолжительный и стабильный эффект, нежели нарушающие, в-основном, неписанные правила поисковиков «чёрные» методы.

 

Для того, чтобы узнать как попасть в первую десятку, надо хотя бы приблизительно понять, как работает поисковая машина. Итак, основные факторы, влияющие на ранжирование во всех современных поисковых системах:

 

  1. Содержание сайта.
    1. Оно должно соответствовать теме, по которой вы хотите видеть свой сайт в топе (здесь в-основном имеются ввиду тексты, поскольку содержание картинок роботы умеют определять лишь по косвенным признакам, хотя правильное размещение картинок тоже имеет свои плюсы).
    2. Оно должно быть правильно написано с точки зрения поисковых машин. Существует даже отдельная специальность в оптимизации – SEO-копирайтинг. SEO-копирайтер пишет или адаптирует готовые тексты так, чтобы они лучше воспринимались поисковыми машинами. При этом не должны забываться и люди – ведь конечные посетители – они, а не роботы.
    3. Оно должно быть достаточно объёмным и разнообразным, а ещё лучше – уникальным и постоянно обновляющимся. Поисковики помнят, какое содержание у каждого сайта было во время их последнего посещения, и сравнивают разные сайты между собой. Они в-общем-то логично считают, что пользователю нужно новое и уникальное, а не старое и то, что есть у всех.
  2. Комплексные факторы «авторитетность сайта» и «вес ссылки» – пара краеугольных камней ранжирования в современных поисковых системах. Эти факторы мало того, что связаны между собой, они ещё учитывают структуру и содержание, а также структуру и многие параметры окружения сайта.
  3. Помимо этого, многие поисковики стараются мотивировать сайтовладельцев к использованию других своих сервисов – например, отмечается, что для сайтов полезно быть в каталоге Яндекса и участвовать в Rambler Top 100, чтобы улучшить свои позиции в выдаче, или по крайней мере повысить авторитет сайта в этих поисковиках.

Ссылочное ранжирование

Здесь стоит остановиться подробнее.

Если бы не придумали «вес ссылки» и «авторитетность сайта», то любой мог бы просто скопировать информацию с сайта, который находится на первой строчке поиска, и таким образом вывести свой сайт на первое место. Поэтому у поисковиков возникла необходимость как-то различать, который сайт важнее для пользователей.

 

Первым появился фактор авторитетности сайта, который ещё иногда называют цитируемостью. Разные поисковики по-разному его определяют и формулируют, но суть остаётся одна и та же – если другие сайты больше ссылаются на сайт А (например, указывая его как источник информации или как-нибудь иначе), чем на сайт Б, то авторитет сайта А — выше.

 

Цитируемость сайтов тут же стали «накручивать», создавая множество простейших полупустых, неинформативных, неинтересных пользователям сайтов. Стало понятно, что ссылки с разных сайтов необходимо как-то различать. Так появился сначала простой, а теперь уже совсем нетривиальный, комплексный фактор веса ссылки.

 

Текущие реализации фактора веса ссылки учитывают множество нюансов, таких например как:

  • авторитетность сайта, который ссылается,
  • расположение страницы, на которой эта ссылка расположена в структуре сайта,
  • текст ссылки,
  • положение ссылки на странице – в тексте или в навигационном блоке, в начале или в конце,
  • окружающие ссылку слова,

и много других факторов, часть из которых известны и оптимизаторам, а часть – только разработчикам поисковика. И хотя значением цитируемости каждого сайта поисковики делятся, значение веса определённой ссылки – величина динамическая для каждого отдельного поискового запроса, и наверное даже разработчики поисковиков не имеют готовых средств, позволяющих заранее вычислить, какой вес будет у той или иной ссылки.

 

Стоит отметить, что чем чаще у поисковика что-то спрашивают, тем, как правило, больше конкуренция за первые места в выдаче по этим запросам. Соответственно, и поднять сайт по этим запросам сложнее. Так запросы условно разделили на высокочастотные, среднечастотные и низкочастотные. И если для большинства низкочастотных запросов достаточно просто привести в порядок сайт – поработать с содержанием, подкорректировать структуру; то для средне- и тем более высокочастотных запросов не обойтись без дополнительных ссылок, повышающих вес сайта в глазах поисковой машины.

Откуда берутся ссылки?

Понятно, что самим им взяться неоткуда – ссылки ставят редакторы других сайтов. Раньше ссылки ставили на интересные сайты по теме, на источники – это конечно же осталось и сейчас. Но с развитием ссылочного ранжирования всё большую популярность набирали явления обмена ссылками и регистрация в каталогах.

 

Обмен ссылками сначала производился на простой основе «ты-мне, я-тебе». Ну то есть редакторы двух сайтов похожей тематики ставили взаимные ссылки на свои сайты. Разработчики поисковиков это вычислили и стали занижать вес у таких ссылок. Тогда в ход пошли неперекрёстные ссылки. Сайт А ссылается на сайт Б, Б – на В, а В – на А; ну или более сложные схемы. Это конечно гораздо сложнее отследить само по себе, а тем более то, что это сделано для повышения позиций, однако процесс это трудоёмкий и конечно его тут же попытались автоматизировать. Так появились линкообменные сети (link - ссылка). В результате борьбы с этими сетями, поисковики (а больше всех – Яндекс) сотнями и тысячами блокировали сайты, сводя на «нет» все труды оптимизаторов.

 

А каталоги ссылок пришли из тех времён, когда поисковиков ещё не было, и искать приходилось по простым спискам сайтов. С появлением ссылочного ранжирования они обрели второе дыхание, но уже не как полезный инструмент для людей, а больше как средство влияния на роботов. Стоит отметить, что не все каталоги одинаково полезны, и хотя «вредных» среди них пока не замечено, ссылка из какого-нибудь определённого каталога может никак не влиять на продвижение сайта.

 

Дальнейшие действия обоих сторон были аналогичны уже описанным – оптимизаторы придумывали новые методы обхода фильтров, разработчики – вычисляли эти методы и меняли алгоритмы. Эта борьба продолжается и по сей день, и конца-края ей пока не видно.

 

Таким образом, оптимизаторы могут лишь на основе большого опыта и лишь приблизительно предсказать результат своих действий в более-менее отдалённой перспективе. И конечно не могут дать долговременных гарантий.

 

Сама же работа оптимизаторов базируется на следующих вещах:

  1. Создание семантического ядра – взаимосвязанный взвешенный по частоте набор слов и фраз, которые относятся к тематике продвигаемого сайта.
  2. Настройка структуры и содержания сайта согласно семантическому ядру.
  3. Поиск подходящих сайтов и размещение на них ссылок на продвигаемый сайт.

 

В этом плане поисковики более-менее определились со своей позицией, что считать «чёрными» методами оптимизации, а что – «белыми». К чёрным относят те, которые не улучшают сайт, не увеличивают его пользу для посетителей, а так же те, которые засоряют результаты поиска и увеличивают нагрузку на поисковик. В-основном это легко автоматизируемые методы. К белым же относят то, что делает сайт полезнее посетителям, позволяет поисковикам точнее определять тему сайта и ранжировать его содержимое.

 

Так что же, нет никаких методов гарантированно оказаться на первой странице результатов поиска? Конечно же есть – только на постоянно платной основе. Материал о контекстной рекламе в поисковиках, о взаимодействии рекламы и оптимизации, как и когда лучше пользоваться тем или иным методом — переносится на следующий номер Штурмана.

 

Эта статья, конечно же отражает истоки и методы поисковой оптимизации только в самых общих чертах — этот пласт интернета очень интересен, непрост и неоднозначен, но надеюсь, поможет немного разобраться в сути вопроса и понять, за что стоит платить деньги оптимизаторам.

 

С уважением к читателям,

Специально для Рекламного Штурмана
Кондратий Ермолин < equa@conanima.ru >

группа компаний «Con Anima» < www.conanima.ru >


В прошлой статье было описано, откуда появились поисковые системы, как развивались, и что из себя представляют в данный момент. В этой будет описано, чем именно они могут быть полезны и как эти возможности эффективнее использовать.
Поиск по сайту:
 
Направления деятельности ГК «ConAnima»