Главная
→ Поисковые системы. Реклама и другие возможности. Часть 2 Поисковая оптимизация.В поисковых системах, как источниках посетителей нас больше всего интересуют две вещи – реклама (поскольку поисковая система имеет огромный охват аудитории) и нахождение нашего сайта как можно выше к первой строчке в результатах поиска по интересующим нас запросам (поскольку пользователь всё-таки приходит на поисковик, чтобы что-нибудь найти, а не рекламу посмотреть).
И если первое для них – основной источник дохода, а поисковые системы, как и другие сайты информационной направленности, зарабатывают больше на рекламе, чем на других услугах, то второе – источник собственно существования поисковика. И они вынуждены бороться за то, чтобы посетитель как можно быстрее находил искомое – сайты с интересующей его информацией. Для сайта же, человек, нашедший его в поиске – идеальный целевой посетитель, потому что он нашёл этот сайт именно в тот момент, когда ему требовалось именно то, что есть на этом сайте. Оптимизация и оптимизаторы.И раз уж есть источник целевых посетителей, конечно, многие хотят использовать его в своих целях. То есть попасть в так называемый топ — первую страницу поисковой выдачи по нужным запросам. Поисковая машина – не думает, это робот, который работает по определённой программе, заданной человеком. Эта программа призвана отсеивать сайты, которые не относятся к запросу и выбирать из оставшихся те, которые подходят, по её мнению, для того, чтобы показать их пользователю. Причём выше показывать те, которые больше соответствуют запросу.
Но, как и всегда, то, что один человек придумал, другой может обойти. Так появилась новая отрасль знаний в интернете – поисковая оптимизация (SEO — Search Engine Optimization), и новая профессия – оптимизатор. Если очень сильно обобщить, для краткости, то оптимизаторы – это люди, которые занимаются тем, что выводят сайты как можно ближе к первым местам в результатах поиска. То есть выполняют некие действия, которые позволяют заставить поискового робота считать, что именно этот сайт — достоин быть на первой странице выдачи поисковых результатов. Сделать это можно двумя способами – либо «уговорить», либо «обмануть». Так оптимизаторы разделились на «белых» и «чёрных».
Поисковики по-разному относятся к белой и чёрной оптимизации. С «белыми» оптимизаторами они сотрудничают – никто не против конструктивного диалога — и декларируют своё мнение о «правильных» сайтах. А с «чёрными» – борются всеми доступными методами – кому захочется, чтобы его обманывали?
Самое интересное в том, что никто кроме разработчиков поисковика, не знает в точности, как он определяет, какие сайты хуже, а какие – лучше; какие должны появляться выше, а какие – вообще отсеиваться. Оптимизаторы выясняют это различными путями – эксперименты, обмен опытом, анализ конкурентов. Reverse Engineering в-общем :о)
«Белые» оптимизаторы на основе полученных данных меняют сайт к лучшему, так, что поисковый алгоритм меняет своё мнение и начинает размещать сайт ближе к первым местам. Это достаточно трудоёмкий процесс, учитывающий огромное количество факторов, как внутренних, так и внешних, который под силу только высококлассным аналитикам, имеющим большой опыт.
Но есть и обходной путь – путь «чёрных» оптимизаторов. Они используют те факторы, которые более всего подвержены влиянию со стороны и которые проще изменять. Тем самым они сбивают с толку поисковые системы, засоряя результаты поиска, но добиваясь относительно быстрых результатов. Белые начинают и выигрывают.Будь всё так просто, можно было бы закрывать поисковые системы и снова вручную просеивать тысячи сайтов в поисках нужной информации. Но аналитики и программисты поисковых систем постоянно борются со «спамом», создаваемым чёрной оптимизацией.
Они отслеживают методы, которыми пользуются обманщики, и принимают меры – изменяют соответствующим образом алгоритмы ранжирования (сортировки результатов поиска), отслеживают и блокируют сайты, продвигаемые «чёрными» методами. В результате появляется бесконечный эволюционный процесс, в котором выживают только сильные – в данном случае, те, кто использует тот подход, который не вызывает противоречий между оптимизаторами и поисковиками. То есть «легальные», «белые» методы, которые появились раньше, дают хоть и менее заметный во времени, но более продолжительный и стабильный эффект, нежели нарушающие, в-основном, неписанные правила поисковиков «чёрные» методы.
Для того, чтобы узнать как попасть в первую десятку, надо хотя бы приблизительно понять, как работает поисковая машина. Итак, основные факторы, влияющие на ранжирование во всех современных поисковых системах:
Ссылочное ранжированиеЗдесь стоит остановиться подробнее. Если бы не придумали «вес ссылки» и «авторитетность сайта», то любой мог бы просто скопировать информацию с сайта, который находится на первой строчке поиска, и таким образом вывести свой сайт на первое место. Поэтому у поисковиков возникла необходимость как-то различать, который сайт важнее для пользователей.
Первым появился фактор авторитетности сайта, который ещё иногда называют цитируемостью. Разные поисковики по-разному его определяют и формулируют, но суть остаётся одна и та же – если другие сайты больше ссылаются на сайт А (например, указывая его как источник информации или как-нибудь иначе), чем на сайт Б, то авторитет сайта А — выше.
Цитируемость сайтов тут же стали «накручивать», создавая множество простейших полупустых, неинформативных, неинтересных пользователям сайтов. Стало понятно, что ссылки с разных сайтов необходимо как-то различать. Так появился сначала простой, а теперь уже совсем нетривиальный, комплексный фактор веса ссылки.
Текущие реализации фактора веса ссылки учитывают множество нюансов, таких например как:
и много других факторов, часть из которых известны и оптимизаторам, а часть – только разработчикам поисковика. И хотя значением цитируемости каждого сайта поисковики делятся, значение веса определённой ссылки – величина динамическая для каждого отдельного поискового запроса, и наверное даже разработчики поисковиков не имеют готовых средств, позволяющих заранее вычислить, какой вес будет у той или иной ссылки.
Стоит отметить, что чем чаще у поисковика что-то спрашивают, тем, как правило, больше конкуренция за первые места в выдаче по этим запросам. Соответственно, и поднять сайт по этим запросам сложнее. Так запросы условно разделили на высокочастотные, среднечастотные и низкочастотные. И если для большинства низкочастотных запросов достаточно просто привести в порядок сайт – поработать с содержанием, подкорректировать структуру; то для средне- и тем более высокочастотных запросов не обойтись без дополнительных ссылок, повышающих вес сайта в глазах поисковой машины. Откуда берутся ссылки?Понятно, что самим им взяться неоткуда – ссылки ставят редакторы других сайтов. Раньше ссылки ставили на интересные сайты по теме, на источники – это конечно же осталось и сейчас. Но с развитием ссылочного ранжирования всё большую популярность набирали явления обмена ссылками и регистрация в каталогах.
Обмен ссылками сначала производился на простой основе «ты-мне, я-тебе». Ну то есть редакторы двух сайтов похожей тематики ставили взаимные ссылки на свои сайты. Разработчики поисковиков это вычислили и стали занижать вес у таких ссылок. Тогда в ход пошли неперекрёстные ссылки. Сайт А ссылается на сайт Б, Б – на В, а В – на А; ну или более сложные схемы. Это конечно гораздо сложнее отследить само по себе, а тем более то, что это сделано для повышения позиций, однако процесс это трудоёмкий и конечно его тут же попытались автоматизировать. Так появились линкообменные сети (link - ссылка). В результате борьбы с этими сетями, поисковики (а больше всех – Яндекс) сотнями и тысячами блокировали сайты, сводя на «нет» все труды оптимизаторов.
А каталоги ссылок пришли из тех времён, когда поисковиков ещё не было, и искать приходилось по простым спискам сайтов. С появлением ссылочного ранжирования они обрели второе дыхание, но уже не как полезный инструмент для людей, а больше как средство влияния на роботов. Стоит отметить, что не все каталоги одинаково полезны, и хотя «вредных» среди них пока не замечено, ссылка из какого-нибудь определённого каталога может никак не влиять на продвижение сайта.
Дальнейшие действия обоих сторон были аналогичны уже описанным – оптимизаторы придумывали новые методы обхода фильтров, разработчики – вычисляли эти методы и меняли алгоритмы. Эта борьба продолжается и по сей день, и конца-края ей пока не видно.
Таким образом, оптимизаторы могут лишь на основе большого опыта и лишь приблизительно предсказать результат своих действий в более-менее отдалённой перспективе. И конечно не могут дать долговременных гарантий.
Сама же работа оптимизаторов базируется на следующих вещах:
В этом плане поисковики более-менее определились со своей позицией, что считать «чёрными» методами оптимизации, а что – «белыми». К чёрным относят те, которые не улучшают сайт, не увеличивают его пользу для посетителей, а так же те, которые засоряют результаты поиска и увеличивают нагрузку на поисковик. В-основном это легко автоматизируемые методы. К белым же относят то, что делает сайт полезнее посетителям, позволяет поисковикам точнее определять тему сайта и ранжировать его содержимое.
Так что же, нет никаких методов гарантированно оказаться на первой странице результатов поиска? Конечно же есть – только на постоянно платной основе. Материал о контекстной рекламе в поисковиках, о взаимодействии рекламы и оптимизации, как и когда лучше пользоваться тем или иным методом — переносится на следующий номер Штурмана.
Эта статья, конечно же отражает истоки и методы поисковой оптимизации только в самых общих чертах — этот пласт интернета очень интересен, непрост и неоднозначен, но надеюсь, поможет немного разобраться в сути вопроса и понять, за что стоит платить деньги оптимизаторам.
С уважением к читателям, Специально для Рекламного Штурмана группа компаний «Con Anima» < www.conanima.ru > |
В прошлой статье было описано, откуда появились поисковые системы, как развивались, и что из себя представляют в данный момент. В этой будет описано, чем именно они могут быть полезны и как эти возможности эффективнее использовать. |