Раскрутка: секреты эффективного продвижения сайтов. Анар Бабаев

Раскрутка: секреты эффективного продвижения сайтов - Анар Бабаев


Скачать книгу
лась по миру, и по мере того, как ширился Веб, множились и сайты в нем. Чтобы не сдуться при этом масштабировании, поисковым системам потребовалось изменить подход к ранжированию ресурсов и взяться за разработку гораздо более сложных алгоритмов.

      Внутренние факторы

      В 1994 году увидела свет первая полнотекстовая поисковая система под названием WebCrawler. Произошла революция: ранее информация в Сети структурировалась исключительно в виде каталогов ссылок, сгруппированных по тематическому признаку. Следом на орбиту большого поиска вышли Lycos и AltaVista. Это были первые попытки организовать доступ к ресурсам Веба не на основе каталогизации. До наших дней дошли только упоминания о тех поисковых системах, хотя многие из нас застали их на закате славы.

      В 1997 году практически одновременно на двух разных континентах зародились гиганты современного поиска – Google и «Яндекс». Их алгоритмы ранжирования, со скидкой на локальные особенности, развивались в одном русле. Стремительные изменения в качестве поисковой выдачи требовали принятия решительных мер ради выполнения единой миссии – предлагать пользователям релевантные их запросу, предельно качественные и полезные ресурсы.

      Львиная доля сайтов на рубеже тысячелетий была по сегодняшним меркам примитивна, их страницы отличались незамысловатым дизайном и длинными «портянками» текстов с высокой плотностью ключевых слов. Благодаря нескольким наивным, на наш взгляд, приемам они могли продвигаться вверх в выдаче и добиваться лояльности со стороны поисковиков. В частности, большое значение для выхода в топ имело использование ключевых слов в метатегах. Один из них, keywords, ранее предназначался исключительно для того, чтобы передать информацию поисковому роботу. Он больше не играет ведущей роли в ранжировании, и даже оставить его незаполненным не будет страшным грехом.

      Со временем подтвердилось, что мало учитывать лишь эти внутренние факторы, отводя сайту подобающее ему место в SERP. К внутренней оптимизации страниц предъявлялись все более высокие требования. Поисковики усложняли свои алгоритмы и объявляли войну некачественному и неуникальному контенту, скрытому тексту и многим другим нарушениям со стороны сайтостроителей, пытающихся обмануть, с одной стороны, поисковую машину, с другой – пользователей.

      На текущий момент в связи с увеличением «удельного веса» внутренних факторов сложился целый свод писаных и неписаных требований к оптимизации, без соблюдения которых дорога в «высшее общество» – в топ – закрыта. И наоборот, отдельные факторы, которые ранее вершили судьбы сайтов (как то: метатеги, «тошнота», большие тексты, схемы перелинковки), утрачивают актуальность. Таким образом, если первые алгоритмы поисковых машин анализировали лишь релевантность ресурса запросу, то в настоящее время важнее его качество и полезность для посетителей.

      Внешние факторы

      Внутренняя оптимизация сайта – вотчина его владельца или администратора. Неудивительно, что веб-мастера из числа – выразимся иносказательно – «моральных релятивистов» научились оперировать не совсем честными методами и выдавать порой некачественные страницы за релевантные поисковому запросу. Так было до 1998 года, пока в Google не сошлись на том, что необходимо ввести новые факторы, которые бы не зависели напрямую от действий оптимизатора и позволяли объективнее судить о качестве сайта.

      Вскоре вступили в силу внешние ссылочные факторы, призванные определять популярность ресурса в Сети, которая выражалась в количестве других сайтов, ссылающихся на него. Иначе говоря, к текстовой добавилась ссылочная релевантность. Оценка внешних факторов являлась дополнительным критерием отсева, благодаря которому в выдаче оседали действительно хорошо сделанные и интересные людям сайты. Но к тому моменту маховик интернет-бизнеса раскрутился и SEO[1] из боязни упущенной выгоды ответило на действие противодействием. Ввод ссылочного ранжирования повлек за собой всплеск ссылочного спама. Оказалось, что манипуляции подвержены не только внутренние, но и внешние факторы. Сетки сателлитов (вспомогательных, сопутствующих сайтов, предназначенных лишь для улучшения позиций главного) прекрасно «пускали пыль в глаза» поисковикам, убеждая их в авторитетности сайта, а выдача все больше засорялась шлак-ресурсами. Так аферисты внедряются в бомонд, и если в него проникает слишком много пройдох и пустышек, то бомонд превращается в лучшем случае в полусвет. Поисковики парировали «мусорную атаку».

      Впоследствии алгоритмы ссылочного ранжирования становились все более сложными, на службу борьбы с искусственной накруткой ссылочных метрик были поставлены многочисленные фильтры. Именно в ту пору за SEO закрепилась сомнительная слава грязного трюкачества, с помощью которого удается обхитрить поисковые алгоритмы. Как внешние, так и внутренние факторы ранжирования требовали все более глубокого анализа сайта и внешней ссылочной массы. Оценке подвергались технические характеристики ресурса, его возраст, контент и качество ссылающихся на него сайтов-доноров. Было введено такое понятие, как TrustRank (называемый также трастом) – показатель доверия поисковиков к площадке. Не заслуживший траста сайт имел минимальные


Скачать книгу

<p>1</p>

SEO – Search Engine Optimization, с англ. «поисковая оптимизация». – Примеч. ред.