Google

Эволюция поиска

Борьба SE против SEO

Полный курс

Статьи

Компоненты пакета

В начало
Содержание
Глава 1. Философия современного интернет-продвижения
1.1 Поисковые системы против оптимизаторов
1.2 Жизнь в Матрице
1.3 Какие сайты поддаются раскрутке.
1.4 Способы монетизации сайта
1.5 Кто будет продвигать сайт - самостоятельно, фрилансер, фирма?
1.6 По поводу гарантий в SEO

Поисковые системы против оптимизаторов

История отношений поисковых систем и seo-специалистов напоминает извечную проблему создания брони, защищающей от пушек, и вслед за этим создания новых пушек, пробивающих усовершенствованную броню.

Когда-то давно Интернет был совсем маленьким :-) и не представлял коммерческого интереса. Доступ к сети был только у университетов и использовался он больше в исследовательских и научных целях, а также для быстрого обмена информацией.


Этап 1. Изначально для целей поиска информации был предназначен мета-тег Keywords. Именно там записывались ключевые слова, описывающие собственно информационный материал, и по ним в дальнейшем можно было проводить поиск. Это еще не было полноценным решением, а скорее напоминало поиск по карточкам или по названию книг в библиотеке.

Как вы понимаете, использование этого мета-тега быстро исчерпало себя. Keywords не давал никакой возможности отсортировать материалы в порядке важности, что создавало очевидную проблему в случае, если по заданной фразе находилось несколько десятков документов.

Этап 2. После этого и появился собственно настоящий, полнотекстовый поиск. Поисковики стали оценивать текст материала, а также html-оформление. Фразы, выделенные жирным шрифтом или тегами H заголовков, считались более важными. Поисковые системы начали сортировать результаты по релевантности – т.е. старались высоко ранжировать (показывать первыми в результатах) страницы, максимально соответствующие заданной ключевой фразе.

Оптимизаторы ответили на это появлением целой новой профессии – seo-копирайтинга. Интернет стал заполняться тысячами и тысячами новых статей, написанных правильным языком и вроде бы дающими подробный ответ на тот или иной вопрос. Но по сути большая часть этих текстов не несла никакой реально полезной смысловой информации, а создавалась лишь для получения высоких позиций в выдаче.

Это был период, когда на всех seo-форумах бурно обсуждались вопросы об идеальной процентной плотности ключевых слов, количестве прямых вхождений заданной фразы в текст материала, количестве выделений жирным шрифтом и т.п.

Этап 3. Принципиальный шаг к решению этой проблемы совершила компания Google, введя понятие ссылочной цитируемости. Допустим, имеется две схожих страницы, одинаково полно отвечающих на заданный вопрос. Анализ текста не позволяет выявить, какая из этих страниц лучше – обе идеально соответствуют заданной теме.

В основу нового алгоритма легла идея, что лучшей является та страница, на которую больше ссылаются другие сайты. Это и понятно – если на некоторую информацию есть ссылки с других ресурсов, пользователи и вебмастера рекомендуют ее другим людям – значит эта информация полезна. И напротив, если текст вроде бы хороший, но никто его не рекомендует для прочтения – значит реальной пользы от этого материала нет.

Учитывалось не только количество ссылок, но и важность самих ссылающихся страниц («голос» с сайта CNN явно более весом, чем голос с домашней страницы Васи Пупкина).

Подобный подход совершил революцию в качестве поиска, и до сих пор остается тем фундаментом, на котором строятся современные алгоритмы ранжирования. Очевидно, что ссылками, размещенными на других сайтах, манипулировать на порядок труднее, чем просто разместить псевдо-полезные статьи на своем ресурсе.

Пару лет новые алгоритмы работали хорошо. Но в дальнейшем начала развиваться индустрия продажи ссылок. Если раньше оптимизатор размещал 10 псевдо-статей у себя на сайте, то теперь под каждую статью создавалось еще по 10-50 псевдо-новостей, псевдо-статей, псевдо-постов на форумах – все для того, чтобы получить нужное количество ссылок и подняться в результатах выдачи. Этот процесс идет и до сих пор, создаются целые сайты, не несущие ничего полезного, а заточенные исключительно под продажу ссылок.

Этап 4. Поисковые системы стали отслеживать поведение пользователей на ресурсе. Сколько времени человек провел на сайте, сколько страниц посмотрел, вернулся ли обратно в поиск или же остался удовлетворен полученной информацией.

К сожалению, это стало лишь полумерой, т.к. поведенческие факторы легко поддаются накрутке. Накручивать можно автоматически, с помощью специальных программ, эмулирующих деятельность человека. А можно привлечь армию «школьников», готовых за копейки совершать нужные действия – искать заданные фразы, переходить на заданные сайты, кликать по заданным ссылкам – и такие сервисы действительно есть. Получается не подкопаться – реальные люди действительно просматривают реальные страницы, вот только выводы о полезности этих страниц оказываются ошибочными.

Этап 5. Очередным принципиальным шагом стало использование в алгоритмах элементов искусственного интеллекта, который позволяет «машине» видеть «глазами человека».

На современном этапе вычислительных мощностей даже самых быстрых супер-компьютеров недостаточно для создания полноценного искусственного интеллекта. И тем не менее, это направление очень бурно развивается и, несомненно будет играть все большую роль в работе поисковых машин.

Яндекс запустил новый алгоритм в 2009 году и назвал его MatrixNet. Нам нет нужды вдаваться в технические подробности, но понимание самой сути этого подхода настолько важно, что я посвятил этому вопросу отдельную статью. Продвигая сайт, мы должны понимать КАК будет смотреть на него поисковая система.


Моя книга издана в бумажном варианте. Если этот учебник оказался для вас полезным - то вы можете отблагодарить меня не только морально, но и вполне осязаемо.
Для этого нужно перейти на Озон.Ру или Лабиринт.Ру и выставить книге оценку или написать отзыв.
Для вас это бесплатно (всегда приятно сделать что-то хорошее без лишних затрат :-)), а для нас очень важно, т.к. поможет нам поднятся в рейтингах. Надесюь на вашу поддержку!

А вот купить книгу - дешевле всего непосредственно на сайте издательства Инфра-Инженерия




Читать далее >>


Если мой труд заслуживает "спасибо", то буду рад вашим "лайкам" и "гуглоплюсам"!





 

Semonitor (R) - программы для раскрутки и продвижения сайта