Качество контента и сайта — вот, на что обращают поисковики, seo менее важен качества. Эволюция факторов ранжирования сайтов

Эволюция поисковых систем по факторам ранжирования

Первой поисковой системой в мировом интернете стал Wandex, разработанный в 1993 году. В те времена сайтов было очень мало, поэтому алгоритмы поиска были просты — выдавались все страницы, содержащие искомую фразу. Далее появлялись новые поисковые системы, которые учитывали поисковые факторы документов — WebCrawler и Lycos. В конце 90-ых текст страницы уже содержал ключевые слова.

После появление поисковой системы Google в 1998 году появились новые факторы, содержащие новые алгоритмы поиска. Уже релевантности документа не хватал, где на ряду вставали ссылочная масса и PageRank, что заставило набивать показатели, повлекшие ссылочный спам, что характерно и сейчас.

Эволюция ранжирования страниц можно отобразить на схеме:

Схема эволюции поисковых систем по факторам ранжирования

И с каждым годом поисковики вводили множество новых алгоритмов поиска, факторов ранжирования страниц, которые анализировали все составные web-страницы: информация о домене, коде, ссылках и адресов страниц. Что не сомнено должно было увеличить качество поиска, улучшая результаты поиска. В начале 2000-ых годов накручивать и имитировать релевантность страниц было сложнее, но возможно, что привело к созданию улучшенных антиспам-алгоритмов.

Вскоре поисковые системы учли, что релевантности страниц не достаточно, документ в выдаче должен быть качественным. Уже можно начинать делать вывод, что заниматься seo нужно, но оно должно стоять на несколько ступеней ниже, чем улучшение сайта, качества контента и многого другого.

Сейчас в это вкладывают гораздо больше смысла.

В 2006-2007 годах поисковые системы ввели новую систему, говорящую о трасте и авторитетности ресурса. Вебмастеры вначале не могли поверить в существовании ТрастРанка, когда в 2009 году появилось множество статей в том числе и представителей самих поисковиков. Уже несколько раз в год в поисковую систему вводились новые изменения и улучшения, и выдача становилась качественней.

Уже к нынешнему времени Интернет представлял из себя сотни миллионов сайтов и еще более страниц — многое заставляло поисковые системы совершенствоваться, вводить новые алгоритмы для улучшения поисковой выдачи, самообучающиеся системы, строгая борьба со спамом.Качества, релевантности страниц становилось недостаточно, необходимо было удовлетворить потребность юзеров в информации, которую не просто определить. Например, по запросу «котэ» в поисковой системе Google, в выдачу попадает различные виды контента ( информации), как текстовые страниц, так фото и видео, сайты с похожим названием и многое другое.

Выдача Google по запросу котэ

Становится понятно, что в ТОП попасть крайне тяжело, и где качество и релевантность играют существенную роль.

После уже появлялись в поисковых системах разные инструменты, например в яндексе — вебвизор, где владелец сайта может узнать «горячие» точки сайта. Похожее и с поисковыми факторами — поведенческие факторы, которые сообщали о действиях посетителей на каждом ресурсе.

Теперь, когда выстроена пирамида из множества критериев, поисковые системы меняют свой смысл — дать ответ пользователю. Где вместе с такими критериями, как качество, релевантность, становится ценноость для пользователя.

Дальше ценность — в 2012 году будет являться главным трендом для поисковых систем, где Google и Яндекс на него активно обращают внимание. НапримерЮ яндекс измеряет ценность коммерческих ресурсов, как цена, качество, юзабилити, отзывы и другие данные, говорящие о качестве.

Советую на фоне всех этих критериев сделать свои выводы и не замедлительно принимайте нужные меры. И уже, если ваш сайт не несет ценности посетителю, не неся ответы на вопросы, то другие факторы можно не учитывать. Так что самое главное — «Делайте сайты для людей!»


Похожие записи:

Добавить комментарий

Ваш e-mail не будет опубликован. Обязательные поля помечены *

Похожие записи: