Гугл против ссылок, против Яндекса и против старой логики?

Доклад «О состоянии российского сегмента Сети», сделанный аналитическим бюро Morgan Stanley (Морган Стенли), для тех, кто следит за темой – не сенсация. Мои же «5 копеек» уже не совсем по этому поводу, пойдемте дальше (есть для этого несколько фактов и мыслей)…
[CUT]
Итак, про сам доклад... 

Morgan Stanley объявило о том, что Google значительно усилил свои позиции в Рунете, отобрав у Яндекса приличную долю пользователей – эка невидаль, скажут многие, понимая
  •  рост популярности поисковика от Гугл;
  • то, что субъективно-объективно он выдает на запрос контент менее комерциализованный;
  • рост мобильных устройств на платформе этого же бренда.
Исследование говорит, о том, что в настоящий момент Яндекс удерживает порядка 58,7% пользователей, а Google – 32,9%. статистику эту подтверждаю – она такая и по оценке трафика этого сайта.


Сомнение в очевидности или полноте всех выше перечисленных причин роста популярности у меня зародилось тогда, когда я проанализировал соотношение числа хостов на этом моем сайте, приходящихся на мобильные и стационарные платформы. Увы, но мобильные гаджеты все же меньше популярны среди маркетинговых спецов. Оно и понятно – мы с вами офисные работники. Значит если и есть причина, то она не в этом и она и не в рости популярности Хрома. А в чем же тогда? В более качественной выдаче?

Я чуть раньше писал про выдачу Гугла и про факторы, которые влияют на ранжирование в выдаче. То есть, иная логика оценки качества контента нравится пользователям больше? Так, тогда пошли дальше, вместе с тем, куда идет Гугл...

По моему, 10 -15 февраля команда инженеров-исследователей Google опубликовала эссе, в котором описывается анонс альтернативного метода ранжирования сайтов — не с учетом ссылок, а на основе всеобъемлющего качества информации, размещенной на них и информации о том же – у других. Я рискнул прочесть и не сломать голову в попытках понять написанное. Не буду забивать голову и вам – важного для нас в тексте не много, приведу лишь преамбулу: 
Все поисковики качество веб-источников оценивают по экзогенными признакам: структура, ссылки, графика. Гугл предложил основываться на эндогенных признаках - на анализе именно информации, но анализировать текст как на самом сайте, так и кто еще про это пишет, кто и на что ссылается (первоисточники, книги, исторические факты, новости)

То есть, специалисты Google придумали алгоритм, который может «вычленять» информацию с веб-страниц, сравнивать ее с фактами, которые хранятся в имеющейся базе знаний и, таким образом, выбирать страницы, информация на которых более точная. Если на отдельной странице ресурса не хватает фактов для оценки, алгоритм может оценивать другие страницы сайта. Все это позволит ранжировать такие страницы выше.

Если вспомнить, что переход на переориентацию с внешних факторов влияющих на ранжирование на внутренние  запустил и Яндекс с частичной отменой ссылочного фактора ранжирования в некоторых тематиках, то э то уже тренд и выход на новый виток противостояния поисковиков на российском сегменте интернета!

Один скоропалительный вывод:
Я, например, степ-бай-степ гоу ту гугл… Если он продолжит усиливать свое присутствие, то ориентированные исключительно на "Я" через время сильно позавидуют отъехавшим.

А что вы думаете по этому поводу?  Что с цифрами заходов по вашей статистике, уважаемые маркетинговые специалисты?
Количество показов: 2596
  13.03.2015
  Ключевые слова: google, seo, гугл, интернет-маркетинг, продвижение

Материалы по теме:

Блог "Заметки на полях"


Поделиться: