Роботы все лучше понимают людей?

Роботы все лучше понимают людей?
logo

Добрый день. Сегодня хотелось бы вернуться к животрепещущей теме для СЕО-оптимизаторов - это влияние ссылочных факторов на результаты выдачи. Как известно, с введением Яндексом нового алгоритма «MatrixNet» влияние ссылочного фактора резко упало. Однако сегодня хотелось бы поговорить не о нашумевшем за последнее время алгоритме «MatrixNet», а о позабытом всеми «разумном серфере».

Суть этого патента давно всем известна, но хочется еще раз затронуть эту тему, дабы было понятно к чему я веду. Итак, взяв во внимание патент, выданный компании Google 11 мая 2010 года, в котором говорится, что все ссылки документа (страницы) не должны нести одинаковый вес, при этом «вес» ссылки будет шкалироваться от того с какой вероятностью по ней перейдет пользователь. Иными словами весомый вклад в ссылочное ранжирование начинает вносить поведенческий фактор.

И как у каждого сеошника, у меня сразу появились «грязные» мыслишки о накрутке таких факторов:) Однако сразу их отбросил, так как люблю качественную выдачу:)

Так что же все таки происходит с миром интернет коммерции? Он меняется страшным образом и нам придется всяким образом приспосабливаться, либо все остается прежним, только добавляется больше «степеней свободы»? Попробуем вместе ответить на этот вопрос. Каким образом поисковик может решить, что сайт не релевантен тому или иному запросу? Одним из способов для определения этого является процент «показателя отказов» (bounce rate), если пользователь закрыл страницу сразу после ее открытия, вывод: страница не релевантна запросу. Что еще можно отнести к поведенческим факторам? Время, проведенное на сайте, количество просмотренных страниц, а так же «последний переход из выдачи». Рассмотрим подробнее каждый из них.

Долгое время, проведенное на сайте, о чем нам может говорить этот показатель? О том что сайт либо очень непонятно сделан и в его навигации можно за путаться как в рыболовной сети, либо о том, что это действительно полезный ресурс. Первое отбросим сразу, так как на больших масштабах переходов лишь малое число пользователей будет себе морочить голову и пытаться разрешить задачу с навигацией, остальные же благополучно покинут этот лабиринт Минотавра.

Количество просмотренных страниц так же можно считать важным фактором, так как большое их число свидетельствует о полезности ресурса.

Последний переход из выдачи говорит о том, что человек либо устал искать, либо нашел то, что ему понадобилось. Так же как и в случае со временем, проведенным на сайте, на больших количествах переходов можно отследить с высокой вероятностью тех, кто нашел то, что искал.

Теперь вернемся к «разумному серферу». Каким же образом можно генерировать(повышать) вероятность перехода по нужным нам ссылкам? Все остается прежним и предельно простым на первый взгляд.

Итак, вероятность перейти по ссылке обусловлена вероятностью ее заметить и полезностью. Польза обусловлена тем, куда эта ссылка приведет, и что при этом получит пользователь. Что касается вероятности заметить ссылку, то здесь мы сталкиваемся с тем чтоб сделать ссылку более яркой, но при этом она не должна портить дизайн.

Подведем итог: вес ссылок передается в зависимости от ее пользы и вероятности ее обнаружить при беспорядочном блуждании робота по странице. Наиболее выделенные и полезные ссылки будут передавать больший вес, относительно тех ссылок которые «замаскированы» под ландшафт сайта. Отсюда вывод – делайте СДЛы, господа.

5 1 1 1 1 1 1 1 1 1 1 Рейтинг 5.00 (1 голос)

Обсудим Вашу
идею?

×

Обсудим Вашу идею?