Когда Интернет только начинал свое триумфальное шествие по земному шару, информации в нем было, по современным меркам, совсем крохотное количество. Задача поисковых систем в то время была максимально проста и банальна: провести подсчет, сколько раз на той или иной странице встречается запрос, после чего выдать результаты. Всемирная Сеть росла и развивалась, а объемы данных стремительно увеличивались.
Оглавление
Бизнес против поисковых алгоритмов
Возможно, все оставалось бы так, как и было раньше, но в Интернет двинулся и бизнес. Как следствие, за попадание в топ поисковой выдачи готовы были платить деньги, причем достигалось желаемое далеко не самыми честными методами – различными ухищрениями, позволяющими обмануть поисковые системы. Последние начали совершенствовать алгоритмы, пытаясь отсеять подобные сайты. Так началось негласное противостояние, которое продолжается и сейчас. Рассмотрим ситуацию на примере Яндекса.
Для начала немного о том, как функционирует поиск. По многим запросам количество сайтов, которые гипотетически могут подойти, исчисляется миллионами. Как среди всего этого многообразия отыскать наиболее релевантные страницы? Для этой цели предназначены фильтры Яндекса, которые позволяют оценивать сайты, исходя из множества параметров. Как результат, процесс поиска ускоряется, а вероятность, что в топе окажутся нерелевантные результаты, снижается.
Палех
В 2016-м году в Яндекс внедрили алгоритм под названием «Палех». Имя – отсылка к палехской росписи, одним из характерных элементов которой являются длинные детализированные хвосты изображенных жар-птиц. Алгоритм «Палех», в свою очередь, ориентирован на работу с длинными запросами, используя для этой цели нейронные сети. Таким образом удается распознать, какую именно информацию ищет пользователь, а не попросту выводить результаты, содержащие слова из строки поиска. Система накапливает сведения, самообучается и со временем выдача становится все более точной.
Королев
Алгоритм на базе «Палех», который по сути является его доработанной версией, направленной на снижение времени, необходимого на обработку запросов. Для этого добавили предварительную семантическую оценку документов, каждый из которых получает некое векторное число. Далее поисковая система попросту выбирает из сохраненных результатов, не прибегая к анализу и расчету. Также алгоритм научился понимать, когда пользователи ищут одну и ту же информацию по разным запросам.
Пессимизация сайтов
Пользователи хотят видеть в результатах поиска качественные сайты, которые отвечают их запросу. Аналогичная цель и у поисковых систем, ведь если в топе окажутся нерелевантные ресурсы сомнительного качества, то человек попросту уйдет к другому поисковику. Как следствие, фильтры Яндекса направлены в том числе на пессимизацию сайтов, то есть понижение в выдаче. Такие санкции, к примеру, применяются к ресурсам, если на них полно:
- неуникального контента;
- агрессивной рекламы;
- перенаправлений на другие сайты;
- скрытого текста;
- различий в информации, которая выводится поисковым системам и непосредственно пользователям, прочее.
В Яндекс придерживаются позиции, что вебмастера обязаны работать над ресурсом, развивая его, улучшая юзабилити, наполняя новым полезным контентом и т.д.
Баден-Баден
Направлен на борьбу с текстами, «страдающими» чрезмерной оптимизацией. Начал работу в 2017-м году. Предварительно многим сайтам, которые подпадали под фильтр, Яндекс разослал предупреждения о необходимости переработать контент. Часть ресурсов ограничилась лишь тем, что уменьшила количество вхождений поисковых запросов, что не спасло от санкций. В Яндекс подчеркивают, что текст должен нести пользователю какую-то полезную информацию, а не просто соответствовать текущим критериям по числу «ключей» и т.д.
Минусинск
Анонсировали в 2015-м году. Задача данного фильтра – борьба с покупными неестественными ссылками. Первыми пострадали ресурсы, которые длительное время пользовались подобным инструментом продвижения, закупая ссылки большими объемами, позже «познакомиться» с «Минусинском» пришлось и другим сайтам, покупающим ссылки.
АГС
Как уже говорилось ранее, поисковые системы заинтересованы в том, чтобы показывать пользователям качественные сайты. Для борьбы с ресурсами, которые не соответствуют данным критериям, существуют различные фильтры Яндекса, в частности, такие, как «АГС». Зачастую санкции применяются к сайтам с неуникальным контентом, агрессивной рекламой, множеством исходящих SEO-ссылок, дорвеям и т.д.
Поведенческие факторы
Попытки накрутить посещаемость за счет ботов или пользователей, перед которыми поставлена именно такая задача, рано или поздно приведут к серьезным последствиям. При этом иногда могут страдать и невиновные ресурсы, если владельцы конкурирующих сайтов заказали для них эмуляцию действий пользователей.
Аффилиаты
В отличие от других фильтров, санкции к сайтам в этом случае не применяются, однако из нескольких похожих ресурсов компании в выдаче будет присутствовать лишь один.
Как избежать проблем с Яндексом? Думать о пользователях, планомерно работая над улучшением сайта, чтобы сделать его интереснее, удобнее, привлекательнее. Также следует прислушиваться к рекомендациям поисковой системы.