На поисковых системах лежит огромная ответственность – предоставлять пользователям Интернета информацию, которая в полной мере удовлетворяет их запрос. Однако с течением времени, количество сайтов начало увеличиваться со скоростью геометрической прогрессии. Не все они обладают качественным и востребованным контентом, а некоторые ресурсы созданы исключительно для извлечения прибыли. В связи с этим были созданы фильтры поисковых систем, которые понижают позиции сайта при выдаче или блокируют ресурс.
Особенности работы фильтров
Вам будет интересно:Справочно-правовая система - это особый класс компьютерных баз данных, содержащих тексты указов, постановлений и решений различных государственных органов
Прежде всего, необходимо понимать, как работают фильтры поисковых систем. В целом поисковики накладывают санкции в нескольких случаях:
- Тексты и микроразметка. Фильтры поисковых систем срабатывают в случае, если на сайте обнаруживается большое количество спама (заспамленность текста можно проверить при помощи программ на проверку уникальности текста). Негативно сказывается на качестве ресурса излишняя оптимизация, а также избыток ключевых запросов в структуре текста (заголовки, подзаголовки и т.д.).
- Ссылочная масса. За неестественно быстрое наращивание ссылочной массы (в частности внешней) ресурс может попасть под фильтры. Также негативно сказывается на поисковой выдаче спам в анкорах, избыточная перелинковка и манипулирование ссылками. Например, прогон или ссылочные кольца.
- Поведенческие факторы. Под фильтры поисковых систем подпадает также накрутка поведенческих факторов и размещение на страницах невидимых элементов, с которыми взаимодействует пользователь, но не подозревает об этом. Непроститльным является перенаправление пользвателей на площадку, что не соответствует их запросу.
- Реклама. Не последнюю роль в появлении санкций играет рекламное содержимое сайта. Рекламные объявления не должны быть навязчивыми или избыточными. Более того поисковики могут понизить в выдаче тот сайт у которого для мобильных версий «припасена» агрессивная реклама, такая как подписка или клики. Также существуют фильтры, что ограничивают деятельность сайтов, на страницах которых был замечен контент категории «18+»
- Идентичные сниппеты. Если рядом со ссылкой в поисковой выдаче появляется одинаковая информация для отдельных ссылок одного сайта, то это может послужить причиной для наложения на сайт санкций. Подобное зачастую происходит с интернет-магазинам у которых обширный ассортимент товаров одного вида.
- Аффилиаты. Фильтры поисковых систем крайне отрицательно относятся к группам сайтов, что принадлежат одной кампании и созданы специально для того, чтобы вывести основной ресурс в ТОП.
Вам будет интересно:Что такое Agile: перевод, сферы применения. Гибкая методология разработки
Вам будет интересно:Обзор основных интерфейсов передачи данных
Для каждого этого случая созданы специальные программы-фильтры или поисковые алгоритмы, которые тщательно следят за чистотой оптимизации, предотвращая появление некачественного контента в поисковой выдаче. Каждая поисковая система обладает своими ограничителями, которые успешно справляются с этой задачей
Основные фильтры «Яндекс»
На обширном пространстве Рунета «Яндекс» был и остается основной поисковой системой. С каждым годом он ужесточает требования к сайтам и создает все новые и новые фильтры. Начинающие веб-мастера боятся попасть под жестокие санкции этого поисковика, поэтому чтобы успешно продвигать свой ресурс необходимо знать «враг в лицо», то есть иметь представление об основных фильтрах поисковой системы «Яндекс».
- АГС «Яндекса», по отзывам интернет-маркетологов, считается самым жестким фильтром, ведь в свое время он успешно блокировал не одну сотню ресурсов. Основная его деятельность направлена на борьбу с сайтами, которые продают ссылки и повышают нелегальным образом позиции других ресурсов, хотя сами по себе не несут полезной информации.
- «Непот-фильтр» был создан по образцу АГС. Однако его задача более узкая: блокировать только те ресурсы, которые продают ссылки. Фильтр определяет сайт, занимающийся несанкционированной деятельностью, и накладывает ограничения, которые утилизируют ссылочный вес продвигаемого ресурса.
- «Ты последний». Этот фильтр с незатейливым названием ориентирован только на понижение позиций сайтов с неуникальным контентом. Однако это не причина его игнорировать. Зачастую санкциям подвергаются тексты, в которых уникальность ниже 92%.
- «Новый домен». Это, скорее, не фильтр, а своего рода ограничение, не позволяющее только что созданному ресурсу занимать лидирующие позиции.
- «Ты спамный». Фильтр на отслеживание спама внимательно следит за качеством контента на сайте, и если текст переоптимизирован, то позиция ресурса падает в выдаче. Важно понимать, что обилие ключевых запросов не является гарантией того, что сайт займет хорошое место в топе. Любая информация должна быть, в первую очередь, полезной для пользователя, а уже потом соответствовать требованиям поисковых роботов. Вряд ли пользователь выявит желание просматривать простыню текста, где по нелепой "случайности" практически в каждом предложении присутствует ключевой запрос, но отсутствует необходимая информация.
- «Аффилиат». Яндекс внимательно следит за кампаниями, которые пытаются продвинуть свои основные ресурсы посредством создания дополнительных сайтов и перелинковки между ними. Если на таких площадках находится уникальная и полезная информация, то они будут иметь право на жизнь, но если контент создан только ради контента, то ресурс могут запросто заблокировать.
- «Редирект». Этот фильтр ведет активную борьбу с дорвеями, то есть с сайтами, перенаправляющими пользователей на ресурс, которого они не искали.
- «Adult». Накладывает ограничения на ресурсы со "взрослым" контентом.
- «Поведенческие факторы». Фильтр отслеживает поведение пользователей, которые переходят по ссылке на сайт. Строго фиксируется количество отказов, «глубина» и длительность просмотра контента, которые считаются основными показателями полезности.
- «Агрессивная реклама». В последние несколько лет «Яндекс» начал вести активную борьбу с навязчивой и агрессивной рекламой, которая мешает просмотру контента.
Вам будет интересно:Что это - дескриптор? Описание структуры атрибута
Основные фильтры Google
После "Яндекса" в России поисковая система "Гугл" занимает второе место. Соответственно, и ее фильтры не оставляют без внимания веб-мастера. Самыми распространенными считаются:
- «Дублированный контент». Создан специально для наложения санкций на дублирующийся контент. Фильтр понижает позиции тех ресурсов, что размещают на своих страницах неуникальный контент, который не единожды повторяется.
- «Sandbox». Этот фильтр регулирует попадание сайта в топ по высокочастотным запросам, борется со спамом и сомнительным контентом.
- «Рост ссылок». Если у ресурса начинает быстро возрастать ссылочная масса, он понижается в выдаче.
- «Google Bombing». Этот фильтр накладывает санкции на ресурс, в котором переизбыток ключевых запросов в анкорах ссылок.
- « -30». Такое прохладное, можно даже сказать, сибирское название, получил фильтр, который борется с многочисленным спамом. К рамкам его компетенции, помимо стандартных нежелательных рассылок, входит блокировка редиректов и дорвеев.
- «Социтирование». Для поисковой системы России "Гугла" важно, чтобы на ресурс ссылались сайты, близкие по тематике. Если же сайт повышает свои позиции, но на него ссылаются ресурсы, далекие от основной тематики, то начинает действовать этот фильтр.
- «Скорость загрузки». В отличие от "Яндекса", Google контролирует скорость загрузки. Если после перехода с поисковой системы на ресурс он медленно загружается, и это повторяется неоднократно, то сайт теряет свои позиции.
- «Supplemental Results». На некоторые страницы сайта, которые не несут уникальной информации или на них нет внутренних ссылок, поисковая система может наложить фильтр. При этом ресурс с основным контентом не теряет своих позиций.
- «Обмен ссылками». Как только началась эпопея по созданию сайтов, популярными были ресурсы по взаимному обмену ссылками. Теперь, если проект вдруг начинает активно набирать ссылочную массу, фильтр понижает его позиции.
- «Trast Rank». Или, проще говоря, «уровень доверия». Основная цель фильтра - определить, насколько авторитетным является проект. Соответственно, чем он авторитетнее, тем выше его позиции. На это влияют несколько факторов: качество ссылок и их общая масса, количество контента, возраст доменного имени и перелинковка между страницами ресурса.
- «Результат+». Или фильтр на дополнительные результаты. Если система вдруг посчитает, что проект похож на сотни других и не несет ничего нового, то страницы сайта попадают в дополнительный индекс, а не в основной.
АГС
Выше представлены самые актуальные фильтры поисковых систем. Однако некоторые из них необходимо рассмотреть более подробно. Для начала стоит обратить внимание на самого страшного «диктатора» Рунета - АГС "Яндекса". Этот фильтр был создан специально, чтобы противостоять некачественному контенту в Сети. Это название может использоваться вмести с цифрами «17», «30» или «40», которые говорят о версиях программы.
Под санкции этого фильтра подпадают площадки, у которых имеются исходящие СЕО-ссылки. Отрицательно сказывается на позициях сайта неинтересный и неуникальный контент, из-за которого следует большое количество отказов пользователей. Дубли, агрессивная реклама, дорвеи, редиректы, клоакинг. Помимо этого фильтр внимательно следит за функциональностью проектов. Если у веб-сайта некачественный дизайн или проблемы с загрузкой, то это тоже может значительно понизить его позиции.
Чтобы определить, попал проект под фильтр АГС или нет, стоит внимательно отследить процесс индексации и уровень посещаемости. Когда фильтр начинает свое черное дело, то новые страницы не индексируются поисковой системой, а старые, которые попали под санкции, полностью выпадают из индекса.
Чтобы восстановить прежние позиции, необходимо сделать из ресурса настоящий шедевр, предназначенный для удовлетворения потребностей пользователей. Для этого необходимо подогнать технические характеристики к требованиям поисковой системы. Это значит запретить индексацию страниц-дублей, удалить СЕО-ссылки, сделать удобную навигацию, пересмотреть рекламные объявления, удалив все агрессивные медиа. Пользователи должны быстро находить информацию, которая может их заинтересовать, и эта информация должна быть качественной, новой, полезной и легкой для восприятия. Контент сайта должен постоянно пополняться новыми статьями. Только когда проект будет соответствовать требованиям поисковых систем, можно обращаться в службу поддержки "Яндекса", чтобы сняли фильтры.
«Пингвин»
Но страшны не только санкции "Яндекса", фильтрам поисковой системы Google тоже нужно уделить внимание. Если АГС следит за основными характеристиками, которые определяют качество проекта, то «Пингвин» штрафует за искусственное наращивание поведенческих факторов. Фильтр «Пингвин» был создан специально, чтобы исключить манипулятивный линкбилдинг при оптимизации веб-сайта.
Размещение спамных ссылок на форумах и блогах, приобретение обратных ссылок, переизбыток СЕО-анкоров, создание на страницах проекта невидимых ссылок – все это является причиной наложения санкций. Подпадая под фильтр «Пингвин», сайт начинает резко терять свои позиции, падает его посещаемость, а индексация происходит намного медленней, чем обычно.
Чтобы избежать печальной участи, нужно удалить все некачественные ссылки и поменять стратегию продвижения.
Очень часто площадка подвергается санкциям не одного фильтра. Вместе с «Пингвином» в гости к веб-мастеру может зайти и «Панда». Это еще один фильтр поисковой системы Google. Если на сайте публикуется материал с уникальностью ниже 90% то можно быть уверенным, что ресурс находится под двумя этими «укротителями».
«Панда»
Фильтр «Панда» отвечает за качество веб-сайта в целом. Некачественные проекты лишаются значительной доли трафика, а в некоторых случаях полностью выпадают из поиска. Качество площадок оценивается по таким характеристикам:
- Контент. Качество содержимого определяют не только роботы, которые сканируют его на уникальность и полезность, но и асессоры – аттестаторы, выставляющие контенту независимые оценки. Помимо этого, влияет удовлетворенность пользователя информацией. Об этом говорят глубина просмотра и время, проведенное на сайте. Нельзя, чтобы информация дублировалась или была откровенно ворованной (то есть с низкой уникальностью).
- Владельцы и пользователи. Все, что есть на сайте, и сам проект обязаны в первую очередь ориентироваться на пользователя. То есть должен быть хороший дизайн, удобный и понятный интерфейс, минимум некорректной и навязчивой рекламы. Сайт может получить пенальти, если рекламные блоки размещены вверху страницы, а само содержимое - внизу. Карается также и нечитабельность текстов.
Вам будет интересно:Схема передачи информации по различным техническим каналам
Как и в других случаях, если сайт начинает резко терять свои позиции и трафик, а страницы выпадают из индекса, высока вероятность того, что проект попал под фильтр «Панда». Чтобы избавиться от ограничений поисковых роботов, нужно изменить стратегию оптимизации, повысить качество материалов и функциональность веб-сайта. В таком вопросе помогут следующие манипуляции:
- Технический аудит. Необходимо убедиться, что веб-сайт нормально функционирует, хорошо грузится, отсутствуют битые ссылки.
- Качество. Еще раз проверить материалы ресурса на предмет уникальности и качества. Все материалы, что вызывают вопросы, заменить.
- Чистота, залог успеха. Если присутствуют страницы без контента или с маленькими абзацами текстов, их нужно убрать, дополнить или заменить. То есть необходимо провести чистку, избавившись от ненужных фрагментов деятельности веб-мастера.
- Регулярность. Сайт должен постоянно обновляться. Хотя бы раз в неделю нужно добавлять новые публикации.
"Баден-Баден"
В 2017 году вышло обновление фильтра поисковой системы Яндекс «Баден-Баден», что вызвало небывалый ажиотаж среди веб-мастеров. Кто-то утверждал, что этот поисковый алгоритм станет применять жесткие санкции к ресурсам, на которых будет замечен хотя бы намек на спам, а кто-то спокойно твердил, что он не станет революционным толчком в СЕО-оптимизации.
Сами разработчики уверяют, что значительно улучшили алгоритм, который «наказывал» переоптимизированные страницы. Хотя все еще непонятно, стал новый "Баден-Баден" заменой привычным фильтрам или же является частью общего алгоритма. Если склоняться ко второму варианту, то веб-мастерам будет достаточно трудно определить, под какие санкции попал их ресурс.
"Баден-Баден" борется с некачественным контентом путем исключения из поиска текстов, где много ключевых запросов. Однако его действие распространяется не на весь проект, а на отдельный документ (страницу). Проще говоря, если на сайте есть один некачественный текст, то только страница, на котором он размещен, выпадет из поиска, в остальном ресурс сохранит свои позиции и основную часть трафика. Однако не стоит расслабляться. За одним фильтром может последовать множество других.
Поэтому необходимо увеличить видимость ресурса, пересмотреть все СЕО-тексты на предмет переоптимизации и удалить техники, которые скрывают СЕО-наполнение от поисковиков.
На пульсе
Требования поисковых систем одинаковы для всех площадок, одинаковым является и наказание за их невыполнение. Если проект вдруг начал терять трафик и понизился в выдаче, значит, он определенно попал под санкции поисковиков. Чтобы держать руку на пульсе, необходимо постоянно проверять поступаемый трафик, причем не только количество, но и его источники.
Поэтому каждому вебмастеру необходимо научиться управлять поисковыми фильтрами. Как включить поисковый фильтр? Это достаточно простое задание. При регистрации сайта в поисковой системе веб-мастер получает личный кабинет, в котором может следить за изменениями, которые происходят с его проектом ("Яндекс. Вебмастер" или Google Analytics). Перейдя на эту страницу, нужно открыть административную панель, выбрать интересующую вас площадку и открыть раздел «Фильтры». В большинстве случаев достаточно активировать встроенные ограничители, но для некоторых случаев необходимо создавать индивидуальные пользовательские ограничения.
Зачем это нужно? Допустим, если сайт принадлежит большой компании, то высока вероятность того, что на него ежедневно будут заходить сотрудники. А если на этой площадке есть чат или форум, на котором они могут общаться между собой, то логично предположить, что работники будут с удовольствием коротать время на веб-ресурсе фирмы. Однако они не являются целевой аудиторией. Но поисковая система фиксирует все посещения. Чтобы логично продумать стратегию оптимизации, необходимо исключить из отчетов поисковиков информацию о переходе по локальной сети фирмы пользователей. Для этой цели и существуют настраиваемые фильтры.
Проще говоря, настраиваемые веб-мастером фильтры дают возможность получить исключительно ту информацию, что будет необходима для продвижения ресурса. Это касается не только определенных IP-адресов, но переходов с конкретных каталогов, сайтов и поведенческих характеристик.
Что получается в остатке?
Фильтры поисковых систем улучшаются с каждым годом. И точно так же с каждым годом веб-мастера улучшают оптимизацию своих сайтов. При этом не все и не всегда идут длинным и безопасным путем, а нередко пытаются сократить тропу к вершине авантюрными и наказуемыми методами.
По сути, фильтры поисковиков не такие уж и страшные, они требуют вполне обыденных вещей:
- Качественного контента.
- Ненавязчивой рекламы.
- Отсутствия запрещенных материалов.
- Понятного интерфейса и грамотного продвижения, которое заключается в естественном наращивании ссылочной массы и внутренней перелинковке.
Совет
Естественно, такой путь долгий, потребуется около полугода, чтобы вывести веб-сайт в топ по основным ключевым запросам, но если он туда уже попал, то его позиция будет намного стабильней, чем у тех, которые заняли это место нечестным способом.
Это только в начале развития интернет-эпопеи можно было безнаказанно разбавлять скудные фрагменты текстов ключевыми запросами и быстро продвигаться в поисковой выдаче. Сейчас все изменилось. Поисковые системы акцентируют внимание на качественном наполнении ресурсов. В приоритете теперь оригинальный, авторский контент, который может дать исчерпывающий ответ на вопрос пользователя. Поэтому если нет желания становиться жертвой санкций, нужно сосредоточить основное внимание на решении именно этого вопроса, и лишь после приниматься за наращивание ссылочной массы и привлечение посетителей.