Фильтры Google


Поиск по сайту:



Описание основных фильтров Google

Все поисковые системы, в том числе и Google, имеют наборы фильтров производящих отбор сайтов для своей поисковой выдачи. Целью этих систем фильтрации является выдача качественных, адекватных сайтов в соответствии с поисковым запросом потребителя.

Такая необходимость отбора возникает в связи с тем, что большое количество сайтов в сети представляют собой своеобразный мусор, состоящий из сайтов однодневок или сайтов созданных для перенаправления трафика на другие Интернет-ресурсы, а также для повышения рейтинговых показателей и т. д.

Проблема фильтрации стоит остро и однозначных показателей и критериев, по которым можно произвести такой отбор наверняка, не загнав под фильтры нормальные сайты до сих пор не придумано. Поэтому в поисковых технологиях применяется множество фильтров которые должны по определенным параметрам совсем убирать из индекса мусорные сайты и не давать выводить на первые позиции выдачи раскрученные черными методами, информационно бессмысленные, наполненные не оригинальным контентом сайты. Google как и другие поисковые системы не публикует критерии работы своих фильтров. Системы фильтрации постоянно модернизируются, но при этом все еще остается далекой от совершенства. Несовершенство систем фильтрации подтверждается теми случаями, когда под действие фильтров попадают нормальные сайты.

Поэтому любому Вебмастеру и оптимизатору желательно знать правила позволяющие избежать попадания под действие фильтров и выхода из-под их действия, если уж такое случилось.

 

Песочница

Sandox-песочница. Он создан и применяется с целью отсечь и не допустить на лидирующие позиции короткоживущие дорвеи, которые выпускались в великом множестве и за несколько дней или часов занимали ведущие позиции. Да и сейчас еще штампуется не мало дорвеев но выйти на первые позиции в выдачи им все сложнее. С этим фильтром сталкиваются все новенькие сайты. Его действие проявляется в том, что в течение нескольких месяцев вновь созданный сайт не может пробиться на первые места, несмотря на все усилия вебмастера. Таким образом, как бы, устанавливается испытательный срок. В этот период важно совершенствовать, улучшать ресурс, чтобы после снятия фильтра он занял достойную позицию.

Последнее время ряд оптимизаторов поставили под сомнение наличие такого фильтра, считая санкцию к новому сайту результатом комплексного воздействия ряда других параметров определяющих небольшое количество траста у новых сайтов. И такое мнение имеет право на существование хотя на мой взгляд это лишь разные описания того же самого феномена.

    Как избежать песочницы или сократить срок ее действия? Предлагается несколько методов:
  1. - купить старый домен или дать домену отстоятся с заглушкой перед созданием на нем сайта;
  2. - наращивать естественным путем большое количество качественных ссылок;
  3. - регулярно пополнять сайт уникальным контентом, использовать линию RSS для рассылки новостей;
  4. - заблокировать индексацию служебных страниц, отставив доступными только полезные для посетителей страницы.

Фильтр «минус 30»

Его фильтрующие элементы отсеивают тех, кто очень агрессивно продвигает свое детище. Его действие не приговор, а всего лишь намек владельцу сайта о том, что нельзя использовать спамерские методы раскрутки.

    Поводами для его срабатывания могут стать:
  • - резкий рост количества ссылок, особенно если они размещаются на «мусорных» ресурсах;
  • - большое количество рекламных материалов на страницах сайта;
  • - наличие на сайте линкопомойки, т.е. очень большое количество исходящих ссылок на все подряд;
  • - наличие достаточно большого количества статей или других материалов с большим количеством внешних ссылок и не большим объемом информации. Т.е. желательно не превышать количество 1 внешняя ссылка на 1000 знаков полезной уникальной информации;
  • - иногда к действию этого фильтра относят и санкции за клоакинг.

Из приведенного становится понятным как избежать фильтра «минус 30». А если не удалось, то нужно почистить сайт от «мусора», например удалив мусорные комментарии со ссылками. Уменьшить количество рекламных блоков, снизить активность рекламных прогонов.

Google Bombing

Фильтр Google Bombing – это замедление или полная остановка возрастания позиции, в поисковой выдаче Google по определенным ключевым словам. Причиной наложения фильтра является увеличение количества ссылок с идентичным анкором. Чтобы избавиться от такой проблемы можно общее количество ссылок делать и с разбавленным и частичным анкором и конечно различным около анкорным текстом.

Этот фильтр был создан из-за того, что оптимизаторы стали массово скупать и устанавливать ссылки, которые имеют одинаковый анкорный текст и ссылаются на один сайт. Фильтр ограничивает продвижение сайтов по бессмысленным или не имеющим прямого отношения к Интернет ресурсу запросам. Примером может служить запрос «злобный карлик», который автоматически выдает сайт президента России Дмитрия Медведева. Непонятно для чего этому сайту продвижение по такому запросу. Скорее всего это шутка кого то из оптимизаторов, а может политический пиар или еще что-нибудь другое. Но даже при наличии данного фильтра не получилось полностью избавиться от эффекта «гуглобомбинга», при котором при достаточно большой ссылочной массе на сайт с определенным анкором, естественно и частичным и правильно разбавленным, сайт поднимается в выдаче по этому ключу, даже если на самом сайте нет соответствующей информации.

Google Florida

Фильтр Google Florida – представляет собой, так называемую пессимизацию сайта, то есть резкое снижение позиций в поисковой выдаче сразу по большому количеству запросов. А значит соответственно и уменьшение трафика.

Этот фильтр применяется в том случае, если имеется перенасыщенность текстов определенными ключевыми словами, выделениями, повторение ключей во всех заголовках, к тому же которых явно избыточное количество и тому подобное. То есть этот фильтр применяется тогда, когда владелец сайта излишне оптимизирует сайт для того, чтобы его продвинуть, а не для удобства пользователей. Данный фильтр не применяется на постоянной основе, а устанавливается время от времени. В основном он применяется к коммерческим сайтам, где наиболее часто и заметна переоптимизация. И вследствие этого случается что по некоторым запросам в Google могут выдаваться в первую очередь информационные сайты, а не коммерческие, в которые вкладывается огромное количество денег.

Supplemental Results фильтр (сопли)

Supplemental Results или сопли, определяет дополнительные результаты поисковой выдачи. То есть при повторном запросе на поиск, включив опущенные результаты, мы увидим неуникальные результаты или дублированную информацию. Это происходит если страницы сайта имеют низкую уникальность относительно друг друга, то они могут попасть в опущенные результаты. В западном сегменте глобальной сети, определяют качественные сайты именно в плане выдачи результатов только в основном поиске. Если процент страниц в дополнительном поиске превышает тридцать – сорок процентов, то сайт считается не очень хорошим по качеству. Этот может случиться также в том случае, если некачественно настроены CMS. Тогда они генерируют страницы с дублирующей информацией или не закрыты в robots.txt второстепенные страницы. И соответственно эти страницы подпадают под действие этого фильтра.

Поэтому, нужно для наполнения сайта использовать уникальную информацию, которая не только не должна дублировать контент с других сайтов, но и быть уникальной относительно других страниц этого же сайта. Для уменьшения вероятности попасть под фильтр сопли нужно покупать ссылки трастовые, увеличить на нем общее количество уникальной информации, постараться уменьшить количество нерабочих ссылок (как внешних, так и внутренних), вследствие перехода по которым выдается «ошибка 404″, ну и конечно же настроить корректную и правильную работу движка сайта.

Неуникальный контент

Фильтр, который устанавливает Google на сайты с неуникальной информацией. То есть, если на странице находится большое количество неуникальной информации, то ей не суждено попасть в первые строчки по поисковому запросу. Так как поисковик из всего количества страниц с подобным контентом и выберет всего несколько. Можно конечно и в этом случае вывести в топ создав огромную ссылочную массу с трастовых Интернет ресурсов.

Битые ссылки

Фильтр, который устанавливается в том случае, если есть большое содержание ссылок, которые при загрузке будут выдавать «ошибку 404″. Чтобы избавиться от такого фильтра, нужно почистить и убрать нерабочие ссылки или сделать редирект на существующие страницы.

Недоступность или медленная загрузка страниц сайта

Фильтр на сайты, долго загружающиеся. Если роботы Google не получают быстрого положительного отклика, позиции сайта снижаются, иногда вплоть до абсолютного исключения из поискового индекса. Еще пару лет назад можно было легко избавиться от этого фильтра, сделав размер находящихся на страницах изображений, меньше и уменьшив объем контента на страницу. Сегодня же, в условиях скоростного интернета, когда страница, даже объемом в несколько мегабайт, загружается очень оперативно, искать причины подобных торможений необходимо в другом. К примеру, виной всему могут быть неправильно настроенный сервер или скрипты, а также большое количество обращений сайта к другим ресурсам. Поэтому копайте глубже, в том числе выясните у хостера, не имеют ли роботы поисковых систем ограничений в доступе к сайту.

Фильтр цитирования

Фильтр цитирования /Co-citation Linking Filter/. Основная суть его состоит в том, что ссылаться нужно только на сайты высокого качества, желательно соответствующие теме материала. Надо исходить из того, что, поместив на своем сайте ссылку на другой сайт, вы предлагаете своим посетителям его посещение. Если при этом вы рекомендуете некачественные сайты по мнению Google, то система делает вывод, что и ваш сайт – низкого качества, сайт не заботящийся о своих пользователях.

Также вероятно накладывание фильтра на сайты, продающие в автоматическом режиме места под статьи или ссылки, владельцы которых не утруждают себя анализом поступающих рекламных материалов и в погоне за большим заработком ставят ссылки на все подряд.

Фильтр на ссылкопомойки

Фильтр ссылочных «помоек». К установке на ваш сайт такого фильтра приводит активное участие в системе автоматического обмена большим количеством ссылок и образование на сайте огромного числа страниц, состоящих полностью или почти полностью из ссылок. Главным направлением развития сайта является его информационная наполненность, а не загруженность ссылками. Так же считается что этот фильтр может быть наложен на сайты у которых число внешних ссылающихся на него Интернет ресурсов намного меньше чем количество исходящих с него ссылок на другие ресурсы.

Взаимные ссылки

Фильтр взаимных ссылок. Многочисленный взаимообмен ссылками, по мнению Гугла, является накруткой. Следует пользоваться более сложными схемами обмена ссылками, к примеру треугольником, т.е. 1-й сайт ссылается на 2-й,. 2-й на 3-й, а 3-й на 1-й. Считается что фильтр чаще накладывается если взаимно ссылаются не просто сайты, но и взаимно ссылаются конкретные страницы т.е. сайт 1 страница а1 ссылается на сайта 2 страницу в1, а эта страница ссылается обратно на туже страницу сайта 1.

Резкий рост объема контента

Фильтр прироста контента. В условиях очень частого и активного обновления наполнения сайта, Google начинает «подозревать» его в применении парсеров контента или генераторов текстов и т.п., после чего понижает его позиции или вовсе исключает из выдачи. Чтобы этого не случилось, ограничьте количество добавляемых материалов за определенный промежуток времени.

Низкий Trust Rank

Trust Rank это не совсем фильтр. Это степень доверия Google к конкретному сайту складывается из множества параметров. Сайтам с наиболее низкими показателями очень сложно подняться на высокие позиции выдачи особенно по конкурентным и высокочастотным запросам. Здесь имеет значение многое, что формирует интерес пользователей, в том числе возраст сайта, срок на который продлен домен (справедливо естественно не для всех доменных зон), объем и качество ссылочной массы, частота обновления сайта и т.д.

Помните одно! Настоящему СДЛ, старому качественному сайту, регулярно обновляющемуся уникальной, интересной и полезной информацией, имеющему естественную ссылочную массу или не отличимую от естественной, появление большинства фильтров не грозит или грозит только при очень сильных нарушениях. Другими словами что позволено директору запрещено клерку.

Возможно вас так же заинтересует:
Фильтры Yandex.


 
Автор: Алекс
http://wmr1000.ru/
Запрещено копировать без ссылки на сайт

 
Сделать закладку: