Фильтры Google

Вопросы и ответы о методах влияющих на выдачу в поисковых системах.

Фильтры Google

Сообщение Kmart » 15 фев 2013, 10:27

Когда говорят про поподание под действие фильтра, в 90% случаев имеют в виду естественно Яндекс. Хотя у того же Google тоже очень много этих самых фильтров. Для тех кто про них не знает я решил кратко перечислить:
Sandbox (Песочница)
Domain name Age (Возраст домена)
Supplementary Results (Дополнительные результаты)
Bombing (Бомбежка)
Bowling (Боулинг)
Brocken Links (Битые ссылки)
Too Many Links at once (Много ссылок сразу)
Links (Линкопомойки)
Page Load Time (Фильтрация страниц по времени загрузки)
Co-citation Linking Filter (Социтирование)
Omitted Results (Опущенные результаты)
-30 (говорит сам за себя)
Duplicate Content (Дублирующийся контент)
Over Optimization (Чрезмерная оптимизация)
Panda (Панда)
Pinguin (Пингвин)

Предлагаю тем кто знаком с данными фильтрами и способами выхода из под них, поделиться опытом.
Аватар пользователя
Kmart
Администратор
 
Сообщений: 33
Зарегистрирован: 11 мар 2012, 14:11

Re: Фильтры Google

Сообщение АНТИгуру » 11 апр 2013, 10:27

Песочница (англ. Sandbox) - это самый первый фильтр, который даже не накладывается на сайт, а получается автоматически при создании сайта. Он предназначен для того, чтобы не позволить молодым, недавно созданным сайтам занять позиции в ТОПе или около него. Это делается для того, чтобы посмотреть, будет ли сайт развиваться дальше и нести пользу людям или же он создан просто для заработка.

Существует мнение, что получение фильтра зависит от конкурентности ключевых слов. То есть, если сайт создан под ВЧ ВК ключ, то он точно не попадёт в ТОП в ближайшее время, даже если его грузить самыми жирными и трастовыми ссылками. Если же ключ НЧ НК, то песочница не накладывается. Хотя эта информация никем не подтверждена, поэтому не следует на неё опираться слишком сильно.

Обычно, сайт попадает под фильтр Sandbox на 3-12 месяцев. Кол-во времени напрямую зависит от работы над сайтом. Чтобы выйти из Песочницы, сайт должен заслужить доверие Гугла. Это время можно уменьшить или увеличить. Уменьшить благодаря трастовым ссылкам с посещаемых ресурсов, но в меру. Увеличить беспорядочным набиванием ссылок и неуникального контента. Хотя за это следуют другие фильтры.

З.Ы. Ещё есть расхожие мнения, что Песочница на распространяется на Рунет. Исходя из личного опыта, могу сказать, что на англоязычный сегмент она (Песочница) распространяется 100%.

sandbox.jpg
sandbox.jpg (34.29 KiB) Просмотров: 6821
Аватар пользователя
АНТИгуру
Продвинутый Юзер
 
Сообщений: 777
Зарегистрирован: 16 дек 2012, 12:09
Откуда: Катманду

Re: Фильтры Google

Сообщение АНТИгуру » 12 апр 2013, 10:31

Возраст домена ( англ. Domain name Age) - тесно связан с песочницей, и ничего кроме времени это не исправит. Домен должен настояться и также заслужить траст Гугла.
Аватар пользователя
АНТИгуру
Продвинутый Юзер
 
Сообщений: 777
Зарегистрирован: 16 дек 2012, 12:09
Откуда: Катманду

Re: Фильтры Google

Сообщение АНТИгуру » 12 апр 2013, 10:39

Дополнительные результаты (англ. Supplementary Results) - фильтр накладывается на страницы, которые не очень нравятся Гуглу. То есть они попадают как-бы в под-индекс. Сами страницы находятся в кэше гугла и их можно найти вбив в поиск урл страницы, но в общей выдаче их не будет. Часто это относиться к неукальному или содержанию с очень низкой уникальностью. Такие страницы попадают в основную выдачу лишь в том случае, когда Гуглу попросту больше нечего показать, что, согласитесь, бывает крайне редко. Поэтому фактически, такие страницы никогда не приносят траффик.

Бороться с этой проблемой можно проставив несколько внешних ссылок на такие страницы.
Аватар пользователя
АНТИгуру
Продвинутый Юзер
 
Сообщений: 777
Зарегистрирован: 16 дек 2012, 12:09
Откуда: Катманду

Re: Фильтры Google

Сообщение Босяк » 19 апр 2013, 08:33

Информация о фильтре Bombing будет полезна для начинающих вебмастеров, которые думают что, купив сразу много ссылок, они попадут в ТОП поисковых систем. В общем, чтобы не попасть под этот фильтр необходимо постепенно наращивать ссылочную массу, потому что иначе поисковая машина от Google не поверит вам, что вы смогли белыми методами или честным путём набрать большое количество ссылок близкой по вашей тематике. Длительность действия фильтра неизвестно и нигде вы это не узнаете. А вот выход после исправления всех претензий займёт у вас в районе двух месяцев. Также под этот фильтр попадают сайты у которых дубли одних и тех же анкоров встречаются очень часто.
Аватар пользователя
Босяк
Продвинутый Юзер
 
Сообщений: 287
Зарегистрирован: 28 сен 2012, 06:36

Re: Фильтры Google

Сообщение АНТИгуру » 19 апр 2013, 11:27

Over Optimization (Чрезмерная оптимизация) + Panda (Панда) - иначе сказать не могу. Потому что алгоритм Панда наказывает за внутреннюю переоптимизацию. Не следует злоупотреблять ключевиками. Сейчас это уже не модно и все проценты, о которых спрашивают новички, роли не играют. Это подтверждают и специалисты Гугл. Они говорят, что достатчоно выделить ключевое слово в тексте 1 раз, чтобы Гугл понял какое слово важно в тексте. Конечно сам текст тоже должен быть релевантным. Черезмерное использование ключвых слов в тексте и их выделение может привести к санкциям.

Также не следует использовать перечисление ключевых слов в тайтле и мета описании страницы. Част бывает, что страницу продвигают по 2-3-4 и более запросов и все ключи при этом указывают в титле и мета описании. Так вот за это Гугл тоже наказывает.

Неуникальный контент тоже сигнал для зверька Гугла.

Использование нерелевантных внутренних ссылок на страницы сайта - тоже сигнал для алгоритма. Т.е. если ссылка со страницы названа "розовый слон", при переходе на страницы она оказыватся о "красных труселях", за это тоже может последовать наказание.

В быстроменяющейся сфере СЕО люди начали понимать, что лучше недооптимизировать, нежели переоптимизировать. Как правило, алгоритм наказывает не за одно нарушение, а за ряд нарушенй. Ведь идеальных сайтов фактически не существует. Поэтому какой-то один косяк Гугл точно простит. Но не стоит злоупотреблять. Это касаемо СДЛ. Но всё, конечно же, на личное усмотрение каждого. Удачи в продвижении.

Google-Panda.jpg
Google-Panda.jpg (24.07 KiB) Просмотров: 6769
Аватар пользователя
АНТИгуру
Продвинутый Юзер
 
Сообщений: 777
Зарегистрирован: 16 дек 2012, 12:09
Откуда: Катманду

Re: Фильтры Google

Сообщение АНТИгуру » 22 апр 2013, 10:14

Penguin (Пингвин) - самый нашумевший алгоритм гугла 2012 года. Когда он был запущен, СЕО сообщество сотряслось от увиденного. Огромная масса сайтов канула в лету. Как крупные, так и мелкие.

По словам Гугла, Пингвин наказывает за использование черных методов продвижения сайтов в ПС. Проще говоря, Пингвин наказывает за ссылки и переспам ключевых слов. Т.е. теперь покупать ссылки стало опасно. При этом надо чутко следить за ссылочным профилем и тупо "бомбить" старницы, покупая ссылки с точным вхождением ключа, уже не проканывает. Надо делать разбавление ключей и ставить безанкорные ссылки.

В общем Пингвин - это самый жесткий фильтр не только потому, что никто точно не знает как он работает и какой процент точного вхождения можно использовать, а ещё потому, что из-под него ещё никому не удалось выйти. На данный момент закрепилось мнение, что если сайт покарал Пингвин, то на него можно спокойно забить и делать новый. Как будут обстоять дела в будущем пока не известно.

gpeng.png
gpeng.png (80.01 KiB) Просмотров: 6739
Аватар пользователя
АНТИгуру
Продвинутый Юзер
 
Сообщений: 777
Зарегистрирован: 16 дек 2012, 12:09
Откуда: Катманду


Вернуться в Внешние факторы влияющие на ранжирование сайтов в поисковых системах

Кто сейчас на форуме

Сейчас этот форум просматривают: нет зарегистрированных пользователей и гости: 0

cron