Brenik (brenik) wrote,
Brenik
brenik

Поисковый алгоритм Google Пингвин

Дорогие друзья, сегодня я хочу поделиться с вами своими мыслями по поводу нового поискового алгоритма Google Penguin.

На мой взгляд, впервые новый алгоритм Google активно себя проявил в рунете. До этого, по большому счету, алгоритмы Гугла нас практически не касались, зато в англоязычном сегменте интернета многие вебмастера и оптимизаторы ощущали эффект в полной мере.

О чем это говорит? О том, что продвижение в Google становится более сложным. До недавнего времени считалось, что вывести сайт в топ 10 этого поисковика намного легче, чем сделать это в Яндексе.

Я еще думаю, что раньше алгоритмы Google в рунете не были задействованы в полной мере потому, что наш рынок не представлял особого интереса для этой поисковой системы. Сейчас ситуация меняется.



Сегодня рунет - самый крупный и быстрорастущий рынок в Европе по количеству интернет пользователей. Во многом это обусловлено ростом числа пользователей в регионах и увеличения доли мобильного интернета (за счет удешевления тарифов).

Хватит скучных вступлений! Я чувствую эту мысль в головах владельцев сайтов, которые пострадали от последнего алгоритма Google Penguin :) . Для успокоения :) советую посмотреть это видео Мэтта Каттса, сотрудника Google, с моими переводом - Как быстро Google снимает фильтры с сайта.
http://youtu.be/ES01L4xjSXE

На просторах интернета уже есть довольно много статей по поводу того, как вывести сайт на прежние позиции, если он пострадал от Пингвина.

Я не стал спешить с выводами и все это время наблюдал за ситуацией и изучал причины, по которым посещаемость и позиции сайтов могли понизиться. На нескольких сайтах я применил методы, которые, на мой взгляд, могли помочь исправить ситуацию.

В сегодняшнем посте я хочу поделиться с вами некоторыми выводами, которые я сделал, изучая сайты, пострадавшие и не пострадавшие от алгоритма Гугл Пингвин.

В одной из следующих статей я опишу те методы, которые дали эффект в плане восстановления позиций и посещаемости.

Вот мои предварительные выводы.

Сайты с посещаемостью более 500-1000 человек в сутки менее подвержены воздействию Google Penguin

Изучая пострадавшие сайты, я выявил закономерность - ресурсы с суточной посещаемостью в 500-1000 и более человек почти не испытали на себе негативного воздействия нового алгоритма Гугла.

С одной стороны, получается замкнутый круг - как увеличить посещаемость, когда она упала вместе с позициями?

С другой, по низко- и среднечастотным запросам вполне можно наращивать количество посетителей. Основной метод для этого - публикация больших о объемных материалов. Раздел статей или блог можно вести на ресурсе любого типа - интернет-магазине, корпоративном сайте, сообществе, новостном сайте, сайте-визитке и т.д.

Google Пингвин перестал учитывать часть внешних ссылок

Я пришел к выводу, что одним из проявлений нового алгоритма стало то, что часть внешних ссылок на сайты перестала учитываться. Это привело к падению посещаемости и позиций у некоторых ресурсов.

На мой взгляд, в первую очередь потеряли свою эффективность некоторые покупные ссылки и ссылки с сайтов, на которые пользователи могут добавить ссылки без предварительной модерации (заспамленные и заброшенные блоги и форумы).

Возможно, стали эффективнее определяться покупные ссылки.

Но, скорее всего, вычисление покупных ссылок для Google всегда не было проблемой, просто сейчас он перешел к кардинальным действиям по борьбе с ними, и часть из них перестала влиять на результаты поиска.

Авторство в Google снижает риск

Я заметил, что сайты, у которых подтверждено авторство в Google (то есть в результатах поиска выводится фото автора), менее подвержены риску.

Приведу скриншот результатов выдачи с расширенным описанием блога shakin.ru и фотографией. Там я в модной каске и стильных очках на нефтяном месторождении под Сургутом ;) :

Думаю, причина тут проста и логична - авторство владельцы сайтов будут подтверждать только для тех своих ресурсов, которыми активно занимаются. Для второстепенных и заброшенных сайтов никто этого делать не будет.

Сайты с числом страниц менее 20-30 более подвержены воздействию Google Пингвина

Просмотрев сотни сайтов, я заметил еще одну особенность - у сайтов с небольшим количеством страниц больше риск пострадать от алгоритма.

Ресурсов с сотнями и тысячами страниц намного меньше среди тех, у которых понизились позиции и посещаемость.

Сайты, которые давно не обновлялись, чаще подвержены риску

Это еще один вывод, который я сделал. В этом есть логика. Если сайт регулярно обновляется, то можно считать, что его владелец заботится о нем и развивает.

Если обновлений на сайте нет долгие месяцы и годы - он мало кому интересен.

Сайты с хорошими поведенческими факторами пострадали меньше

Основные поведенческие факторы - это количество просмотров страниц на посетителя и время нахождения пользователей на сайте. Чем больше страниц просматривают на вашем сайте и чем дольше время, в течение которого посетители находятся на Вашем ресурсе, тем лучше поведенческие.

Ресурсы с хорошими поведенческими факторами, на мой взгляд, в меньшей степени пострадали от Google Penguin.

Контентные сайты с большими по размеру текстами пострадали в меньшей степени

Ресурсы, которые публикуют объемные статьи (от 4000-6000 символов), пострадали намного меньше, чем сайты с небольшими по размеру текстами.

На мой взгляд, это хорошо. Чем больше статья, тем больше вероятность, что владелец заботится о развитии и наполнении своего сайта.

Естественно, я веду речь об уникальном контенте.

Сквозные ссылки как работали, так и продолжают работать

Сквозные ссылки, то есть ссылки со всех страниц сайтов, продолжают давать хороший эффект при продвижении в Google.

Думаю, одна из причин того, что их эффективность не понизилась при Пингвине, заключается в том, что такие ссылки нельзя купить на сервисах и биржах. Их можно купить, только договорившись напрямую с владельцем сайта либо в соответствующих разделах на форумах.

Какие факторы не влияют

1. Плотность поисковых запросов в тексте и метатегах - судя по сегодняшним топам в разных тематиках, хорошие позиции могут занимать сайты с самой разной плотностью ключевых слов.

2. Дубли страниц - я думаю, что сайты, на которых дублированный контент не закрыт специально от индексации, вполне могут продолжать занимать топы Google. Большинство современных движков сайтов генерируют определенное количество дублированного контента в пределах сайта, и поисковые системы об этом прекрасно знают.

Окончательные выводы делать рано

Я уверен, что новый алгоритм Google Пингвин будет постоянно дорабатываться и совершенствоваться, и кое-какие моменты могут измениться или появятся новые.

Ссылка


Читайте также:



Tags: seo, ь
Subscribe
promo brenik december 31, 2016 23:09 60
Buy for 100 tokens
  • Post a new comment

    Error

    default userpic

    Your IP address will be recorded 

    When you submit the form an invisible reCAPTCHA check will be performed.
    You must follow the Privacy Policy and Google Terms of use.
  • 8 comments