?

Log in

No account? Create an account
09.Он же
Brenik brenik
Previous Entry Поделиться Next Entry
Поисковый алгоритм Google Пингвин

Дорогие друзья, сегодня я хочу поделиться с вами своими мыслями по поводу нового поискового алгоритма Google Penguin.

На мой взгляд, впервые новый алгоритм Google активно себя проявил в рунете. До этого, по большому счету, алгоритмы Гугла нас практически не касались, зато в англоязычном сегменте интернета многие вебмастера и оптимизаторы ощущали эффект в полной мере.

О чем это говорит? О том, что продвижение в Google становится более сложным. До недавнего времени считалось, что вывести сайт в топ 10 этого поисковика намного легче, чем сделать это в Яндексе.

Я еще думаю, что раньше алгоритмы Google в рунете не были задействованы в полной мере потому, что наш рынок не представлял особого интереса для этой поисковой системы. Сейчас ситуация меняется.



Сегодня рунет - самый крупный и быстрорастущий рынок в Европе по количеству интернет пользователей. Во многом это обусловлено ростом числа пользователей в регионах и увеличения доли мобильного интернета (за счет удешевления тарифов).

Хватит скучных вступлений! Я чувствую эту мысль в головах владельцев сайтов, которые пострадали от последнего алгоритма Google Penguin :) . Для успокоения :) советую посмотреть это видео Мэтта Каттса, сотрудника Google, с моими переводом - Как быстро Google снимает фильтры с сайта.
http://youtu.be/ES01L4xjSXE

На просторах интернета уже есть довольно много статей по поводу того, как вывести сайт на прежние позиции, если он пострадал от Пингвина.

Я не стал спешить с выводами и все это время наблюдал за ситуацией и изучал причины, по которым посещаемость и позиции сайтов могли понизиться. На нескольких сайтах я применил методы, которые, на мой взгляд, могли помочь исправить ситуацию.

В сегодняшнем посте я хочу поделиться с вами некоторыми выводами, которые я сделал, изучая сайты, пострадавшие и не пострадавшие от алгоритма Гугл Пингвин.

В одной из следующих статей я опишу те методы, которые дали эффект в плане восстановления позиций и посещаемости.

Вот мои предварительные выводы.

Сайты с посещаемостью более 500-1000 человек в сутки менее подвержены воздействию Google Penguin

Изучая пострадавшие сайты, я выявил закономерность - ресурсы с суточной посещаемостью в 500-1000 и более человек почти не испытали на себе негативного воздействия нового алгоритма Гугла.

С одной стороны, получается замкнутый круг - как увеличить посещаемость, когда она упала вместе с позициями?

С другой, по низко- и среднечастотным запросам вполне можно наращивать количество посетителей. Основной метод для этого - публикация больших о объемных материалов. Раздел статей или блог можно вести на ресурсе любого типа - интернет-магазине, корпоративном сайте, сообществе, новостном сайте, сайте-визитке и т.д.

Google Пингвин перестал учитывать часть внешних ссылок

Я пришел к выводу, что одним из проявлений нового алгоритма стало то, что часть внешних ссылок на сайты перестала учитываться. Это привело к падению посещаемости и позиций у некоторых ресурсов.

На мой взгляд, в первую очередь потеряли свою эффективность некоторые покупные ссылки и ссылки с сайтов, на которые пользователи могут добавить ссылки без предварительной модерации (заспамленные и заброшенные блоги и форумы).

Возможно, стали эффективнее определяться покупные ссылки.

Но, скорее всего, вычисление покупных ссылок для Google всегда не было проблемой, просто сейчас он перешел к кардинальным действиям по борьбе с ними, и часть из них перестала влиять на результаты поиска.

Авторство в Google снижает риск

Я заметил, что сайты, у которых подтверждено авторство в Google (то есть в результатах поиска выводится фото автора), менее подвержены риску.

Приведу скриншот результатов выдачи с расширенным описанием блога shakin.ru и фотографией. Там я в модной каске и стильных очках на нефтяном месторождении под Сургутом ;) :

Думаю, причина тут проста и логична - авторство владельцы сайтов будут подтверждать только для тех своих ресурсов, которыми активно занимаются. Для второстепенных и заброшенных сайтов никто этого делать не будет.

Сайты с числом страниц менее 20-30 более подвержены воздействию Google Пингвина

Просмотрев сотни сайтов, я заметил еще одну особенность - у сайтов с небольшим количеством страниц больше риск пострадать от алгоритма.

Ресурсов с сотнями и тысячами страниц намного меньше среди тех, у которых понизились позиции и посещаемость.

Сайты, которые давно не обновлялись, чаще подвержены риску

Это еще один вывод, который я сделал. В этом есть логика. Если сайт регулярно обновляется, то можно считать, что его владелец заботится о нем и развивает.

Если обновлений на сайте нет долгие месяцы и годы - он мало кому интересен.

Сайты с хорошими поведенческими факторами пострадали меньше

Основные поведенческие факторы - это количество просмотров страниц на посетителя и время нахождения пользователей на сайте. Чем больше страниц просматривают на вашем сайте и чем дольше время, в течение которого посетители находятся на Вашем ресурсе, тем лучше поведенческие.

Ресурсы с хорошими поведенческими факторами, на мой взгляд, в меньшей степени пострадали от Google Penguin.

Контентные сайты с большими по размеру текстами пострадали в меньшей степени

Ресурсы, которые публикуют объемные статьи (от 4000-6000 символов), пострадали намного меньше, чем сайты с небольшими по размеру текстами.

На мой взгляд, это хорошо. Чем больше статья, тем больше вероятность, что владелец заботится о развитии и наполнении своего сайта.

Естественно, я веду речь об уникальном контенте.

Сквозные ссылки как работали, так и продолжают работать

Сквозные ссылки, то есть ссылки со всех страниц сайтов, продолжают давать хороший эффект при продвижении в Google.

Думаю, одна из причин того, что их эффективность не понизилась при Пингвине, заключается в том, что такие ссылки нельзя купить на сервисах и биржах. Их можно купить, только договорившись напрямую с владельцем сайта либо в соответствующих разделах на форумах.

Какие факторы не влияют

1. Плотность поисковых запросов в тексте и метатегах - судя по сегодняшним топам в разных тематиках, хорошие позиции могут занимать сайты с самой разной плотностью ключевых слов.

2. Дубли страниц - я думаю, что сайты, на которых дублированный контент не закрыт специально от индексации, вполне могут продолжать занимать топы Google. Большинство современных движков сайтов генерируют определенное количество дублированного контента в пределах сайта, и поисковые системы об этом прекрасно знают.

Окончательные выводы делать рано

Я уверен, что новый алгоритм Google Пингвин будет постоянно дорабатываться и совершенствоваться, и кое-какие моменты могут измениться или появятся новые.

Ссылка


Читайте также:



Метки: ,

promo brenik december 31, 2016 23:09 60
Buy for 100 tokens

В Яндекс сложнее вывести, чем в Гугл? О_о Первый раз такое слышу. В Гугле столько сил приходится прикладывать, чтобы попасть хотя бы на первую страницу. Заходишь при этом на Яндекс и сразу же видишь сайт в ТОП-3.

Edited at 2012-06-06 10:07 (UTC)

я пока сам токо изучаю вопрос.
про пингвина только на днях узнал...

Просто если статья из какого-нибудь российского источника, то, возможно, у них действительно в Яндекс сложнее пробиться. В Украине Яндекс в 3 раза менее популярен, чем Гугл. И почти все сайты в СЕО-оптимизации ориентируются все же на Гугл.
Мне нравится, что Гугл улучшает свои методы поиска. Может, действительно в ТОПе будет больше хороших, качественных сайтов.

приходтся ориентироваться и на яндекс, хотя мне гугл больше нравится...
На Украине - у меня никто из знакомых не использует яндекс как поисковик.

Аналогично. Конечно, полностью отбрасывать Яндекс нельзя, но все же Гугл рулит)

Я вообще с появлением гугла перестала пользоваться любыми другими поисковиками

гугл лучший однозначно!!!!

3000-ТОП

Ваша запись появилась в рейтинге 3000-ТОП. Отслеживать судьбу записи вы можете по этой ссылке.
Подписаться на рассылку или отказаться от рассылки можно здесь.