Авторизация

Забыли пароль?
 

Еще не зарегистрированы?

Регистрация

Автор: seomul (Andrey SEO)

Новый алгоритм Яндекса выкидывает из индекса качественные сайты?

1 Мар 2012, 20:48

Новый алгоритм Яндекса выкидывает из индекса качественные сайты?Анализируя свой блог при помощи панели для веб-мастеров от поисковой системы Яндекса, заметил одну очень неприятную вещь. Количество страниц моего блога в индексе Яндекса стало резко уменьшаться. И что самое главное, выпадают из индекса страницы с уникальным контентом.

 

Если сначала страниц в индексе было 70, то теперь, на сегодняшний день осталось только 49. Это меня не могло не встревожить. Мало того, что Яндекс на точное количество страниц в индексе постоянно глючит, то сначала показывает меньше, то потом больше или наоборот, так теперь еще эта напасть.

В специальном комментарии для сайта SearchEngines.ru руководитель группы разработки робота компании Яндекса некий Роман Грачёв сказал: «Сокращение количества проиндексированных Яндексом страниц связано с внедрением нового алгоритма удаления дублей. Это внедрение позволит показывать на выдаче больше разнообразного контента».

Итак, новый алгоритм, который призван очистить поисковою выдачу от дублированного контента. С одной стороны можно хлопать в ладоши и умиляться, как Яндекс "пытается совершенствоваться" ради пользователей. С другой стороны многие веб-мастера с ужасом ждут, когда этот алгоритм заработает в полную силу. Потому-что зная Яндекс, можно твердо утверждать, что это добром не кончиться. Сколько действительно качественных сайтов - СДЛ ( сайтов для людей ) пострадало от фильтра АГС, хотя этот фильтр должен был очистить Интернет именно от ГС ( говно сайтов ). Но как показывает реальное положение вещей, сайты на копипасте надежно сидят в Яндексе, а вылетают из него действительно качественные ресурсы.

Само собой новый алгоритм очистит сеть от дублированного контента и прочей ерунды... стоп... тут, друзья мои, насчет этого меня гложут сильные сомнения. Я уверен, что как торчали в индексе сайты на копипасте, генерированном контенте и синонимайзе, так и будут торчать, а вот сайты с уникальным и качественным контентом могут при этом сильно пострадать. И лечения от этой "болезни" я пока не знаю. Оптимизаторов и веб-мастеров больше всего беспокоит та точность, благодаря которой Яндекс будет определять сайты с дублированным и оригинальным контентом. И точность поисковой системы веб-мастера и оптимизаторы оценивают примерно в 15-25%. При такой точности в трезвом состоянии даже пальцем в нос себе не попасть при закрытых глазах, а что уже говорить о самом Яндексе.

Для меня лично примером отличного поисковика всегда был Google. Почему буржуи так не сходят с ума, как делают это русские? С поисковой системой Google у моих сайтов никогда не было никаких проблем. Google индексировал мои сайты быстро и качественно, и никогда страницы моих сайтов не вылетали из индекса этой поисковой машины, но Яндекс... это что-то уму непостижимое. Или разработчикам алгоритмов Яндекса зарплату не платят? Может у них какие-то личные проблемы, которые они вымещают на алгоритмах своего поисковика? Ведь для меня, как блоггера, важна каждая страница в индексе поисковиков, так как на написание своих статей я трачу силы и время. Блоггинг, это вообще затратное по времени занятие. Об этом я писал в статье "Как вести блог. Вся правда о блоггинге" .Но походу Яндексу на это наплевать. Больше просто добавить нечего в этой статье. Пишу о наболевшем, внутри меня бурлит злость на Яндекс, его разработчиков и его кривые алгоритмы.