Плевать хотел Яндекс на уникальный контент

0

Разговоры об уникальном контенте, о том что он очень важен для продвижения сайтов в отечественной поисковой системе всегда актуальны. Практика показывает, что не весь уник лучше копипасты (и я сам это заметил). Так, этот блог — полностью на уникальном тексте. Практически 100% уникального контента: 300+ статей, имеет посещаемость порядка 100 уников в сутки. Другие же сайты, полностью на копипасте от 3000 материалов, имеют около 500 уникальных посетителей в сутки. И тут дело не только в количестве материалов. в процентном соотношении, страниц/посетителей, этот блог, безусловно, выигрывает. Но, если учитывать что там — создал парсер и забыл, а тут — затраты на контент, личное время итому подобное.. В общем — читай материал.

Допустим сайт регулярно обновляет материалы, публикует новые статьи. Причем уникальность текстов всегда проверяется разными сервисами и держится на высоте. И оптимизация кода сайта тоже вроде в порядке, используются нужные ключи в оптимальном количестве и в подходящих местах. Вроде все отлично, даже странички начали быстро продвигаться по выдаче.

Но в определенный момент вдруг по непонятным причинам выскакивают проблемы одна за одной. И посещаемость начинает падать, и индексируемость снижается, применяются различные санкции. Но в чем же причина?

Скорей всего сайт попадает под действие фильтра «смысловой неуникальности»

Скорей всего обсуждаемая в статьях информация не является уникальной. Это распространенное явление для ресурсов, которые часто используют рерайтинг. Если подобная информация уже выкладывалась на других площадках, то по мнению поисковых роботов она просто не заслуживает верхних позиций в выдаче.

Так что машинная уникальность текстов более не является достаточной для качественного контента. Теперь Яндексу нужна и смысловая уникальность.

Но как же робот может вычислить смысл текстов и понять где эта информация уже выкладывалась, оценить уровень оригинальности? Ну, есть несколько объяснений этому явлению.

Ассесоры

Тут просто подключаются люди, которые оценивают качество сайтов по определенным параметрам. В том числе оценивается и смысловая уникальность текстов, ведь только человек может различать смысл статей.

Доносы конкурентов

Владельцы интернет-площадок постоянно следят за своими конкурентами. Если найдется хоть какая-то дыра, то эта информация будет использоваться для собственной выгоды. Так, если сайт с неуникальным по смыслу контентом выберется в топ вскоре его конкуренты доложат в службу поддержки о факте кражи текстов.

Семантический анализ текста

Это уже автоматическая работа поисковых роботов. Они просто сравнивают разные тексты и ищут факты использования синонимов для уникализации текстов. Если такие нарушения будут зафиксированы, значит злоумышленника накажут.

Какие сайты находятся в зоне риска

Обычно это те сайты, которые создаются специально для быстрого заработка. Вебмастер выбирает денежную нишу, подбирает семантическое ядро для дорогих запросов, затачивает тексты под эти запросы и после пытается выжать из сайта максимум прибыли. Здесь в ход идут различные способы монетизации.

Чтобы сайт успешно работал нужно постоянно заботиться о своих посетителях, стараться писать качественный контент. В этом случае вероятность попадания под санкции снижается до минимума.

Поделиться в соц. сетях

Опубликовать в Google Buzz
Опубликовать в Google Plus
Опубликовать в LiveJournal
Опубликовать в Мой Мир
Опубликовать в Одноклассники
где оно?

Обсудим?

%d такие блоггеры, как:
201 queries in 1,578 seconds.