SEO блог
seobeginner.ru


Проблема уникализации контента

категория: Копирайтинг

14янв2009

проблема уникализации контента Сейчас, в эпоху Сапы и Адсенса, Рунет буквально забит копированным контентом и продолжает им наполняться.

Почему так происходит? Давайте посмотрим где можно взять более-менее пригодный текст:

  1. Писать самому - трудоемко (особенно если надо достаточно много контента);
  2. Покупать контент - хороший вариант, но только в том случае, если у Вас уже есть деньги и Вы готовы их вложить в проект;
  3. Стырить у сайта схожей тематики - то что доктор прописал! ;)

Авторское право в Интернете не имеет при этом никакой силы!

Яндекс и Гугл всерьез взялись за недобросовестных владельцев сайтов, ворующих контент у своих же собратьев ;)

И этому свидетельствуют вебмастера и оптимизаторы - у многих пессимизированы сайты, наполненные неуникальным контентом.
Также это ощутили владельцы партнерских магазинов, т.к. обычно вся информация берется с сайта и редко когда пользователю позволяют вносить свои изменения.

Правда, поисковые системы пока что не всегда сумеют распознавать неуникальный контент и первоисточник, и это еще более способствует свободному копированию контента с одного сайта на другой. Поисковики смогут распознать лишь полный дубль, ну и контент с минимальными изменениями исходного текста.

Некоторые говорят о проблеме поиска дублированного контента (нечетких дублей), ссылаясь на алгоритм шинглов. Предполагают, что Яндекс использует именно его, выдвигают теории по его обходу.
Но в чистом виде алгоритм шинглов неприменим из-за слишком большой ресурсоемкости. Возможно Яндекс и применяет его в в каких-то узких задачах, но не более того. Именно поэтому в выдаче Яндекса столько дублированного контента.

Но тем не менее проблема уникализации контента все же остается: страницы с неуникальным содержимым либо вообще не попадают в индекс, либо очень быстро пессимизируются поисковиками.

Решение: нужно сделать так, чтобы поисковики посчитали данный контент уникальным.
На сегодняшний день морфологические изменения текста статьи должны быть не менее 10-15%.

Варианты решения:

  • ручной рерайт
  • автоматический рерайт (синонимайзер)
  • изменение отдельных букв или структуры контента в целом
  • переводчик (переводим на английский и обратно)

Каждый из этих вариантов уникализации контента я рассмотрю более подробно в отдельных статьях.


Постовой:

А в это время Найкрис меняет 2 ссылки на одну! Очень выгодный обмен.



Поделись ссылкой на пост:

Понравилась заметка? Подписывайся на RSS


Оставлено 7 комментариев:

Сколько читаю о проблеме уникального контента и не разу не встречал конкретных адресов или методов что бы его достать, все боятся спалить тему ((((

Kubig, я постараюсь полностью раскрыть тему получения уникального контента. В данной заметке лишь указана проблема и возможные варианты ее решения.
Практические же советы будут в других статьях... Подписывайетесь на RSS ;)
diktator

А чем не решение xap? Там по 0.09$ за статью :)

В принципе хороший вариант. Но опять же покупать, не все это могут позволить себе.

Так же могу предложить новую биржу контента, только она односторонняя, т.е. контент только на продажу - paytext.ru
Я там в основном сижу в магазине статей, контент дешёвый - 50 центов за кило символов, но я видел, что они ещё пишут контент на заказ, типо по вашей тематике и критериям, по 70 центов за кило символов.
Кому интересно, заходите на paytext.ru

я пользуюсь таким способом: ищу статьи по своей тематики на английском, а потом перевожу на русский с помощью Pragma, проверяю перевод на без смысленные предложения и получается очень качественный контент.

Есть система по уникализации контента.
Используется много методов и есть возможность объединять методы.
http://generi.ru/?ref=35

Комментирование этой темы закрыто.




Проблема уникализации контента

Получать обновления

 
Подписаться на блог SeoBeginner.ru через RSS Проследовать за мной в Twitter