Изменение алгоритмов проверки уникальности?

2019-10-23 14:35:24 835

Для нормального продвижения сайта или блога надо, чтобы все опубликованные тексты были уникальными. Помимо новой информации и оригинальной структуры при проверке специальными программками должен получаться хороший результат. Приемлемым считается 85-90%, но лучше, если антиплагиат выдает 100% или чуть меньше.

Раньше добиться этого было сложно. Даже авторскую заметку приходилось переделывать, так как там все равно попадались совпадения. Взять те же термины или устоявшиеся выражения. Но не так давно что-то изменилосмь! У меня лично 100% уникальность стала получаться сразу. Исправлять ничего не приходится. Случайность? Решил поэкспериментировать:

  1. Взял из Википедии небольшой фрагмент.
  2. Неминожко поменял (отрерайтил) текст.
  3. Прогнал через несколько систем проверки.

Результат получился неожиданный. Все сервисы и приложения показали уникальность 100%. Рерайтинг с источника обнаружил только один. Какае выводы? Почему все ПО вдруг перестало находить совпадения и начало завышать результаты? Разработчики пожалели блоггеров и копирайтеров и пошли им на встречу? Ерунда! Значит, дело в поисковых системах. Видимо, были подчищены пазы.

Все этапы эксперимента и результаты проверки уникальности текстов, а также мои выводы я подробно описываю тут. Там же перечисляю критерии, которые влияют на результат (длина отрывка, тематика и так далее).