Sostav.ru
Москва, ул. Полковая 3 стр.3, офис 120
© Sostav независимый проект брендингового агентства Depot
Использование опубликованных материалов доступно только при указании источника.

Дизайн сайта - Liqium

18+
13.05.2026 в 16:00

Диктатура рекомендательных алгоритмов: от «А» до...

Как рекомендательные ленты используют ИИ и диктуют поведение пользователям

1

Рекомендательные системы стали невидимым двигателем современных соцсетей: обещают идеально подобранную ленту, но порождают зависимость и токсичность. Как алгоритмы захватывают внимание, почему от них нельзя отказаться без риска хаоса и при чем здесь законопроект о штрафах — разбирает корреспондент Sostav Анна Рукавишникова.

Принцип работы рекомендательных систем

TikTok — один из показательных примеров того, как развлекательная платформа вытесняет саму идею социальной сети. Общение отходит на второй план: контент создается и потребляется по повторяющимся трендовым схемам, а платформа становится бесконечным потоком.

В основе — нейросеть, которая собирает данные о пользователе: понравившиеся видео, репосты, комментарии, длительность просмотра. Алгоритм отслеживает два показателя: промежуток между сессиями и их продолжительность. Цель — сократить первое и увеличить второе. Именно здесь рекомендательная система превращается в инструмент удержания: лента настраивается настолько точно, что прервать просмотр становится физически сложно. Формируется зависимость от контента.

Почему от алгоритмов нельзя просто отказаться

Рекомендательная система — не просто инструмент подбора контента, она формирует контекст, в котором пользователи оценивают достоверность полученной информации. Отключить систему без последствий не получается. Исследование, описанное NewScientist, проверило шесть стратегий ухода от системы — ни одна не дала положительного результата. Некоторые, напротив, усилили распространение дезинформации.

Обратная сторона присутствия в ленте не менее тревожна. Сотни разнородных мнений, которые пользователь обрабатывает ежедневно, создают когнитивную перегрузку — а к ней человеческое мышление эволюционно не приспособлено. Следствие — токсичность и агрессия в сетевом общении. Корень проблемы — не в настройках алгоритмов, а в их природе: оптимизация рекомендаций не устраняет токсичность, потому что последняя встроена в саму логику удержания.

Темные паттерны

Темными паттернами называют намеренно вводящие в заблуждение интерфейсные элементы. Они работают в шести типовых формах:

  • скрытое расположение настроек, которые отменяют автопродления подписки;
  • намеренная сложность самого процесса отмены;
  • навязчивые запросы на подписку, доступ к контактам и уведомлениям;
  • принудительный ввод платежных данных для активации бесплатного периода;
  • искусственный ажиотаж вокруг продукта;
  • навязывание «выгодных предложений» через поп-апы и баннеры.

В рекомендательных системах паттерны работают иначе: они не просят явного согласия, а управляют вниманием через архитектуру ленты — ставя пользователя перед выбором принять их или покинуть платформу.

Что бренду делать с темными паттернами

Паттерны работают против бренда в двух сценариях: Применение паттернов платформой размещения и воспроизведение брендом их в собственных коммуникациях. Оба варианта ведут к одному результату — потере доверия. Проверить собственные точки контакта с пользователем помогает один вопрос по каждой из них: человек сделал это по собственному желанию или потому, что выбора не было?

  • Отписка от рассылки. Путь длиннее двух шагов или заканчивающийся экраном удержания — это давление, а не UX. Упростите до одного клика и замерьте качество оставшейся базы: как правило, она становится чище, а открываемость растет.
  • Пробный доступ. Если для активации бесплатного периода требуется карта — пользователь уже чувствует ловушку. Укажите дату первого списания прямо на экране подтверждения: это снимает тревогу и снижает отток после окончания пробного периода.
  • Поп-апы и баннеры. Больше одного запроса в первые 30 секунд визита — это конкуренция за внимание внутри собственного же интерфейса. Оставьте один приоритетный запрос, остальные уберите.
  • Искусственный дефицит. Таймеры и плашки «осталось 3 места» аудитория маркетинговых платформ давно распознает с первого взгляда. Если дефицит реален — объясните почему. Если нет — не обманывайте.

Два вопроса, которые стоит задать подрядчику или площадке напрямую:

  • По какому сигналу алгоритм продвигает контент — по вовлеченности или по досмотру? Платформы, оптимизированные под вовлеченность, размещают рекламу рядом с провокационным контентом: он собирает больше реакций. В отчете по CTR (кликабельности) это не отразится, но восприятие бренда изменится.
  • Есть ли у бренда прямой канал связи с аудиторией помимо платформы? Рекомендательная лента — арендованная аудитория. Алгоритм меняет приоритеты без предупреждения, и охват может обнулиться. Страховка — собственная email-база или собственное медиа.

Ответ власти

В декабре 2025 года Государственная дума приняла в первом чтении законопроект о штрафах за нарушения в работе рекомендательных систем. Согласно проекту, владелец сервиса будет обязан публиковать:

  • правила применения рекомендательных технологий;
  • адрес электронной почты для юридических обращений;
  • имя физического лица или наименование юридического.

Кроме того, ресурсы будут обязаны проводить авторизацию пользователей с территории России. Штрафы за нарушение каждого пункта: 10 000−20 000 рублей для физических лиц, 30 000−50 000 — для должностных, 500 000−700 000 — для юридических. Повторное нарушение удваивает сумму.

Бизнес отреагировал сдержанно: компании считают формулировки неточными и опасаются претензий по формальным основаниям.

Управляют ли алгоритмы нашими взглядами

Алгоритмы удерживают внимание повсюду: в лентах новостных ресурсов и лайфстайл-медиа, в каталогах маркетплейсов. Но есть вопрос принципиально иного порядка: формируют ли они убеждения? Исследование "The Effect of People Recommenders on Echo Chambers and Polarization" дает взвешенный ответ.

Люди склонны выбирать собеседников с похожими взглядами — в жизни и в сети. Рекомендательные технологии лишь ускоряют этот процесс, подбирая похожих людей и контент эффективнее, чем человек делал бы это самостоятельно. Следствие — усиление уже существующих позиций внутри групп.

Принципиальный вывод исследователей: если аудитория ресурса изначально однородна, значимой поляризации не происходит. Алгоритмы не создают разделение — они отражают то, что уже есть в обществе. Нейросети управляют вниманием, но не взглядами.

Рекомендательные системы — сложный механизм, влияющий на время, психологическое состояние и сетевое поведение пользователей. Их логика заточена под удержание любой ценой, что ведет к цифровой зависимости и информационной перегрузке. Регуляторные меры и попытки перенастроить алгоритмы пока не меняют сути: природа систем остается неизменной.

Исследования, впрочем, дают повод для осторожного оптимизма: алгоритмы зеркалят существующую социальную динамику, а не создают новую. Мы управляемы не искусственным интеллектом, а собственным вниманием, которое он научился захватывать точнее нас самих.

Обсудить с другими читателями:
Ваш браузер устарел
На сайте Sostav.ru используются технологии, которые не доступны в вашем браузере, в связи с чем страница может отображаться некорректно.
Чтобы страница отображалась корректно, обновите ваш браузер.