Рекомендательные системы стали невидимым двигателем современных соцсетей: обещают идеально подобранную ленту, но порождают зависимость и токсичность. Как алгоритмы захватывают внимание, почему от них нельзя отказаться без риска хаоса и при чем здесь законопроект о штрафах — разбирает корреспондент Sostav Анна Рукавишникова.
Принцип работы рекомендательных систем
TikTok — один из показательных примеров того, как развлекательная платформа вытесняет саму идею социальной сети. Общение отходит на второй план: контент создается и потребляется по повторяющимся трендовым схемам, а платформа становится бесконечным потоком.
В основе — нейросеть, которая собирает данные о пользователе: понравившиеся видео, репосты, комментарии, длительность просмотра. Алгоритм отслеживает два показателя: промежуток между сессиями и их продолжительность. Цель — сократить первое и увеличить второе. Именно здесь рекомендательная система превращается в инструмент удержания: лента настраивается настолько точно, что прервать просмотр становится физически сложно. Формируется зависимость от контента.
Почему от алгоритмов нельзя просто отказаться
Рекомендательная система — не просто инструмент подбора контента, она формирует контекст, в котором пользователи оценивают достоверность полученной информации. Отключить систему без последствий не получается. Исследование, описанное NewScientist, проверило шесть стратегий ухода от системы — ни одна не дала положительного результата. Некоторые, напротив, усилили распространение дезинформации.
Обратная сторона присутствия в ленте не менее тревожна. Сотни разнородных мнений, которые пользователь обрабатывает ежедневно, создают когнитивную перегрузку — а к ней человеческое мышление эволюционно не приспособлено. Следствие — токсичность и агрессия в сетевом общении. Корень проблемы — не в настройках алгоритмов, а в их природе: оптимизация рекомендаций не устраняет токсичность, потому что последняя встроена в саму логику удержания.
Темные паттерны
Темными паттернами называют намеренно вводящие в заблуждение интерфейсные элементы. Они работают в шести типовых формах:
- скрытое расположение настроек, которые отменяют автопродления подписки;
- намеренная сложность самого процесса отмены;
- навязчивые запросы на подписку, доступ к контактам и уведомлениям;
- принудительный ввод платежных данных для активации бесплатного периода;
- искусственный ажиотаж вокруг продукта;
- навязывание «выгодных предложений» через поп-апы и баннеры.
В рекомендательных системах паттерны работают иначе: они не просят явного согласия, а управляют вниманием через архитектуру ленты — ставя пользователя перед выбором принять их или покинуть платформу.
Что бренду делать с темными паттернами
Паттерны работают против бренда в двух сценариях: Применение паттернов платформой размещения и воспроизведение брендом их в собственных коммуникациях. Оба варианта ведут к одному результату — потере доверия. Проверить собственные точки контакта с пользователем помогает один вопрос по каждой из них: человек сделал это по собственному желанию или потому, что выбора не было?
- Отписка от рассылки. Путь длиннее двух шагов или заканчивающийся экраном удержания — это давление, а не UX. Упростите до одного клика и замерьте качество оставшейся базы: как правило, она становится чище, а открываемость растет.
- Пробный доступ. Если для активации бесплатного периода требуется карта — пользователь уже чувствует ловушку. Укажите дату первого списания прямо на экране подтверждения: это снимает тревогу и снижает отток после окончания пробного периода.
- Поп-апы и баннеры. Больше одного запроса в первые 30 секунд визита — это конкуренция за внимание внутри собственного же интерфейса. Оставьте один приоритетный запрос, остальные уберите.
- Искусственный дефицит. Таймеры и плашки «осталось 3 места» аудитория маркетинговых платформ давно распознает с первого взгляда. Если дефицит реален — объясните почему. Если нет — не обманывайте.
Два вопроса, которые стоит задать подрядчику или площадке напрямую:
- По какому сигналу алгоритм продвигает контент — по вовлеченности или по досмотру? Платформы, оптимизированные под вовлеченность, размещают рекламу рядом с провокационным контентом: он собирает больше реакций. В отчете по CTR (кликабельности) это не отразится, но восприятие бренда изменится.
- Есть ли у бренда прямой канал связи с аудиторией помимо платформы? Рекомендательная лента — арендованная аудитория. Алгоритм меняет приоритеты без предупреждения, и охват может обнулиться. Страховка — собственная email-база или собственное медиа.
Ответ власти
В декабре 2025 года Государственная дума приняла в первом чтении законопроект о штрафах за нарушения в работе рекомендательных систем. Согласно проекту, владелец сервиса будет обязан публиковать:
- правила применения рекомендательных технологий;
- адрес электронной почты для юридических обращений;
- имя физического лица или наименование юридического.
Кроме того, ресурсы будут обязаны проводить авторизацию пользователей с территории России. Штрафы за нарушение каждого пункта: 10 000−20 000 рублей для физических лиц, 30 000−50 000 — для должностных, 500 000−700 000 — для юридических. Повторное нарушение удваивает сумму.
Бизнес отреагировал сдержанно: компании считают формулировки неточными и опасаются претензий по формальным основаниям.
Управляют ли алгоритмы нашими взглядами
Алгоритмы удерживают внимание повсюду: в лентах новостных ресурсов и лайфстайл-медиа, в каталогах маркетплейсов. Но есть вопрос принципиально иного порядка: формируют ли они убеждения? Исследование "The Effect of People Recommenders on Echo Chambers and Polarization" дает взвешенный ответ.
Люди склонны выбирать собеседников с похожими взглядами — в жизни и в сети. Рекомендательные технологии лишь ускоряют этот процесс, подбирая похожих людей и контент эффективнее, чем человек делал бы это самостоятельно. Следствие — усиление уже существующих позиций внутри групп.
Принципиальный вывод исследователей: если аудитория ресурса изначально однородна, значимой поляризации не происходит. Алгоритмы не создают разделение — они отражают то, что уже есть в обществе. Нейросети управляют вниманием, но не взглядами.
Рекомендательные системы — сложный механизм, влияющий на время, психологическое состояние и сетевое поведение пользователей. Их логика заточена под удержание любой ценой, что ведет к цифровой зависимости и информационной перегрузке. Регуляторные меры и попытки перенастроить алгоритмы пока не меняют сути: природа систем остается неизменной.
Исследования, впрочем, дают повод для осторожного оптимизма: алгоритмы зеркалят существующую социальную динамику, а не создают новую. Мы управляемы не искусственным интеллектом, а собственным вниманием, которое он научился захватывать точнее нас самих.
