Sostav.ru
Москва, ул. Полковая 3 стр.3, офис 120
© Sostav независимый проект брендингового агентства Depot
Использование опубликованных материалов доступно только при указании источника.

Дизайн сайта - Liqium

18+
28.07.2025 в 18:00

Колония на Марсе и лифтофобия от Эминема: чему нас научат фейковые новости

Легко ли отличить правду от дипфейка и где начинается опасная манипуляция зрителем

Мы живем в эпоху, когда фейковые видео за сутки обманывают миллионы, а потом месяцами гуляют по сети. Генеративный ИИ делает подделки такими убедительными, что наш мозг часто не успевает включить критическое мышление. Николай Турубар, директор по развитию Articul, эксперт по технологиям и председатель кластера Искусственного интеллекта РАЭК, наглядно показывает, как легко новости и фейки переплетаются в медийном потоке, и объясняет, почему защита от дезинформации — задача, которую обязаны решать все: государство, соцсети и сами потребители контента.

Николай Турубар, Articul

Недавно в TikTok и X разлетелось фальшивое видео с премьер-министром Канады Марком Карни, в котором он якобы объявляет новые правила, ограничивающие использование личных автомобилей. За сутки ролик посмотрели миллионы пользователей, и даже после официального опровержения и удаления он продолжил распространяться через репосты. Некоторое время назад художники Билл Постерс и Дэниел Хау совместно с рекламным агентством Canny выпустили фейковое видео, в котором Марк Цукерберг сидит за столом и произносит зловещую речь о могуществе Facebook*. В США были зафиксированы случаи, когда избирателям звонили с использованием синтезированного голоса известного политика, призывающего не идти на выборы или поддержать сомнительную инициативу.

Таких историй становится все больше. И все они представляют собой серьезный сигнал: технологии генеративного ИИ становятся настолько массовыми и реалистичными, что наш критический фильтр перестает работать.

Абсурд против дипфейка

Дипфейк — это контент, «сшитый» нейросетями, где лицо или голос человека искусственно наложены на чужое тело или текст. Технологии 2025 года позволяют создавать такие видео почти любому энтузиасту. И число дипфейков в сети стремительно растет. Если в 2023 году их насчитывалось около 500 тыс., то к началу 2026-го их будет около 8 млн, прогнозируют в TechRadar.

СМИ — одна из самых уязвимых отраслей. NewsGuard только в этом году выявил более 1 270 сайтов с ИИ генерацией недостоверных новостей на 16 языках мира. Более того, по статистике, за последний год 60% потребителей встречали фейковые видео в сети. И только 15% утверждают, что никогда не сталкивались с ними. Самое опасное, что многие люди не отдают себе отчет в опасности этого явления, считая, что смогут отличить подделку. Но исследования показывают, что люди распознают высококачественные фейковые видео лишь в 24,5% случаев. Если в визуальной информации нет очевидных изъянов, человеческий мозг буквально запрограммирован верить ей. Ведь, как говорят ученые, около 70% всей поступающей в мозг информации поступает через зрительные рецепторы. Это главные ворота в наш мозг. Дипфейк в этом плане — мощный триггер.

Мы решили показать, насколько важна бдительность в анализе видео в интернете, с помощью юмора. В YouTube и новом Telegram-канале Digital агентство Articul запустило канал «ААА Новости», полностью созданный искусственным интеллектом, от сценариев до цифровых ведущих (которые, кстати, являются сотрудниками компании). За кулисами — более десятка нейросетей, от языковых моделей (генерирующих сценарии) до дипфейк-инструментов (оживляющих ведущих) и генеративных сетей (создающих визуальные эффекты). К настоящему моменту вышли два псевдо-новостных выпуска, которые собраны по классической схеме фейк-ньюс: берется какой-то известный реальный факт, который усыпляет бдительность обывателей, и над ним уже придумывается абсурдная настройка. В первом видео основа новости — объявление Илоном Маском будущих колонистов Марса. Все знают, что такая программа есть. И просто по заголовку не понятно, что внутри фейк. Во втором видео рассказывается о том, что песня Эминема «Not afraid» была посвящена его борьбе с лифтофобией. И снова есть доля правды — певца все знают, такая песня у него есть. Все остальное — фейк. При знакомстве с этими «новостями» ощущения могут меняться. Иногда кажется, что это полный абсурд, иногда — что вполне реалистичная новость.

Хочется надеяться на то, что когда абсурднейшая фальшивка подана как шутка, аудитория сама задумывается: «А можно ли этому верить?». Появляется пространство для сомнения и рефлексии.

Кризис доверия медиа

Тот факт, что наши ролики уже набрали более 50 тыс. просмотров без медийной истории, поддержки и хоть какого-то объяснения сути, показывает, что проблема стоит остро. Этот медийный эксперимент можно назвать манифестом против кризиса доверия к медиа. Мы показали реальную силу генеративного ИИ. Продемонстрировали, как легко можно смоделировать мир, где отключено критическое мышление, дипфейк-ведущие читают нейроновости, и абсурд неотличим от реальности.

Наш шуточный канал не опасен, но фейковые новостные выпуски — не шутка, а сигнал точки невозврата. Искусственный интеллект меняет правила игры — сегодня качественный промпт ценнее журналистской аккредитации на ПМЭФ. Пресс-релизы, ивенты, прямые репортажи уже проходят через фильтры ИИ-агентов. Замена людей в медиа — это вопрос времени, экономики и скорости. Сначала нас ждет гибридная эра: ИИ пишет базовые тексты, а люди добавляют контекст и проверяют факты. Но рутинные жанры — корпоративные релизы, отчеты — исчезнут первыми. Цифровые аватары уже доставляют контент, и скоро их невозможно будет отличить от живых людей. Пока еще можно заметить неестественную интонацию или лишний палец на руке аватара, но это ненадолго. Цените живые репортажи — их становится все меньше. Полная автоматизация уже на горизонте.

Как можно защититься от дезинформации сегодня

Но можно ли в принципе верить медиа в эпоху ИИ? Это открытый вопрос. Уже сегодня люди перестают слепо доверять новостям, потому что медиа все чаще попадаются на манипуляциях, искажении фактов или откровенной погоне за сенсациями. Добавьте к этому влияние алгоритмов и искусственного интеллекта, которые создают и распространяют контент, нередко без человеческого контроля. Борьба с фейками — это настоящая «гонка вооружений», и пока абсолютно надежного и универсального технологического «щита» не существует. Однако можно придерживаться двух базовых правил:

  • Критическое мышление. Недоверие к СМИ сегодня — это не просто каприз или скептицизм, а осознанный и обоснованный выбор. В таких условиях проверять информацию самостоятельно, задавать вопросы и не принимать все на веру — это логичный и разумный подход для любого пользователя. Критическое мышление становится не просто полезным навыком, а необходимостью.
  • Использование передовых средств защиты. Разработки против дипфейков идут активно по нескольким направлениям. Есть детекторы дипфейк и ИИ-контента (вроде Sensity AI, Deepware Scanner, Microsoft Video Authenticator), которые анализируют артефакты, невидимые глазу: неестественные движения глаз/губ/бровей, артефакты кожи, странное освещение, несовершенства в синтезе речи (дыхание, интонации), статистические аномалии в изображении или аудио, оставляемые генеративными моделями. Справедливости ради стоит отметить, что пока у них невысокая эффективность, так как по мере совершенствования генеративных моделей артефакты становятся менее заметными. Даже публичная эффективность решений, которые разрабатывают Meta, Google и Microsoft, редко превышает 70−80% в контролируемых условиях. Эти модели надо постоянно переобучать, они уязвимы к новым типам атак и сложны для аудио, особенно после сжатия.

Как решить проблему дипфейков на глобальном уровне

Наиболее очевидный способ — это цифровые вотермарки и метаданные, добавляемые на этапе создания. Внедрение невидимой или стеганографической информации в контент (изображение, видео, аудио, текст) при его создании ИИ, указывающей на синтетическое происхождение — пока это видится самым главным вариантом. А стандарты вроде C2PA (Coalition for Content Provenance and Authenticity) позволяют отслеживать историю происхождения и изменений контента. Проблема здесь одна: потенциально мощный подход пока не масштабирован и требует добровольного внедрения создателями ИИ-инструментов и поддержки со стороны платформ для отображения этой информации пользователю. Злоумышленники могут попытаться удалить или подделать метаданные.

Поэтому людям, которые находятся по ту сторону медиа, нужно тоже активнее подключаться к борьбе с дипфейками. ИИ может анализировать, синтезировать, но не способен к подлинной рефлексии. Человек должен оставаться в контуре — как редактор, модератор и моральный компас. Без этого медиа рискуют утратить доверие окончательно. Крупные организации и СМИ уже занялись борьбой с медиаподделками. MIT Media Lab запустил проект «Detect Fakes» — интерактивный тренажер по распознаванию ИИ контента. Редакция BBC создала команду BBC Verify, которая занимается анализом видео и клипов, разоблачает фейки в формате расследований.

У медиа есть еще один способ повысить доверие пользователей — использование блокчейн для верификации источника. Например, журналист снимает на камеру оригинальный контент и распространяет его через блокчейн с привязкой ко времени и источнику таким образом, чтобы любые последующие изменения были заметны.

Но если говорить глобально, то рынку необходим этический кодекс для разработчиков и медиа, строгие стандарты прозрачности и программы повышения цифровой грамотности. Ведь чем больше власти мы делегируем нейросетям, тем острее встает вопрос: кто будет отвечать, если ИИ ошибется? Не хочется давать страшные прогнозы, но про конкуренцию будут меньше всего думать после первой грандиозной ошибки нейросетей, которая окажет влияние на судьбы тысяч людей. В прошлом году Евросоюз принял закон AI Act, который устанавливает первую в мире всеобъемлющую систему регулирования ИИ, применимую ко всем компаниям, работающим в ЕС или имеющим пользователей в ЕС, независимо от их местонахождения. Аналогичные нормы должны приниматься и в других регионах мира. Мнение о том, что они не будут работать, ошибочно. Эффект будет заметен сразу. Например, из 4 ИИ-сетей, где мы генерировали фейкового Илона Маска, три — отказались это делать, потому что обнаружили на фото селебрити. Проблема заключается в том, что должны были отказаться 4 из 4.

В этический ИИ-кодекс должны быть заложены принципы, такие как прозрачность (пользователь знает, что ИИ влияет на решение), справедливость (алгоритмы не усиливают дискриминацию), подотчетность (всегда есть ответственный за последствия) и контроль человека (ключевые решения принимаются автономно).

*Деятельность Meta (соцсети Facebook и Instagram) запрещена в России как экстремистская.

Обсудить с другими читателями:
Ваш браузер устарел
На сайте Sostav.ru используются технологии, которые не доступны в вашем браузере, в связи с чем страница может отображаться некорректно.
Чтобы страница отображалась корректно, обновите ваш браузер.