Риски использования ИИ-креативов в рекламе

2026-04-27 06:18:41 Время чтения 17 мин

ИИ-креативы за последние пару лет превратились из эксперимента в повседневный инструмент диджитал-маркетинга. Бренды активно используют нейросети для создания баннеров, текстов и видео, рассчитывая на скорость, экономию и масштабируемость. Но вместе с этим растет и другая тенденция — снижение доверия со стороны аудитории.

Согласно исследованиям, 56% российских пользователей считают, что реклама, созданная с помощью нейросетей, снижает доверие к бренду. Около 60% сомневаются в достоверности онлайн-контента из-за его массовой ИИ-генерации, а для 26% отсутствие маркировки ИИ выглядит как признак нечестности. Похожая ситуация наблюдается и на западных рынках: в США и Великобритании около трети пользователей настороженно относятся к использованию ИИ в рекламе.

На этом фоне возникает логичный вопрос: ИИ-креативы — это больше польза или риск для бизнеса? Тут все зависит от похода и деталей. А чтобы понять, где проходит эта граница безопасного использования, дочитайте статью до конца.

Потеря уникальности бренда

Один из ключевых рисков использования ИИ-креативов — визуальная и смысловая унификация. Когда нейросети применяются без четкой креативной рамки и контроля, бренд начинает терять свое лицо. Вместо узнаваемого стиля появляются типовые изображения и тексты, которые легко спутать с рекламой конкурентов.

Проблема в том, что ИИ не чувствует бренд так, как это делает человек. Он не понимает стратегию, не улавливает нюансы tone of voice и не держит в фокусе долгосрочную коммуникацию. В результате креативы могут выбиваться из общей стилистики:

  1. тон сообщений становится несогласованным;
  2. визуал противоречит бренд-гайдам;
  3. акценты смещаются в сторону дешевых триггеров — скидок, срочности, кликбейта;
  4. разные кампании начинают «говорить» с аудиторией разным языком.

Со временем это приводит к размыванию бренда. Особенно если компания масштабирует ИИ-контент без единой системы контроля.

Отдельный риск — так называемая «пластиковость» креативов. Без доработки человеком ИИ часто генерирует визуалы с неестественными эмоциями, странными деталями и эффектом зловещей долины. Показательный пример — попытки Coca-Cola переосмыслить свой культовый новогодний ролик с помощью ИИ. Несмотря на технологичность, аудитория встретила такие версии скорее негативно: пользователи критиковали их за отсутствие магии и слишком очевидную искусственность.

ИИ-сгенерированная и старая добрая реклама Coca-Cola

Сам по себе факт использования ИИ не отталкивает аудиторию. Но если за креативом не стоит идея, контроль и четкое понимание бренда, нейросети начинают работать против него — превращая уникальную коммуникацию в шаблонный поток контента.

Ошибки и недостоверный контент

Еще один критический риск использования ИИ-креативов — это ошибки, вызванные так называемыми галлюцинациями ИИ. Проблема в том, что такие ошибки сложно распознать без проверки. Как это проявляется:

  1. фактические ошибки в текстах. ИИ может путать даты, цифры, источники или даже полностью выдумывать информацию;
  2. непонимание контекста ниши. ИИ не понимает бизнес, он лишь воспроизводит шаблоны. Поэтому он может давать некорректные формулировки, упрощать сложные продукты или создавать креативы, которые не соответствуют отраслевым требованиям. В результате реклама выглядит либо поверхностной, либо вводящей в заблуждение;
  3. ошибки в визуале и коммуникации. Например, выставка Willy’s Chocolate Experience, проходившая в Глазго, рекламировалась с помощью ИИ-изображений с вводящими в заблуждение визуалами — в итоге ожидания аудитории не совпали с реальностью, что привело к скандалу и массовым возвратам билетов.
Выставка Willy’s Chocolate Experience: ожидание (ИИ-креативы) и реальность

Показательные ошибки случаются и на уровне крупных брендов и платформ. Например, стриминговый сервис Amazon в преддверии выхода 2 сезона сериала Fallout выпустил видео с кратким пересказом 1 сезона, чтобы помочь зрителям наверстать упущенное. Однако видео, созданное искусственным интеллектом, изобиловало ошибками, из-за чего Amazon полностью его удалила. 

Главная проблема в том, что такие ошибки не всегда очевидны на этапе создания, но становятся заметны уже после запуска кампании — и тогда работают против бренда. В лучшем случае это снижает эффективность рекламы, в худшем — подрывает доверие и приводит к репутационным потерям.

Репутационные риски

Использование ИИ в рекламе напрямую влияет на восприятие бренда — и не всегда в положительную сторону (вспомним уже упомянутые компании Coca-Cola и Amazon). Даже при технически качественном исполнении нейросетевые креативы могут вызывать у аудитории отторжение, снижать доверие и формировать ощущение дешевого или неискреннего бренда.

Главная проблема — эмоциональный разрыв. Реклама традиционно работает через эмпатию, узнаваемые образы и человеческие смыслы. ИИ-контент, напротив, часто воспринимается как холодный, собранный из шаблонов и лишенный глубины. В результате аудитория не просто не вовлекается — она начинает сомневаться в искренности бренда. Как это может проявляться:

  1. негативное отношение к ИИ-рекламе. Пользователи все чаще воспринимают такие креативы как попытку схалтурить или сэкономить на продакшене. Даже если идея сильная, сам факт использования ИИ может вызывать предвзятое отношение;
  2. потеря доверия. Когда реклама выглядит искусственно или странно, это переносится и на бренд: если компания не старается в коммуникации, возникает вопрос — насколько она надежна в продукте;
  3. ощущение «дешевизны» бренда. Особенно это критично для компаний с премиальным позиционированием. ИИ-креативы без проработки часто выглядят менее качественно, чем классические продакшн-решения, и обесценивают визуальный язык бренда.

Показательный кейс — ситуация с McDonald’s в Нидерландах. В декабре 2025 года бренд выпустил полностью ИИ-сгенерированный рождественский ролик, который вызвал волну критики и был оперативно удален. Пользователи называли рекламу жуткой, депрессивной и бездушной, указывая на отсутствие эмоций и странный визуал.

Кадры рождественского ИИ-ролика McDonald’s в Нидерландах

Критика была настолько сильной, что компании пришлось не только скрыть ролик, но и признать его важным уроком в использовании ИИ. При этом проблема была не только в технологии, а в восприятии: аудитория увидела не креативный эксперимент, а неудачную и неискреннюю коммуникацию.

Репутационные риски очень важны, ведь даже один неудачный ИИ-креатив может обнулить доверие, которое бренд выстраивал годами. И чем сильнее ставка на эмоции в коммуникации, тем выше цена ошибки.

Юридические риски

В отличие от классического продакшена, правовой статус ИИ-креативов до сих пор остается в серой зоне. Законодательство не успевает за технологиями, а значит — ответственность за возможные нарушения почти всегда ложится на рекламодателя.

Авторские права: ИИ ≠ автор

Согласно российскому законодательству (ст. 1257 и 1259 ГК РФ), автором может быть только физическое лицо. Искусственный интеллект рассматривается лишь как инструмент, а не субъект права. Это создает ключевую проблему:

  1. «чистый» ИИ-контент (без участия человека) не имеет автора;
  2. у него нет полноценного правообладателя;
  3. следовательно, невозможно гарантировать эксклюзивные права на креатив.

На практике это означает, что бренд может вложиться в рекламную кампанию, а затем столкнуться с тем, что аналогичные изображения или тексты используются другими компаниями — без возможности юридической защиты.

Борьба с дипфейками

Еще более чувствительная зона — использование лиц и образов. По ст. 152.1 ГК РФ запрещено использовать изображение человека без его согласия, если он узнаваем. И здесь не имеет значения, как получено изображение — с помощью камеры или нейросети. Если ИИ-сгенерированное лицо напоминает реального человека и его можно идентифицировать, ответственность наступает в полном объеме.

Показательный кейс — спор ООО «Рефейс Технолоджис» и сервиса Roistat, который для рекламы своего мероприятия запустил ролик с дипфейком Киану Ривза. В 2023 году Арбитражный суд Москвы обязал Roistat выплатить 500 тыс. рублей за использование дипфейк-образа актера в рекламе.

Кадры ИИ-ролика с дипфейком Киану Ривза

Этот кейс стал важным сигналом для рынка: даже косвенное сходство с реальным человеком может привести к финансовым и репутационным потерям.

Отсутствие прозрачных правил игры

Даже при соблюдении базовых норм остаются нерешенные вопросы:

  1. кому принадлежат права на сгенерированный креатив;
  2. можно ли считать его уникальным;
  3. кто несет ответственность — платформа, агентство или клиент.

Судебная практика в России пока только формируется, и в большинстве случаев компании предпочитают урегулировать конфликты до суда — удаляя спорные материалы или выплачивая компенсации.

А вот мировые рынки уже активно вводят ограничения и правила:

  1. ЕС — обязательная маркировка ИИ-контента и внедрение «цифровых водяных знаков», фиксирующих происхождение креатива;
  2. США — отказ в защите «чистого» ИИ-контента без участия человека (дело Zarya of the Dawn);
  3. Китай — обязательная регистрация ИИ-контента и строгая ответственность за отсутствие маркировки.

Общий тренд очевиден: регуляторы требуют прозрачности, отслеживаемости и подтверждения человеческого участия.

Юридические риски — одни из самых недооцененных при работе с ИИ-креативами. Пока законодательство не дает четких рамок, бизнес фактически работает на свой страх и риск. И даже если кампания кажется безопасной, один спорный элемент: от похожего лица до заимствованного стиля, может обернуться судебным разбирательством и финансовыми потерями.

Этические проблемы

Помимо юридических и репутационных рисков, использование ИИ в рекламе поднимает серьезные этические вопросы. Они связаны не столько с технологией, сколько со способом ее применения — и именно здесь бренды чаще всего переходят границу. Как это может проявляться:

  1. недостаточная прозрачность. Пользователь часто не понимает, что перед ним ИИ-контент. Когда реклама маскируется, например, под реальные отзывы пользователей, это воспринимается как обман; 
  2. использование персональных данных. ИИ может использовать изображения и голоса людей без их согласия. Один из самых резонансных примеров — дипфейки с Тейлор Свифт, вызвавшие широкий общественный скандал;
  3. манипуляции и скрытая реклама. С помощью ИИ можно создавать реалистичные видео и изображения с участием публичных лиц, формируя ложное ощущение рекомендации.

В качестве примеров манипуляций с помощью рекламных ИИ-роликов можно вспомнить случаи, когда Том Хэнкс якобы рекламировал стоматологические услуги, телеведущая Гейл Кинг — продукты для похудения, а сгенерированный голос Скарлетт Йоханссон использовался для продвижения приложения.

Примеры фейковых рекламных видео с участием знаменитостей

Этические риски — это не абстрактная категория, а реальная зона ответственности бренда. Манипуляции, непрозрачность и работа с персональными данными без согласия могут дать краткосрочный вау-эффект, но в долгосрочной перспективе разрушают доверие аудитории и усиливают давление со стороны регуляторов.

Когда ИИ-креативы — не лучший инструмент

Несмотря на очевидные преимущества, ИИ подходит не для всех задач. Есть ситуации, где его использование скорее повышает риски, чем дает результат.

  1. Сложные креативные концепции. ИИ хорошо работает с шаблонами, но слабо справляется с многослойными идеями, метафорами и сторителлингом. В таких проектах важна не скорость, а глубина проработки — и здесь по-прежнему выигрывает команда креаторов. 
  2. Премиум-бренды. Для брендов с дорогим позиционированием особенно критичны качество и уникальность визуала. ИИ-контент без глубокой доработки может выглядеть упрощенно и дешево, снижая ценность бренда в глазах аудитории.
  3. Кампании с высокой репутационной ценой. Если ошибка может стоить бренду доверия, ИИ становится рискованным инструментом.
  4. Юридически чувствительные ниши. Финансы, медицина, фармацевтика — сферы, где даже небольшая неточность может привести к санкциям. ИИ склонен к фактическим ошибкам и упрощениям, что делает его использование в таких темах потенциально опасным.
  5. Рекламные кампании с участием знаменитостей и лицензионным контентом. Использование ИИ в таких проектах связано с высокими юридическими и этическими рисками. Работа с защищенными образами, персонажами и визуалами требует строгого соблюдения прав.
  6. Чуткое эмоциональное повествование. Реклама, построенная на эмпатии, человеческих историях и тонких эмоциях, — одна из самых сложных задач для ИИ. Аудитория быстро чувствует искусственность, и вместо вовлечения возникает отторжение.

Как снизить риски при использовании ИИ

Мы не призываем отказываться от использования ИИ в рекламных креативах — наоборот, при грамотном подходе он дает бизнесу скорость, масштаб и новые возможности для тестирования гипотез. Вопрос не в том, использовать ли ИИ, а в том, как делать это безопасно для бренда. Ниже — базовые принципы, которые помогают снизить риски и сохранить качество коммуникации с аудиторией.

Что стоит внедрить:

  1. обязательную проверку ИИ-креативов человеком перед запуском;
  2. четкие гайдлайны по tone of voice, визуалу и структуре сообщений для дальнейшего использования их в работе с нейросетями;
  3. использование продуманных промтов на основе реальных задач и болей аудитории;
  4. проверку креативов на авторские права и использование образов;
  5. генерацию нескольких вариантов и выбор лучших через A/B-тесты;
  6. единые шаблоны и подходы для сохранения целостности бренда;
  7. комбинацию ИИ-генерации с ручной доработкой;
  8. регулярное обновление визуальных и креативных подходов.

Такой подход позволит сохранить баланс: использовать преимущества ИИ, не жертвуя доверием, качеством и репутацией бренда.

Нейросети уже стали частью рекламной индустрии и останутся в ней. Но он не отменяет базовых принципов маркетинга: сильной идеи, понимания аудитории и ответственности за коммуникацию. Главный риск — не в самой технологии, а в ее неконтролируемом использовании. Бренды, которые воспринимают ИИ как волшебную кнопку, сталкиваются с потерей доверия, юридическими проблемами и размыванием идентичности. А побеждают те, кто использует ИИ осознанно: как инструмент усиления команды, а не как ее замену.