Статья подготовленна Студией «Видеомаркет», где можно заказать видеорекламу, в т.ч. нейросетевую.
Всего за два-три сезона нейросети переместились из экспериментальных «игрушек» в ядро производственного цикла российской digital-рекламы. Если раньше роль искусственного интеллекта ограничивалась цветокоррекцией или апскейлом, то сегодня креаторы кормят Midjourney подробными промптами «25-летняя девушка с лёгкой улыбкой, soft-cinema lighting», прогоняют статичные кадры через Runway Gen-3 для анимации мимики, а финальный композит собирают в DaVinci только ради логотипа и титров. Итог — полноценный 15-секундный ролик создаётся за сутки без кастинга, аренд студий и договоров с моделями.
RAEC оценивает, что по итогам 2024-го на ИИ-пайплайне было выполнено около 12 % коммерческих видеороликов крупных агентств (против 3 % годом ранее). Драйверами стали маркетплейсы, банки и телеком-операторы, которым важно быстро тестировать десятки гипер-таргетированных креативов под разные аудитории. Внутренние отчёты двух сетевых продакшенов показывают: переход на генеративные модели сокращает прямые затраты на съёмку до 40 %, а time-to-market — с трёх недель до трёх-пяти дней.
При этом резкое расширение «нейро-репертуара» выдвинуло на первый план юридические вопросы: от того, кому принадлежит авторское право на синтетический кадр, до рисков претензий реальных людей, увидевших в рекламном аватаре своё лицо. В отсутствии чётких норм ГК РФ креативные агентства вынуждены вырабатывать собственные правила игры — тема и станет предметом дальнейшего разбора.
Нейросетевое изображение — это визуальный материал, который создаётся не фотокамерой, а алгоритмом-«художником». Бизнес-заказчик формулирует сценарную задачу, а система синтезирует нужное лицо или целую сцену с заданными эмоциями, освещением и стилистикой. В результате компания получает «актёра», который никогда не потребует гонорара, не заболеет в день съёмки и доступен в неограниченном количестве дублей.
Процесс выглядит просто и прозрачно даже без технических деталей:
Для владельцев бизнеса выгода трёхуровневая. Во-первых, скорость: производственный цикл сокращается с недель до дней, что особенно ценно в перформанс-кампаниях и ситуативных акциях. Во-вторых, прямые затраты падают на десятки процентов — деньги не расходуются на аренду студии, кастинг актёров и организацию съёмочной группы. В-третьих, открывается возможность гипер-персонализации: под разные аудитории или регионы за ту же стоимость выпускаются десятки версий ролика, где меняются возраст героя, тон одежды или даже культурные особенности.
Таким образом, нейросетевые лица становятся не модной «фишкой», а инструментом повышения маржинальности и гибкости рекламных бюджетов.
3.1 Авторское право
– Согласно ст. 1257 и 1259 ГК РФ автором может быть только физическое лицо, чьим творческим трудом создано произведение. Искусственный интеллект трактуется как вспомогательный «инструмент» в руках человека, а не самостоятельный субъект права. Именно такую позицию закрепляют академические и отраслевые комментарии, включая сборник материалов VII Международной конференции СПбГЭУ (2023) и фундаментальное исследование В. А. Корнеева (2023), посвящённое философско-правовым основаниям авторского права.
– «Чистый» ИИ-контент (т. е. результат, сгенерированный без творческого вклада человека) поэтому выпадает из прямой охраны: у него нет автора в смысле закона, а значит — нет правопреемника-правообладателя. На практике это создаёт серую зону: платформы разрешают коммерческое использование, но гарантировать исключительные права не в силах.
3.2 Право на изображение
– Ст. 152.1 ГК РФ запрещает коммерческое использование «распознаваемого» образа человека без его согласия. Ключевое слово — «идентифицируемость»: суды оценивают, может ли зритель однозначно узнать конкретное лицо, а не то, каким способом изображение было получено.
– Для нейросетевых персонажей это означает: если сгенерированное лицо случайно напоминает реального гражданина и позволяет его опознать, заказчик отвечает так же, как за неправомерное размещение обычной фотографии. В делах о дипфейках (АС Москвы, 2024) фокус именно на сходстве, а не на факте использования ИИ-алгоритма.
3.3 Экспериментальные режимы
– Федеральный закон № 258-ФЗ (2020) об экспериментальных правовых режимах в сфере цифровых инноваций и национальный проект «Искусственный интеллект» дают возможность компаниям апробировать новые модели оборота ИИ-контента в «регуляторных песочницах».
– В рамках ЭПР бизнес может, например, официально вести логи генерации или тестировать метки «создано ИИ» без риска нарваться на штрафы за недостоверную рекламу. Первыми участниками подобных пилотов уже стали финтех-и медиа-платформы; рекламный сектор пока только готовит заявки.
В итоге: действующее гражданское законодательство защищает лишь «человеческое творчество» и реальные изображения, оставляя нейросетевые видеоролики без чёткого статуса. Пока не появятся либо специальные поправки, либо устойчивая судебная практика, агентствам приходится полагаться на внутренние политики и потенциально — на механизмы ЭПР для снижения правовых рисков.
Единственным широко обсуждаемым делом, напрямую затронувшим коммерческое использование нейросетевого образа, остаётся спор «Бизнес-аналитики» (юридическое лицо сервиса Roistat) с правообладателями киноактёра Киану Ривза. В сентябре 2024 г. Арбитражный суд Москвы обязал компанию выплатить 500 тыс. руб. компенсации за включение дипфейк-фрагмента в рекламу («способ получения образа — будь то съёмка или генерация ИИ — не отменяет права гражданина на его изображение»; решение опубликовано 30.09.2024). Суд сослался на ст. 152.1 ГК РФ и подчеркнул, что ключевым критерием является «идентифицируемость» лица, а не технология, с помощью которой оно появилось.
После этого прецедента юристы и отраслевые наблюдатели ожидали всплеска судебных исков к рекламодателям, но мониторинг баз «Право.ру» и «Гарант» за 2024–-I пол. 2025 гг. показал обратное: ни одного публичного решения, где ответчик сумел бы доказать «чистую» ИИ-генерацию и тем самым полностью освободиться от ответственности, пока не зафиксировано. Отдельные досудебные претензии урегулировались путём добровольного удаления роликов или символических выплат, не попав в реестр судебных актов.
Таким образом, в российской практике всё ещё действует негласная презумпция: если изображение в рекламе распознаётся как конкретный человек, риски ложатся на заказчика, независимо от того, использовал ли он камеру или нейросеть. До появления новых дел или специальных разъяснений Верховного суда правовая позиция, зафиксированная в кейсе «Бизнес-аналитики», остаётся базовой точкой отсчёта для всей отрасли.
Суды по делам о несанкционированной публикации фотографий (2018-2023 гг.) выработали понятный алгоритм: если изображение позволяет идентифицировать гражданина, истец вправе требовать удаления материала и компенсации ущерба. Для нейросетевых лиц это означает:
Практический минимум защиты: хранить промпт-досье, проводить внутреннюю «face-audit» (чек-лист идентифицируемости) перед запуском кампании и закладывать в бюджет резерв на возможные претензии.
Большинство популярных движков разрешает коммерческое использование контента только при условии:
Отсутствие надлежащей «следовой» информации лишает компанию возможности доказать добросовестность и, в случае плагиат-претензии, увеличивает риск санкций со стороны платформы-разработчика (блокировка аккаунта, доначисление лицензии).
Рекомендация: закрепить в договоре с подрядчиком обязательство сохранять промпт-историю не менее трёх лет и передавать её бренду вместе с мастер-файлами.
Раскрытие факта обширного использования ИИ может вызвать негатив аудитории: обвинения в «обмане», снижении доверия к бренду или невыполнении ESG-обязательств. Наиболее болезненны два сценария:
Обе ситуации ведут к экстренной замене креатива, что нивелирует экономию и может сорвать медиаплан.
Чтобы минимизировать удар по репутации, отраслевые консультанты рекомендуют заранее разработать публичную политику об использовании ИИ-контента, обозначить критерии ответственного применения и закрепить её в коммуникациях с целевой аудиторией.
Мировые регуляторы уже нащупывают баланс между быстрым развитием генеративных технологий и защитой прав граждан. Хотя формальные подходы различаются, просматривается единая логика: «прозрачный источник + фиксируемая цепочка создания = меньше претензий».
• Европейский союз
В большинстве стран ЕС рекламные сети и владельцы цифровых наружных экранов (DOOH) внедряют обязательную маркировку deepfake-контента. Зритель должен иметь возможность за секунды понять, что перед ним синтетический образ. Параллельно тестируются технические паспорта визуальных файлов: скрытые метаданные фиксируют дату генерации, версию модели и заказчика. Без такого «цифрового водяного знака» крупные площадки уже блокируют материалы на этапе загрузки.
• США
Американский Copyright Office последовательно отказывает в регистрации изображений, полученных без «существенного человеческого вклада», но при этом допускает защиту компоновки, цветокоррекции и монтажа — всего, что подтверждает креативную роль автора. Прецеденты «Zarya of the Dawn» и «Thaler v. Perlmutter» очертили границу: где заканчивается машинный автогенерат и начинается охраняемый творческий выбор человека. Параллельно отраслевые ассоциации (ANA, IAB) выпускают кодексы brand-safety: работа с «safe-prompts», хранение журналов генерации, обязательный аудит likeness-рисков для роликов с цифровыми актёрами.
• Китай
Пекинский суд второй инстанции ещё в 2020 году признал имущественные права разработчика на новостной тизер, полностью собранный алгоритмом. Подход Восточной Азии строится на двух опорах: регистрация созданного ИИ-контента в государственной базе и жёсткая ответственность платформ за некорректную маркировку deep-synthesis-роликов. Практика стимулирует бизнес вести «протоколы происхождения» и предъявлять их по первому требованию регулятора.
Что может взять на вооружение российский рынок
1. Технический стандарт provenance-logs — обязательное хранение метаданных (prompt, дата, версия модели, ответственный оператор).
2. Презумпция отсутствия нарушения, если рекламодатель предъявляет полную цепочку traceability: от запроса до финального рендера.
3. Добровольные гайдлайны «safe-prompts», разработанные отраслью, чтобы минимизировать генерацию узнаваемых лиц и токсичного контента ещё на этапе ввода текста.
Импорт этих практик позволил бы российским агентствам заранее нивелировать правовые риски и доказательно демонстрировать добросовестность при любых возникших претензиях.
Формируйте единый электронный‐досье на каждый ролик: текстовый запрос (prompt), seed-номер, версию модели, тайм-штампы и скрин-логи генерации. Практика хранения связанной «папки» уже описана как надёжный способ доказать происхождение цифрового контента и разграничить ответственность участников проекта .
Пост-продакшен: фиксируем «человеческий вклад»
Российские эксперты по авторскому праву предлагают ориентироваться на 10–15 % ручного редактирования кадра (цвет, пластика лица, компоновка) как на минимальный порог, позволяющий обосновать «существенный творческий вклад» человека. Такая доработка повышает шанс признать ролик охраняемым результатом интеллектуального труда, а не только автоматической выборкой алгоритма.
Договор с клиентом: прописываем ИИ-компонент
Включайте отдельный раздел «ИИ-контент»:
• перечень используемых моделей и статус лицензий;
• порядок хранения логов и срок их предъявления по запросу;
• распределение рисков за случайное сходство с реальными лицами.
Это защищает агентство от претензий и одновременно задаёт прозрачные правила для бренда-заказчика.
Системное соблюдение этих рекомендаций позволит доказательно подтверждать добросовестность агентств, минимизировать судебные риски и ускорить вывод нейросетевых роликов на рынок.
Российский рынок уже приблизился к точке, где юридическая неопределённость начнёт материализоваться в судебных исках. Исследовательская группа Высшей школы экономики прогнозирует, что первые громкие процессы о «похожести на обычных граждан» могут быть зарегистрированы уже в 2025--2026 гг. По их оценке, достаточная «критическая масса» видеороликов с синтетическими лицами и активное распространение deepfake-приложений повышают вероятность того, что граждане начнут чаще отстаивать своё право на изображение.
Понимая растущие риски, Минцифры совместно с Минэкономразвития готовят расширение экспериментальных правовых режимов (ЭПР) на рекламный сектор. По данным отраслевых источников (vc.ru, 24 июня 2024 г.), в новую дорожную карту ЭПР войдут пилотные проекты, позволяющие агентствам легально тестировать маркировку deep-контента, хранение промпт-логов и механизмы быстрого урегулирования претензий о сходстве.
Вероятный следующий шаг — запуск единой базы digital-provenance. Концепт обсуждается в ТК-164 «Искусственный интеллект» и предусматривает централизованное хранение «паспортов» каждого ИИ-ролика: хеш-сумм, времени генерации, версии модели и данных о правобладателе. Такая инфраструктура решает две задачи:
Если сценарий будет реализован, к 2027 году российская рекламная индустрия получит прозрачные правила игры, сравнимые с зарубежными практиками. Однако до их появления брендам и агентствам придётся полагаться на собственные протоколы traceability.
Нейросетевые изображения уже доказали свою экономическую и креативную эффективность: по внутренним расчётам крупных продакшн-студий они сокращают прямые расходы на видеокампанию в среднем на 35–40 % и позволяют выводить новый ролик на рынок в считанные дни. Однако за пределами технологического успеха сохраняется правовой вакуум. Действующие статьи ГК РФ адресованы человеческому авторству и традиционной фотосъёмке; они не описывают статус «чистого» ИИ-контента, что создаёт для бизнеса хроническо-высокий уровень юридических рисков.
Российская дорожная карта цифрового развития (нацпроект «Цифровая экономика», Стратегия развития электронной промышленности РФ) уже предусматривает регулярное обновление нормативных актов под новые технологии, а механизм экспериментальных правовых режимов (закон № 258-ФЗ) даёт возможность быстро тестировать отраслевые решения до внесения их в ГК РФ. Добавив к этим инструментам:
государство и рынок смогут закрыть самую явную лакуну законодательства и одновременно поддержать растущий AdTech-сектор. Такой комплексный подход, основанный на принципах, уже применяемых Банком России и другими регуляторами при обновлении нормативов для новых цифровых услуг, позволит:
Пока же отрасли остаётся опираться на внутренние стандарты, фиксировать полный цикл генерации и готовиться к первой волне исков о «похожести» в 2025–2026 годах. Чем быстрее консенсус индустрии будет подкреплён ясными нормами ГК РФ и техническим регламентом, тем быстрее ИИ-инструменты перестанут быть зоной правовой неопределённости и станут полноценным драйвером цифровой экономики России.
Статья подготовленна Студией «Видеомаркет», где можно заказать видеорекламу, в т.ч. нейросетевую, с учетом законов РФ и локализацию иностранного видео.