Sostav.ru
Москва, ул. Полковая 3 стр.3, офис 120
© Sostav независимый проект брендингового агентства Depot
Использование опубликованных материалов доступно только при указании источника.

Дизайн сайта - Liqium

18+
29.04.2023 в 16:00

Генеративный искусственный интеллект и закон: что учесть бизнесу при работе с нейросетями

Несмотря на отсутствие специального регулирования, компании должны помнить про юридические рамки

Последние месяцы различные сервисы на основе генеративного искусственного интеллекта (ИИ), в особенности ChatGPT, активно врываются в повестку многих медиа самой разной направленности. Одни видят в нем инструмент повышения эффективности и ускорения технологического развития. Другие подчеркивают возможные риски — рост безработицы, отсутствие контроля развития ИИ. Владислав Елтовский, глава практики цифрового права, Seamless Legal рассказал Sostav о юридических аспектах использования искусственного интеллекта при работе.

Проблемы ИИ

Многие исследователи признают, что правовые системы почти всех государств ещё не готовы в полной мере покрыть все существующие проблемы, связанные с использованием ИИ. Разные страны принимают разные меры для контроля: в Италии ChatGPT был заблокирован из-за нарушения законодательства в сфере персональных данных*; в Германии активно обсуждают возможность блокировки; в Великобритании правительство опубликовало доклад, в котором раскрывается подход к применению ИИ; Китай и США обсуждают возможность регулирования деятельности с использованием генеративного ИИ.

В России также пока отсутствует какое-либо специфическое регулирование в этом направлении, но есть официально закрепленная стратегия развития искусственного интеллекта. Уже несколько лет существуют нормативно-правовые акты, закрепляющие базовую терминологию, но проблемы использования генеративного ИИ все еще находятся в «серой зоне».

Безусловно, подход к ИИ должен быть разработан в ближайшее время, так как спорные и нетривиальные правовые проблемы будут возникать все чаще. Вероятнее всего, в течение ближайших лет законодательство в сфере ИИ появится почти во всех странах.

Однако уже сегодня бизнес видит преимущества внедрения генеративного ИИ в текущие процессы для повышения эффективности выполнения тех или иных задач. Внедрение генеративного ИИ в бизнес-процессы звучит новаторски и амбициозно, а также является предвестником оптимизации.

Тем не менее компании должны учитывать:

  • этические аспекты внедрения ИИ, к примеру, исключить дискриминацию;
  • отсутствие секретности при использовании ИИ, а именно открытость перед лицами, которых он затрагивает;
  • компетентность, а именно наличие необходимых навыков и знаний, которые позволят валидировать результат, полученный с помощью ИИ.

Помимо этого, несмотря на отсутствие специального регулирования, компании должны учитывать текущие юридические рамки, которые могут породить ряд юридических проблем.

Интеллектуальная собственность

Учитывая как генеративные ИИ продвинулись в создании арта (Midjourney, пожалуй, самая обсуждаемая в части создания произведений искусства), неизменно возникают вопросы наличия прав интеллектуальной собственности как на объекты авторских, так и патентных прав.

В большинстве государств пока не сформировался единый подход к интеллектуальной собственности, созданной ИИ. К примеру, большинство стран (Австралия, Великобритания, ЕС, США) отказали в регистрации патента с указанием ИИ (DABUS — ИИ, созданный Стивеном Талером) в качестве автора соответствующего изобретения, но в ЮАР, к примеру, такой патент был зарегистрирован.

Учитывая, что создание интеллектуальной собственности предполагает творческий или изобретательский вклад именно человека, то большинство законов в сфере интеллектуальной собственности не признают прав за ИИ. Однако уже сейчас активно продвигается подход о том, чтобы признавать исключительные (или «экономические») права на интеллектуальную собственность, созданную ИИ.

Разрешение этого вопроса еще займет несколько лет, так как он требует изменения самой сути регулирования интеллектуальной собственности. Но на сегодняшний день компании уже активно создают произведения с помощью AI. Это касается как изображений и видео, так и кода.

Глобально, если «создания» ИИ используются только внутри компании, то можно обойтись и без титула на интеллектуальную собственность. Однако если эти произведения являются предметом отношений с третьими лицами (к примеру, являются результатом оказания услуг или проверяются в рамках сделки по приобретению продукта), то отсутствие титула, как правило, будет являться значительным риском, который может сорвать сделку или существенным образом испортить переговорную позицию.

На текущий момент, если вы используете ИИ для создания каких-либо произведений, рекомендуется в максимально возможной мере доработать результат, полученный от ИИ, чтобы иметь возможность ссылаться на творческую составляющую при создании того или иного произведения. В сущности, необходимо свести роль ИИ исключительно к функции инструмента, который использует автор для создания того или иного произведения.

Такой подход позволит избежать споров вокруг наличия прав интеллектуальной собственности и закрепить их за авторами с возможностью дальнейшей передачи компании.

Другой проблемой является потенциальное нарушение прав на интеллектуальную собственность третьих лиц, а именно, что ИИ фактически позаимствует или переработает произведения третьего лица. На этом этапе важна компетентность человека, отвечающего за валидацию результата работы ИИ, а именно наличие необходимых знаний, которые позволят выявить оригинальность созданного ИИ результата и итогового произведения с учетом человеческой доработки.

Персональные данные

Сегодня персональные данные находятся под пристальным вниманием регуляторов почти во всем мире. Использование ИИ должно осуществляться в полном соответствии с применимыми законами. К примеру, причиной блокировки ChatGPT в Италии как раз и стало нарушение законодательства о персональных данных.

Как правило, использование всех сервисов генеративного ИИ предполагает передачу владельцу сервиса всех данных, которые вбиваются в сервис.

Таким образом, если вы собираете персональные данные через ИИ, то вы должны иметь достаточные основания для того, чтобы использовать эти данные в своей деятельности. К примеру, поиск информации в отношении контрагента через нейросети может повлечь сбор чрезмерных данных.

Если же вы вбиваете персональные данные какого-либо лица в сервис ИИ, то это будет предполагать передачу этих данных, что также может потребовать согласия от соответствующего субъекта персональных данных. При текущем регулировании в России использование сервисов, к примеру ChatGPT, также повлечет за собой трансграничную передачу персональных данных, что выливается в необходимость оценки оператора системы ИИ как получателя персональных данных и подачи уведомления о трансграничной передаче регулятору.

Наконец, использование ИИ в связи с данными какого-либо лица может повлечь создание новых данных, и оператор обязан обеспечить достоверность такой информации. Таким образом, при использовании ИИ также необходимо проверять достоверность всей полученной информации, которая может относиться к физическому лицу.

На сегодняшний день для минимизации рисков рекомендуется вообще исключить взаимодействие генеративного ИИ и персональных данных. При отсутствии такой возможности необходимо внимательно проанализировать все обязанности, которые возникают в связи с использованием персональных данных при работе с ИИ.

Конфиденциальность и иные чувствительные данные

Как уже указывалось выше, все, что забивается в ИИ сервис, передается ее владельцу.

Соответственно, необходимо исключить использование любой чувствительной информации. Это могут быть конфиденциальные данные, признанные договором с вашим контрагентом. Врачебная тайна охраняется законом, поэтому использовать ИИ третьего лица для помощи в лечении или постановки диагноза может вылиться в нарушении закона. Аналогичным образом довольно строго охраняется банковская тайна, что необходимо учитывать для использования ИИ в банковской сфере.

Таким образом, компаниям, планирующим использовать ИИ в своей деятельности, необходимо четко разграничить какие данные не могут быть использованы в ходе работы с ИИ сервисом. Этот пункт важен как с этической, так и с юридической точек зрения.

Договорные ограничения

Помимо обязательств по сохранению конфиденциальности договоры с контрагентами могут содержать иные положения, которые могут спровоцировать юридические риски при использовании ИИ.

Например, в договорах на создание произведения искусства или разработку ПО зачастую значимую роль играет личность автора либо команда разработчика. Аналогичным образом, привлекая юристов, заказчик, как правило, рассчитывает на интеллектуальную работу команды, которая будет вовлечена в проект.

Использование ИИ, если это не оговорено в договоре, может быть расценено заказчиком как оказание ненадлежащих услуг. Ухудшение отношений с клиентом и потенциальный спор — не тот результат, которые ожидаешь от внедрения ИИ.

Прозрачность в использовании ИИ и четкое отражение в соглашении возможности его использования как инструмента позволят исключить какие-либо споры.

Внутренние отношения с работниками

Внедрение и использовании ИИ внутри компании — это всегда частный выбор, который зависит от инновационности подходов к бизнес-процессам, свободы деятельности работников и толерантности к рискам.

Компании должны найти золотую середину между попыткой повышения эффективности за счет ИИ и управления обозначенными выше рисками.

Для того чтобы установить допустимые пределы использования ИИ своими сотрудниками, необходимо четко прописать соответствующие правила, которые бы минимизировали возможные риски с учетом особенностей деятельности компании:

  • во-первых, работники должны открыто сообщать о факте использования ИИ при выполнении той или иной задачи;
  • во-вторых, должен быть запрет на внесение любой чувствительной информации в сервисы ИИ;
  • в-третьих, результат работы с помощью ИИ должен быть тщательно проанализирован на предмет возможных рисков.

Принятие соответствующих внутренних правил позволит, с одной стороны, поощрять работников за инновационные подходы, а, с другой стороны, контролировать потенциальные риски во внешних отношениях компании.

Генеративный ИИ развивается и, очевидно, будет развиваться еще дальше. Подстройка юриспруденции под новые технические реалии представляется лишь вопросом времени.

Наличие юридических рисков на начальном этапе должно лишь заставлять компании действовать более осознанно и разумно, но не отказываться от использования современных технологий для улучшения своих действующих процессов. Тем более, что в настоящий момент пути минимизации рисков действительно существуют и могут активно использоваться.

*28 апреля 2023 г. ChatGPT стал доступен в Италии после выполнения компанией-разработчиком требований итальянского Национального управления по защите персональных данных.

Обсудить с другими читателями:
Ваш браузер устарел
На сайте Sostav.ru используются технологии, которые не доступны в вашем браузере, в связи с чем страница может отображаться некорректно.
Чтобы страница отображалась корректно, обновите ваш браузер.
Ваш браузер использует блокировщик рекламы.
Он мешает корректной работе сайта. Добавьте сайт www.sostav.ru в белый список.