Федеральная торговая комиссия США (FTC) запустила расследование, направленное на изучение того, как крупные технологические компании, включая OpenAI, Meta (признана экстремистской и запрещена в РФ), Alphabet (Google), xAI, Snap и Character.AI, обеспечивают защиту детей и подростков от потенциальных негативных последствий использования их ИИ-чат-ботов.
Главной задачей расследования является понимание мер, предпринимаемых компаниями для оценки и снижения рисков, а также информирование пользователей и родителей о возможных опасностях. Комиссия отмечает важность защиты детей и подростков в условиях стремительного развития технологий ИИ.
FTC подчеркивает, что такие чат-боты способны имитировать человеческие черты, включая эмоции и намерения, что может заставлять детей доверять им и формировать эмоциональные связи, создавая риски для психического здоровья. В рамках расследования комиссии крупнейшим ИИ-компаниям направлены запросы с просьбой раскрыть информацию о тестах, мониторинге и мерах ограничения использования чат-ботов детьми, а также об особенностях монетизации и обработке персональных данных.
В OpenAI и Character.AI уже выразили готовность сотрудничать с регуляторами. От Meta, Google и других компаний пока не поступило официальных комментариев.
Это событие происходит на фоне растущих опасений и судебных исков, связанных с использованием ИИ-чат-ботов несовершеннолетними, в том числе обвинений в том, что чат-боты могли способствовать самоубийствам подростков.
