Недавно стало известно, что использование искусственного интеллекта (ИИ) в диагностике и лечении пациентов вызывает всё больше беспокойства — и не просто на уровне технологий, а на уровне права. Несмотря на то, что массовых судебных исков именно за ошибочные диагнозы, поставленные ИИ, пока не зафиксировано, эксперты подчёркивают: юридическая почва подготовлена.
Во-первых, исследования показывают, что системы ИИ в медицине часто оперируют как «чёрный ящик»: врачу или пациенту бывает крайне сложно выяснить, на каком именно основании система приняла диагноз или решение. При этом, как отмечено в обзоре, именно это затрудняет юридическую оценку ответственности — легко сказать «просьба к ИИ дала неверный результат», но доказать, что ошибка возникла из-за ИИ, а не из-за человека или процедуры, сложно.
Во-вторых, хотя нет публично известных громких исков именно против ИИ-систем, направленных за диагнозы, однажды ситуация лишь чуть-чуть не дошла до такого — юридические и страховые эксперты отмечают, что рост использования ИИ в медицине неизбежно приведёт к судебным разбирательствам.
Например, в исследовании Brown University было показано, что если система ИИ обнаруживает патологию, а врач её пропускает, вероятность того, что на врача подадут в суд, значительно выше, чем когда ИИ не участвует. А в обзоре от Stanford University подчёркивается: отсутствие чёткого регулирования и проверок ИИ-инструментов делает юридическую ответственность неопределённой.
Андрей Антонов, генеральный директор экосистемы по регистрации медицинских изделий «КРЕДО» обращает внимание, что многие люди, видя такие «классные и убедительные» результаты не предают значения важности квалифицированной интерпретации данных, а именно обращения к настоящему врачу или в случае оказания юридических услуг – к профессионалу в данной сфере. То есть риск не в самой технологии как таковой, а в нашем чрезмерном доверии к ее ответам.
«Важно понимать, что в профессиональной медицине ИИ уже давно эффективно работает, но просто в другом формате. Например, в некоторых российских клиниках нейросети уже активно анализируют КТ и МРТ, помогают врачам быстрее определять различные малейшие отклонения на снимках, которые сложно заметить человеческим глазом. Есть российские компании, такие как Botkin.AI, «Третье мнение», Webiomed, Celsus, ИИ продукты которых прошли регистрацию в Росздавнадзоре и официально используются в диагностике. Данные модели либо работают в замкнутых контурах, разработаны специально под определенные специализированные задачи и не будут «галлюцинировать» как «открытые» нейросети наподобие ChatGPT».
Итак, судебные прецеденты «за неправильный диагноз, поставленный ИИ» пока не на виду, но правовая система уже на подготовительной стадии — ответственность может лечь как на врача, так и на производителя или внедряющую организацию. Таким образом, безопасное применение ИИ возможно лишь при четком разграничении ответственности: когда пользователь понимает, что ИИ – вспомогательный инструмент, врач принимает окончательное решение, а работа нейросети остается прозрачной, этичной и контролируемой.