Американский разработчик ИИ Anthropic заявил о масштабном неправомерном использовании своей модели Claude со стороны китайских компаний. Так, три игрока из КНР создали более 24 тыс. фиктивных аккаунтов и свыше 16 млн раз обращались к системе, чтобы извлекать данные для обучения собственных нейросетей, сообщает The Wall Street Journal.
Как утверждают в Anthropic, DeepSeek взаимодействовала с Claude около 150 тыс. раз, Moonshot — более 3,4 млн раз, а MiniMax — свыше 13 млн раз. В компании считают, что такие обращения использовались для так называемой «дистилляции» — метода, позволяющего на основе ответов более мощной модели ускоренно развивать собственные ИИ-продукты.
В Anthropic подчеркивают, что подобная практика выходит за рамки коммерческой конкуренции и затрагивает вопросы национальной безопасности США. По мнению компании, копирование американских моделей может привести к внедрению незащищенных ИИ-возможностей в военные, разведывательные и системы наблюдения за рубежом.
Ранее OpenAI обвинила DeepSeek в применении аналогичной практики для воспроизведения характеристик ее моделей. При этом сама технология, подчеркивают эксперты, имеет и легальные сценарии использования.
Ситуация развивается на фоне стремительного прогресса китайских ИИ-компаний. Moonshot и MiniMax недавно представили новые модели с улучшенными возможностями логического анализа и программирования, а DeepSeek готовит к релизу следующее поколение своей флагманской системы.
