Искусственный интеллект научился красть голос: новая угроза для цифровой безопасности

19 Июн Время чтения 4 мин 368

Голосовая биометрия долгое время считалась передовой технологией цифровой безопасности. Подтверждение личности по голосу использовалось в онлайн-банкинге, страховании и службах поддержки. Однако стремительное развитие нейросетей и синтеза речи обнажило уязвимости: теперь голос можно не только распознать, но и поделать с пугающей точностью. И что особенно тревожно - сам пользователь может невольно помочь в этом.

Социальная инженерия под видом опроса

Вас набирают с незнакомого номера. Представляются сотрудником исследовательского центра. Спрашивают о транспорте, поликлиниках, благоустройстве. Всё звучит буднично и безобидно. Вы, как и большинство, отвечаете спокойно - ведь ничего конфиденциального не спрашивают. На деле это - атака через социальную инженерию. Под предлогом опроса злоумышленники получают качественную голосовую запись: с интонациями, эмоциями, в "чистом" аудиофоне. Всё это - основа для создания фейкового голоса.

Как работает ИИ и мошенничество?

Собрав 20 - 30 секунд вашей речи, преступники используют нейросети и дипфейк-технологии, чтобы создать реалистичную копию вашего голоса. Такой клон может:

✔️ Обойти голосовую биометрию в приложениях и банках. 

✔️ Позвонить родственникам или сотрудникам от вашего имени.

✔️ Подтвердить микрозайм или иную операцию в системе с аутентификацией по голосу.

Раньше подобные технологии были доступны только в исследовательских лабораториях. Сегодня - это массовый инструмент, и даже доступный через теневые SaaS-платформы.

Автоматизация против безопасности

Как платформа в сфере цифровых коммуникаций, Sigma messaging работает с решениями для голосовой связи, включая интеллектуальные контакт-центры, автообзвоны и голосовых ботов. Мы видим, как технологии автоматизации пересекаются с возможностями злоупотребления голосом. Когда цифровая безопасность зависит от голоса, даже безобидный опрос становится потенциальной угрозой.

Как бизнесу защититься от фейкового голоса

✔️ Не полагаться только на голосовую биометрию. ( Используйте многофакторную аутентификацию.) 

✔️ Контролируйте каналы связи. (Массовые фейковые обзвоны часто идут через непрозрачные платформы.

✔️ Проводите обучение и профилактику. (Сотрудники и клиенты должны знать схемы атаки через голос.)

Как пользователю защитить себя

❌ Не вступайте в беседы с незнакомыми номерами, особенно если это «опрос».  ❌ Никогда не повторяйте контрольные фразы или инструкции, поступающие с незнакомого голоса. ❌ По возможности отключите голосовую аутентификацию в банковских и сервисных приложениях. Предупредите близких: ваш голос может быть подделан.

Мир, где цифровая безопасность обеспечивается голосом, требует новых подходов. Голос - это биометрический ключ, который уже не уникален. В Sigma messaging мы призываем бизнес и пользователей относиться к голосу как к активу: его нужно хранить, защищать и не раздавать без необходимости.

Ваш голос — это цифровой паспорт. Его можно украсть. Но от вас зависит, насколько это будет просто.

Комментарии
Написать комментарий...