Sostav.ru
18.10.2021 в 08:50

Facebook переоценила роль алгоритмов в модерации жестокого контента

Система не так хорошо распознаёт язык вражды и насилие, как утверждала компания

Технологии искусственного интеллекта (ИИ), которые Facebook применяет для модерации в соцсети, не могут эффективно распознавать и удалять жестокий контент, а также контент с проявлениями ненависти, пишет The Wall Street Journal со ссылкой на позицию инженеров компании. При этом в 2019 году живые модераторы стали тратить меньше времени на рассмотрение жалоб на жестокий контент — из-за этого роль ИИ в публичной статистике оказалась завышена.

Издание отмечает, что ИИ Facebook не может точно определять расистские высказывания и видео от лица зачинщиков стрельбы. Однажды алгоритм не смог установить разницу между видео петушиных боёв и автокатастроф. «Проблема в том, что мы не можем и, наверное, никогда не сможем получить модель, которая бы определяла даже большинство нарушений, особенно в чувствительных вопросах», — сообщил сотрудник Facebook в отчёте в середине 2019 года.

Специалисты Facebook отмечали проблемы при распознавании оскорблений и языка вражды. Например, в конце прошлого года компания пыталась создать такой фильтр для арабского языка, однако у Facebook не было достаточно информации о диалектах, и компания испытывала проблемы даже с литературным арабским.

Ошибки ИИ заметны и в русскоязычной среде. Так, бывший футболист сборной России и главный тренер «Ротора» Дмитрий Хохлов подал в суд на Facebook из-за своей фамилии. Соцсеть считывает её как неэтичное обозначение украинцев и блокирует все сообщения, содержащие это слово.

Обсудить с другими читателями:
Ваш браузер устарел
На сайте Sostav.ru используются технологии, которые не доступны в вашем браузере, в связи с чем страница может отображаться некорректно.
Чтобы страница отображалась корректно, обновите ваш браузер.
Ваш браузер использует блокировщик рекламы.
Он мешает корректной работе сайта. Добавьте сайт www.sostav.ru в белый список.