Sostav.ru
06.03.2021 в 18:30

Децентрализация и аутсорс: анализ модерации контента в Twitter и альтернативных соцсетях

Есть ли универсальные приемы для вычисления подозрительного контента, рассказали эксперты SocialJet

2

Чем отличается модерация контента в массовых соцсетях и гонимых новичках? Кто лучше справляется с этой задачей? В колонке для Sostav Антон Киселев, Client Service Director SocialJet, и Илья Покидышев, Account Manager SocialJet, проанализировали, как справляются с нежелательным контентом в Twitter, а также в Telegram, Discord и Mastodon, и поделились своими выводами.

Чем больше соцсеть, тем эффективнее распространяются в ней сомнительные виды контента

Алгоритмы дистрибуции контента в массовых соцсетях (Facebook, Instagram, Twitter) оптимизированы для массовых охватов. Но алгоритмы сами не распространяют контент — для этого нужны вовлеченные пользователи.

А связка таких пользователей и эффективных алгоритмов дистрибуции приводит к характерному перекосу: охваты контента, который имеет доказательную базу, редко превышают 1 тыс. пользователей. Но фейковые новости, теории заговора, сенсационный шок-контент часто охватывают аудитории до 100 тыс. человек в случае особенно противоречивых видов контента. Это данные исследования дистрибуции новостей в Twitter, однако в закрытых группах Facebook сомнительный контент распространяется более агрессивно, так как число человек в Twitter не так велико, чтобы можно было создавать информационные пузыри.

Однако даже запрещенный контент можно запостить, если пометить его как образовательный или документальный. Например, в 2013 году Twitter-аккаунты, связанные с ИГИЛ (запрещенная в России террористическая организация), воспользовались этой лазейкой. Террористов фолловили целые редакции мировых СМИ, простые люди, независимые журналисты, представители спецслужб и правительственных организаций. Twitter понял, что терроризм генерирует вовлечение даже среди профессионалов: журналисты, разведчики и специалисты по Ближнему Востоку заводили с ними переписку в личке, чтобы лучше понять мотивы.

Модераторам Twitter понадобилось три года, чтобы научиться блокировать аккаунты террористов. Однако примерно четверть их аккаунтов до сих пор активна — американские спецслужбы объясняют это тем, что такие аккаунты нужны для образовательных целей.

Что-то похожее на модерацию в соцсетях начало появляться после 2020 года: основным технокомпаниям приходится много общаться с комиссиями антимонопольных прокуроров, сенаторами, издателями. Все эти люди хотят знать, кто и как модерирует контент и соцсети вынуждены открывать свои тайны. И хотя Facebook не перестал нанимать филиппинских модераторов, он создал Facebook Oversight Board, контролирующий орган, который будет рассматривать все спорные моменты модерации. А Twitter запустил программу добровольного модерирования Birdwatch.

Модерация контента в Telegram

Никто не знает точное число команды модераторов мессенджера. Пока только редкие каналы проходят проверку в ручном режиме. Блокируют каналы спорадически, по жалобе — чаще всего за экстремизм, накрутки показов, за детское порно в публичных каналах. Модерации контента на уровне платформы нет, разрешено многое из того, что процветает в закрытых группах Facebook. Администраторы каналов имеют возможность банить подписчиков в чатах: в Telegram развито модерирование локального уровня.

Администраторам каналов доступны бесплатные и платные боты для модерирования чатов (chatkeeper, angrymoderbot, shieldy). Боты-модераторы могут похвастать несложными фильтрами по ключевым словам, триггерам, стоп-словам, простыми решениями по автоматизации отправки предупреждений и сбору аналитики.

По сравнению с Twitter, телеграм-каналы исламских радикалов удаляются быстро, решительно. Серые, полулегальные сферы (инфобизнес, крипта, сливы/пробивы, договорные матчи и ставки) мирно сосуществуют с полностью белыми каналами.

Техподдержка Telegram живо реагирует на жалобы — если новый канал резко прибавляет по несколько десятков тысяч подписчиков в сутки, то на него могут повесить плашку SCAM до выяснения подробностей.

Пример: подозрительный канал имени Дональда Трампа резко набрал популярность в середине января. Но модераторы Telegram проверили его и осадили. Результат: плашка фейкового канала, пессимизация охватов.

А вот Telegram-канал сына Трампа, здесь все в порядке.

Модерация контента в Discord

Популярный мессенджер для геймеров Discord превыше всего ставит безопасность своих пользователей. После череды скандалов (child groomers, спам, угоны и сливы данных кредитных карточек) модерацией в Discord заинтересовались журналисты и представители спецслужб. В 2018 году создатели соцсети инвестировали много ресурсов и времени в команду юристов, которая помогла им написать новые правила модерации.

Но даже новые правила, фильтры, строгий отбор модераторов, прозрачность и регулярные отчеты по борьбе с киберпреступностью не закрыли всех уязвимостей Discord. Простота создания чатов, условная анонимность участников привлекают большое количество хакеров — с каждым годом модераторам только добавляется работы. В 2019−2020 годах модераторы этой соцсети забанили 5 млн аккаунтов и 90 млн единиц сомнительного контента.

Модерация контента в Mastodon

Создатели Mastodon модерируют всего три вида контента на уровне соцсети: расистский, экстремистский, трансфобный. Широкие правила модерации оставляют свободу выбора за администраторами сообществ и пользователями.

Mastodon поощряет локальную и удаленную модерацию: сообщества в этой соцсети находятся на разных серверах и называются instances. Такая кластеризация позволяет строить устойчивые сообщества, защищаться от массовых атак вроде нашествия неонаци из соцсети Gab. Администраторы разных сообществ могут обмениваться опытом, защищать права своих пользователей, предупреждать друг друга и вырабатывать совместные правила реагирования на нетипичные случаи.

Mastodon позволяет админам самим решать, каким правилам следовать на их сервере и с кем они будут общаться в своих сообществах. Аккаунт может уйти в бан на одном сообществе и продолжить общение на всех остальных серверах и сообществах. Или создать свой сервер со своими правилами. Блокировку и удаление аккаунта Mastodon на отдельном сервере можно оспорить через 30 дней — это критическая мера для повторяющихся нарушений.

До хорошей модерации и тем, и другим еще далеко

Глобальные соцсети (Twitter) и локальные конкуренты (Telegram, Discord, Mastodon) практически не отличаются качеством модерации контента. И те и другие плохо справляются с модерированием противоречивой, опасной информации.

Защитные фильтры алгоритмов Twitter легко обходятся пакистанскими школьниками, которые играючи двигают любой заказ в тренды. Решение проблем с модерированием Twitter и Facebook хотят искать в аутсорсинге модерации контента внешним подрядчикам вроде Birdwatch и Oversight Board.

Модерация контента в мессенджерах и новых соцсетях децентрализована. Сравнительно небольшие аудитории Telegram, Discord, Mastodon упрощают работу модераторам. Явные случаи мошенничества здесь наказываются в ручном режиме, а регулирование спорных моментов оставляют на усмотрение администраторов и модераторов сообществ и каналов.

Таким образом, в соцсетях наметился общий тренд на децентрализацию принятия решений по модерации контента. Большие и маленькие соцсети одинаково стремятся к локальной, контекстуальной проверке контента, потому что опытным пользователям обмануть автоматические фильтры соцсетей не составляет труда.

Обсудить с другими читателями:
Ваш браузер устарел
На сайте Sostav.ru используются технологии, которые не доступны в вашем браузере, в связи с чем страница может отображаться некорректно.
Чтобы страница отображалась корректно, обновите ваш браузер.
Ваш браузер использует блокировщик рекламы.
Он мешает корректной работе сайта. Добавьте сайт www.sostav.ru в белый список.