После трансляции террористического акта в Новой Зеландии на Facebook Live, авторы издания VICE решили изучить документы, которые регулируют модерацию видеоконтента. Они выяснили, что это самый сложный вид публикаций, жалобы на которые им приходится рассматривать. Один из источников — анонимный работник компании — заявил, что Facebook не справляется с регулированием видео.
15 марта после террористического акта на мечеть и Исламский центр в Крайстчерче, Новая Зеландия, погибли по меньшей мере 49 человек. Один из стрелков транслировал атаку на Facebook Live — службу потоковой передачи данных социальной сети. Facebook удалил его аккаунт, но видеоматериалы распространились на других онлайн-сервисах.
Издание VICE изучило внутренние документы Facebook, показывающие, как социальная сеть разработала инструменты, чтобы сделать процесс модерации проще для десятков тысяч работников. Журналисты также поговорили со старшими сотрудниками Facebook и источниками, знакомыми со стратегией по модерации.
Пользователи могут жаловаться на прямые трансляции, которые, по их мнению, содержат насилие, притеснения или другие нарушения. После этого модераторы контента просмотрят отчет и примут решение о том, что делать с трансляцией.
Согласно внутреннему документу, они могут упустить жалобу, однако уведомление об этом будет приходить модераторам каждые пять минут; они также могут отклонить жалобу. В случае трансляции террористического акта, жалоба направляется в Группу реагирования правоохранительных органов Facebook (LERT), которая работает с полицией.
Чтобы определить, является ли действия в трансляции террористическим актом, модератору нужно ответить на несколько вопросов: что указывает на то, что пользователь совершает террористический акт? Пользователь сообщил, что будет причинен вред? Кому угрожают? Показывает ли пользователь оружие на видео?
Модераторам рекомендуют следить за «предупреждающими знаками», которые указывают на то, что видео нарушает правила сервиса. К ним относятся свидетельства попытки самоубийства, когда люди прощаются или говорят о самоубийстве.
Что касается трансляции из Новой Зеландии, некоторые из этих предупреждающих признаков относятся к категории «Свидетельства возможного насилия с участием людей или животных». В частности, они включают в себя «показ или звук оружия в любом контексте», говорится в документе.
Источник, знакомый со стратегией модерации Facebook, отметил, что трансляции очень сложно модерировать, так как они требуют быстрой и безошибочной реакции. Он также сомневается в том, что нынешняя «устаревшая» технология социальной сети эффективно справляется с этой задачей.
Источник: hightech.fm