Facebook анонсировал новую систему на базе ИИ, которая предназначена для удаления чужих фотографий в стиле «ню». Facebook начал борьбу с порноместью еще в конце прошлого года. Уже тогда они разработали систему по нахождению и удалению подобных материалов. Но на том этапе, чтобы обезопасить пользователей, им предлагалось выслать собственные фотографии, которые затем использовались для блокировки подобных изображений.
По словам представителей социальной сети, новая система на базе ИИ способна самостоятельно выявлять обнаженные фотографии. Затем программа отправляет их модератору, который и решает, нужно ли блокировать фото или видео или нет.
«Используя машинное обучение и искусственный интеллект, мы теперь можем быстро обнаруживать изображения или видео с обнаженными людьми, которые публикуются без разрешения в Facebook и Instagram. Это означает, что мы можем найти этот контент до того, как кто-либо сообщит о нем. Это важно, так как что зачастую жертвы боятся возмездия и не хотят сами сообщать о контенте, или они не знают о том, что контент был опубликован», — пишут представители Facebook.
Facebook также создал новую страницу в своем Центре безопасности, где рассказывается, какие шаги следует предпринять жертвам порномести.
Источник: portaltele.com.ua