WSJ: ИИ-алгоритм Facebook не способен эффективно удалять проблемный контент

По сообщениям сетевых источников, система искусственного интеллекта Facebook, используемая для поиска и блокировки проблемного контента в социальной сети компании, не способна эффективно выполнять поставленные задачи. Об этом пишет издание The Wall Street Journal со ссылкой на внутренние документы гиганта социальных сетей.

Изображение: foxbusiness.com

Изображение: foxbusiness.com

Согласно имеющимся данным, ИИ-система Facebook не способна эффективно идентифицировать видео от первого лица, а также контент, содержащий расистские высказывания, язык ненависти и чрезмерное насилие. Источник отмечает, что в некоторых случаях алгоритм не может отличить петушиные бои от автокатастрофы. Документы Facebook говорят о том, что в отношении контента с ненавистническими высказываниями ИИ-система определяет и блокирует лишь малую часть таких публикаций (менее 10 %). В случаях, когда алгоритм не может дать чёткое заключение о необходимости блокировки того или иного поста пользователя, спорный контент демонстрируется реже, но опубликовавший его аккаунт остаётся безнаказанным.

Около двух лет назад Facebook сократила время, которое есть у модераторов-людей на рассмотрение жалоб, а также внесла ряд других изменений в рабочие процессы, чтобы сократить общее количество жалоб. При этом сотрудники, ответственные за защиту платформы Facebook от нежелательного контента, сообщали руководству, что используемый ИИ-алгоритм недостаточно эффективен. По оценкам старшего инженера, автоматизированные системы компании удаляли сообщения, которые генерировали лишь 2 % просмотров разжигающих ненависть высказываний на платформе. Он также отметил, что в случае, если в ближайшее время не будут внесены существенные изменения в стратегию компании в плане модерации контента, то в краткосрочной перспективе ИИ-алгоритм будет выявлять не более 10-20 % проблемного контента.

Представитель Facebook Энди Стон (Andy Stone) заявил, что озвученные в отчёте проценты относятся к сообщениям, которые были удалены непосредственно ИИ-системой и не включают контент, обработанный иными способами, в том числе путём понижения рейтинга постов. Опубликованные данные резко контрастируют с ожиданиями руководства гиганта социальных сетей в лице генерального директора Марка Цукерберга (Mark Zuckerberg), который ранее заявлял, что ИИ-система компании будет способна обнаруживать «подавляющее большинство проблемного контента» к концу 2019 года. Представитель компании также отметил, что важнее учитывать другие цифры, показывающие сокращение общего количества ненавистнического контента на платформе.

Источник: 3dnews.ru

Ответить

Ваш адрес email не будет опубликован. Обязательные поля помечены *