Советники социальной сети Meta заявили, что ей следует активнее бороться с «распространением» фейкового контента, созданного с помощью инструментов искусственного интеллекта (ИИ), на своих платформах.
Наблюдательный совет, состоящий из 21 человека, выразил обеспокоенность, осудив компанию за то, что она оставила на платформе видеоролик, созданный с помощью ИИ, который якобы демонстрирует масштабные разрушения в Хайфе, Израиль, нанесенные иранскими силами, без подписи.
Совет призвал компанию пересмотреть свои правила в отношении ИИ, предупредив, что увеличение количества фейковых видеороликов, созданных с помощью ИИ и связанных с глобальными военными конфликтами, «бросило вызов способности общественности отличать вымысел от факта… рискуя вызвать всеобщее недоверие ко всей информации».
Meta заявила, что пометит спорный видеоролик в течение семи дней.
Meta создала наблюдательный совет в 2020 году как полунезависимую группу, осуществляющую надзор за решениями по модерации контента на своих платформах, включая Facebook, Instagram и WhatsApp.
Он часто не соглашается с решениями Meta, но компания, тем не менее, продолжает смягчать свой подход к контролю за контентом, что вызывает вопросы о том, насколько велики полномочия совета на самом деле.
Совет заявил, что действия компании в отношении видео из Хайфы выявили проблемы, на которые он указывал ранее, касающиеся «неэффективности текущего подхода Meta во время вооруженных конфликтов».
В настоящее время Meta в значительной степени полагается на пользователей, которые «самостоятельно сообщают» о том, что публикуемый ими контент создан с помощью инструмента искусственного интеллекта. В противном случае компания ждет жалобы в свою команду модерации контента, которая затем может принять решение о присвоении метки чему-либо.
Совет заявил, что компания должна «гораздо чаще» активно маркировать фейковый контент, созданный с помощью ИИ.
В заявлении говорилось, что нынешние методы компании «недостаточно надежны и всеобъемлющи, чтобы справиться с масштабом и скоростью контента, генерируемого ИИ, особенно во время кризиса или конфликта, когда на платформе наблюдается повышенная активность».
Рассмотрение вопроса советом директоров было инициировано видеороликом, опубликованным в июне прошлого года аккаунтом Facebook, зарегистрированным на Филиппинах и позиционирующим себя как новостной источник.
Это был один из серии фейковых видеороликов, созданных ИИ и опубликованных в социальных сетях после начала конфликта, контент которых был либо произраильским, либо проиранским, и которые, согласно анализу BBC того времени, быстро набрали не менее 100 миллионов просмотров.
Несмотря на то, что видео на Facebook было сгенерировано ИИ и содержало нереальный контент, а Meta получила несколько жалоб пользователей, компания не пометила видео как сгенерированное ИИ и не удалила его.
По данным совета, компания Meta отреагировала на опасения только после того, как пользователь Facebook обратился непосредственно в Наблюдательный совет, и совет рассмотрел этот вопрос.
Затем компания заявила, что видео, набравшее почти 1 миллион просмотров, не требует какой-либо маркировки и не должно быть удалено, поскольку оно не «не создает прямой угрозы неминуемого физического вреда».
Это слишком высокая планка для маркировки контента, созданного ИИ, особенно когда речь идет о вооруженном конфликте, заявил совет во вторник, постановив, что видео должно было получить «маркировку ИИ высокого риска».
«Meta должна предпринять больше усилий для борьбы с распространением вводящего в заблуждение контента, созданного ИИ, на своих платформах… чтобы пользователи могли отличать реальное от фейкового», — говорится в заявлении.
В своем заявлении Meta сообщила, что будет следовать рекомендациям совета в следующий раз, когда столкнется с «идентичным» контентом, который также находится «в том же контексте», что и видео, рассмотренное советом.
