Meta призывается усилить контроль за фейковыми видеороликами, созданными с помощью ИИ


Советники социальной сети Meta заявили, что ей следует активнее бороться с «распространением» фейкового контента, созданного с помощью инструментов искусственного интеллекта (ИИ), на своих платформах.

Наблюдательный совет, состоящий из 21 человека, выразил обеспокоенность, осудив компанию за то, что она оставила на платформе видеоролик, созданный с помощью ИИ, который якобы демонстрирует масштабные разрушения в Хайфе, Израиль, нанесенные иранскими силами, без подписи.

Марк Цукерберг спускается по серым каменным ступеням здания суда в Лос-Анджелесе в темно-синем пиджаке, сером галстуке и белой рубашке.

Совет призвал компанию пересмотреть свои правила в отношении ИИ, предупредив, что увеличение количества фейковых видеороликов, созданных с помощью ИИ и связанных с глобальными военными конфликтами, «бросило вызов способности общественности отличать вымысел от факта… рискуя вызвать всеобщее недоверие ко всей информации».

Meta заявила, что пометит спорный видеоролик в течение семи дней.

Meta создала наблюдательный совет в 2020 году как полунезависимую группу, осуществляющую надзор за решениями по модерации контента на своих платформах, включая Facebook, Instagram и WhatsApp.

Он часто не соглашается с решениями Meta, но компания, тем не менее, продолжает смягчать свой подход к контролю за контентом, что вызывает вопросы о том, насколько велики полномочия совета на самом деле.

Совет заявил, что действия компании в отношении видео из Хайфы выявили проблемы, на которые он указывал ранее, касающиеся «неэффективности текущего подхода Meta во время вооруженных конфликтов».

В настоящее время Meta в значительной степени полагается на пользователей, которые «самостоятельно сообщают» о том, что публикуемый ими контент создан с помощью инструмента искусственного интеллекта. В противном случае компания ждет жалобы в свою команду модерации контента, которая затем может принять решение о присвоении метки чему-либо.

Совет заявил, что компания должна «гораздо чаще» активно маркировать фейковый контент, созданный с помощью ИИ.

В заявлении говорилось, что нынешние методы компании «недостаточно надежны и всеобъемлющи, чтобы справиться с масштабом и скоростью контента, генерируемого ИИ, особенно во время кризиса или конфликта, когда на платформе наблюдается повышенная активность».

Рассмотрение вопроса советом директоров было инициировано видеороликом, опубликованным в июне прошлого года аккаунтом Facebook, зарегистрированным на Филиппинах и позиционирующим себя как новостной источник.

Это был один из серии фейковых видеороликов, созданных ИИ и опубликованных в социальных сетях после начала конфликта, контент которых был либо произраильским, либо проиранским, и которые, согласно анализу BBC того времени, быстро набрали не менее 100 миллионов просмотров.

Несмотря на то, что видео на Facebook было сгенерировано ИИ и содержало нереальный контент, а Meta получила несколько жалоб пользователей, компания не пометила видео как сгенерированное ИИ и не удалила его.

По данным совета, компания Meta отреагировала на опасения только после того, как пользователь Facebook обратился непосредственно в Наблюдательный совет, и совет рассмотрел этот вопрос.

Затем компания заявила, что видео, набравшее почти 1 миллион просмотров, не требует какой-либо маркировки и не должно быть удалено, поскольку оно не «не создает прямой угрозы неминуемого физического вреда».

Это слишком высокая планка для маркировки контента, созданного ИИ, особенно когда речь идет о вооруженном конфликте, заявил совет во вторник, постановив, что видео должно было получить «маркировку ИИ высокого риска».

«Meta должна предпринять больше усилий для борьбы с распространением вводящего в заблуждение контента, созданного ИИ, на своих платформах… чтобы пользователи могли отличать реальное от фейкового», — говорится в заявлении.

В своем заявлении Meta сообщила, что будет следовать рекомендациям совета в следующий раз, когда столкнется с «идентичным» контентом, который также находится «в том же контексте», что и видео, рассмотренное советом.


Добавить комментарий