Facebook отрицает слабую работу над контентом, разжигающим ненависть


Facebook опроверг утверждения о том, что его алгоритмы удаляют лишь небольшое количество сообщений, содержащих язык вражды.

Компания использует автоматизированные системы наряду с другими методами для выявления и удаления таких сообщений.

The Wall Street Journal (WSJ) сообщил, что утечка документов свидетельствует о том, что только небольшой процент оскорбительного контента фактически удаляется с помощью технологии.

Facebook, однако, настаивает на недавнем успехе в сокращении разжигания ненависти на своей платформе.

Утечка внутренних документов Facebook, которую видел WSJ, включает информацию о группе сотрудников, которые якобы обнаружили, что технология успешно удаляла только 1% сообщений, нарушающих собственные правила компании в социальных сетях.

В марте 2021 года внутренняя оценка якобы обнаружила, что автоматические усилия по удалению Facebook удаляли сообщения, генерирующие лишь от 3 до 5% от общего числа просмотров разжигания ненависти.

Также утверждается, что Facebook сократил количество времени, которое рецензенты тратят на проверку жалоб на разжигание ненависти, поданных пользователями.

  • Информатор из Facebook направился в парламент Великобритании
  • Информатор Facebook раскрывает личность

Это изменение, которое, как сообщается, произошло два года назад, «сделало компанию более зависимой от соблюдения правил искусственным интеллектом и увеличило очевидный успех технологии в ее публичной статистике», – утверждает WSJ.

Facebook категорически отрицает, что не справляется с разжиганием ненависти.

Гай Розен, вице-президент Facebook по вопросам честности, написал в своем блоге, что для оценки прогресса Facebook в этой области следует использовать другую метрику.

Г-н Розен отметил, что распространенность языка вражды на Facebook – количество таких материалов, просматриваемых на сайте – снизилась в процентном отношении ко всему контенту, просматриваемому пользователями.

По его словам, в настоящее время на язык вражды приходится 0,05%, или пять просмотров на каждые 10 000, а за последние девять месяцев этот показатель снизился на 50%.

«Распространенность – это то, как мы измеряем нашу работу внутри компании, и поэтому мы используем одну и ту же метрику для внешних», – добавил он.

Г-н Розен также отметил, что более 97% удаленного контента проактивно обнаруживается алгоритмами Facebook – до того, как о нем сообщат пользователи, которые его видели.

Последняя история о языке вражды – лишь одна из серии подобных статей о Facebook, опубликованных WSJ за последние недели.

Image caption, Frances Haugen identified herself as the source of several leaks

Истории в значительной степени основаны на просочившихся внутренних документах, предоставленных газете бывшим сотрудником Facebook Фрэнсис Хауген. Они относятся к ряду трудностей с модерацией контента, от дезинформации о вакцинах до графических видеороликов, а также к опыту молодых пользователей в Instagram, принадлежащем Facebook.

В понедельник вице-президент Facebook по глобальным вопросам Ник Клегг – бывший заместитель премьер-министра Великобритании – добавил свой голос к протесту Facebook.

В своем блоге он утверждал, что «эти истории содержали намеренно неверную характеристику того, что мы пытаемся сделать, и приписывали вопиюще ложные мотивы руководству и сотрудникам Facebook».

Представитель WSJ сказал BBC: «Ни одна из защитников Facebook не привела ни одной фактической ошибки в наших сообщениях.

«Вместо того, чтобы пытаться агрессивно раскручивать, компания должна напрямую заняться тревожными проблемами и публично публиковать все внутренние исследования, на основе которых мы основывали наши отчеты, которые, как они утверждают, мы исказили».


Добавить комментарий