Facebook извиняется за то, что искусственный интеллект называет черных мужчин приматами

Пользователей Facebook, которые смотрели газетное видео с участием чернокожих, спросили, хотят ли они «продолжать смотреть видео о приматах» с помощью системы рекомендаций искусственного интеллекта.

Facebook сообщил BBC News, что это «явно недопустимая ошибка», отключил систему и начал расследование.

«Мы приносим свои извинения всем, кто, возможно, видел эти оскорбительные рекомендации».

Это последняя из длительной серии ошибок, которые вызвали опасения по поводу расовых предубеждений в ИИ.

“Искренне сожалею”

В 2015 году приложение Google Photos пометило фотографии чернокожих людей как «гориллы».

Компания заявила, что была «потрясена и искренне сожалею», хотя ее исправление, как сообщало Wired в 2018 году, заключалось в простой цензуре поиска фотографий и тегов для слова «горилла».

В мае Twitter признал расовые предубеждения в том, как его «алгоритм заметности» кадрировал превью изображений.

Исследования также показали предвзятость в алгоритмах некоторых систем распознавания лиц.

Алгоритмическая ошибка

В 2020 году Facebook объявил о создании нового «инклюзивного совета по продуктам» и новой команды по управлению акциями в Instagram, которые, среди прочего, будут изучать, демонстрируют ли его алгоритмы расовую предвзятость.

  • Google и крупные технологии являются институционально расистскими
  • IBM отказывается от “ необъективной ” технологии распознавания лиц

«Рекомендация приматов» «была алгоритмической ошибкой на Facebook» и не отражала содержание видео, сообщил BBC News представитель.

«Мы отключили всю функцию рекомендаций по темам, как только поняли, что это происходит, чтобы мы могли выяснить причину и предотвратить повторение этого снова».

«Как мы уже говорили, улучшая наш ИИ, мы знаем, что он несовершенен, и нам еще предстоит продвинуться вперед».

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *