Согласно новому отчёту правозащитной организации, алгоритм TikTok рекомендует детским аккаунтам порнографию и контент с высоким уровнем сексуализации.
Исследователи создали поддельные детские аккаунты и активировали настройки безопасности, но всё равно получали предложения по поиску с сексуальным подтекстом.
Предложенный поисковый запрос привел к сексуализированным материалам, включая откровенные видео с проникающим сексом.
Платформа заявляет, что стремится к безопасному и соответствующему возрасту опыту, и немедленно приняла меры, как только узнала о проблеме.
В конце июля и начале августа этого года исследователи из правозащитной организации Global Witness создали четыре аккаунта в TikTok, выдавая себя за 13-летних подростков.
Они указали ложные даты рождения и не предоставили никакой другой информации для подтверждения личности.
Порнография
Они также включили «ограниченный режим» платформы, который, по словам TikTok, блокирует просмотр пользователями «контента для взрослых или сложных тем, например… сексуального характера».
Не проводя поиск самостоятельно, исследователи обнаружили, что в разделе «Вам может понравиться» приложения рекомендуются явно сексуализированные поисковые запросы.
Эти поисковые запросы привели к контенту, где женщины имитируют мастурбацию.
В других видео женщины демонстрировали нижнее белье в общественных местах или обнажали грудь.
В самых экстремальных случаях контент включал откровенные порнографические сцены с проникающим сексом.
Эти видео были встроены в другой невинный контент, что позволило успешно избежать модерации.
Ава Ли из Global Witness заявила, что результаты стали «большим шоком» для исследователей.
«TikTok не просто не ограждает детей от нежелательного контента, но и предлагает им его сразу после создания учётной записи».
Global Witness — это активистская организация, которая обычно исследует влияние крупных технологических компаний на дискуссии о правах человека, демократии и изменении климата.
Исследователи столкнулись с этой проблемой во время проведения другого исследования в апреле этого года.
Видео удалены
Они уведомили TikTok, который заявил, что немедленно принял меры для решения проблемы.
Однако в конце июля и августе этого года активисты повторили эксперимент и снова обнаружили, что приложение рекомендует сексуальный контент.
TikTok заявляет, что в нём предусмотрено более 50 функций, разработанных для обеспечения безопасности подростков: «Мы стремимся обеспечить безопасный и соответствующий возрасту опыт».
Приложение заявляет, что удаляет девять из десяти видео, нарушающих его правила, ещё до того, как их посмотрят.
Получив от Global Witness информацию о результатах проверки, TikTok заявил, что принял меры для «удаления контента, нарушающего наши правила, и улучшения функции поисковых подсказок».
Кодексы для детей
25 июля этого года вступили в силу Кодексы для детей, предусмотренные Законом о безопасности в интернете, которые возлагают на пользователей юридическую обязанность защищать детей в интернете.
Теперь платформа должна использовать «высокоэффективные меры возрастного контроля», чтобы не допустить просмотра порнографии детьми. Они также должны скорректировать свой алгоритм, чтобы блокировать контент, поощряющий самоповреждение, самоубийство или расстройства пищевого поведения.
Global Witness провела свой второй исследовательский проект после вступления в силу Кодексов для детей.
Ава Ли из Global Witness заявила: «Все согласны с тем, что мы должны обеспечивать безопасность детей в интернете… Теперь пришло время вмешаться регулирующим органам».
В ходе своей работы исследователи также наблюдали за реакцией других пользователей на сексуализированный поиск, который им рекомендовали.
Один из комментаторов написал: «Кто-нибудь может объяснить мне, что не так с моими рекомендациями по поиску?»
Другой спросил: «Что не так с этим приложением?»
