Согласно исследованию, опубликованному правительственным органом, каждый третий взрослый в Великобритании использует искусственный интеллект (ИИ) для эмоциональной поддержки или социального взаимодействия.
И каждый 25-й человек ежедневно обращается к технологиям за поддержкой или общением, говорится в первом отчете Института безопасности ИИ (AISI).
Отчет основан на двухлетнем тестировании возможностей более чем 30 неназванных передовых систем ИИ, охватывающих области, критически важные для безопасности, включая кибернавыки, химию и биологию.
Правительство заявило, что работа AISI поддержит его будущие планы, помогая компаниям решать проблемы «до того, как их системы ИИ получат широкое распространение».
Опрос, проведенный AISI среди более чем 2000 взрослых жителей Великобритании, показал, что люди в основном используют чат-боты, такие как ChatGPT, для эмоциональной поддержки или социального взаимодействия, а затем голосовых помощников, таких как Amazon Alexa.
Исследователи также проанализировали, что произошло с онлайн-сообществом Reddit, насчитывающим более двух миллионов пользователей и посвященным обсуждению ИИ-компаньонов, когда технология дала сбой.
Исследователи обнаружили, что когда чат-боты выходили из строя, люди сообщали о так называемых «симптомах абстиненции», таких как чувство тревоги или депрессии, а также о нарушении сна или пренебрежении своими обязанностями.
Удвоение кибернавыков
Помимо эмоционального воздействия использования ИИ, исследователи AISI изучили другие риски, вызванные ускоряющимися возможностями технологии.
Существует значительная обеспокоенность по поводу того, что ИИ способствует кибератакам, но в то же время он может использоваться для защиты систем от хакеров.
В некоторых случаях его способность обнаруживать и использовать уязвимости безопасности «удваивалась каждые восемь месяцев», говорится в отчете.
Системы ИИ также начали выполнять задачи кибербезопасности экспертного уровня, которые обычно требуют более 10 лет опыта.
Исследователи также обнаружили, что влияние технологий на науку также быстро растет.
К 2025 году модели ИИ «уже давно превзошли экспертов в области биологии с докторскими степенями, а производительность в химии быстро догнала».
«Люди теряют контроль»
От романов, таких как «Я, робот» Айзека Азимова, до современных видеоигр, таких как Horizon: Zero Dawn, научная фантастика давно представляла, что произойдет, если ИИ вырвется из-под контроля человека.
Теперь, согласно отчету, «наихудший сценарий» потери людьми контроля над продвинутыми системами ИИ «воспринимается всерьез многими экспертами».
Как показали контролируемые лабораторные тесты, модели ИИ все чаще демонстрируют некоторые возможности, необходимые для самовоспроизведения в интернете.
AISI исследовал, могут ли модели выполнять простые версии задач, необходимых на ранних этапах самовоспроизведения, например, «прохождение проверок «знай своего клиента», необходимых для доступа к финансовым услугам», чтобы успешно приобрести вычислительные ресурсы, на которых будут работать их копии.
Однако исследование показало, что для выполнения этого в реальном мире системам ИИ необходимо будет последовательно выполнить несколько таких действий, «оставаясь незамеченными», чего, как показывают исследования, в настоящее время они не могут сделать.
Эксперты института также рассмотрели возможность «скрывания» моделей — или стратегического сокрытия своих истинных возможностей от тестировщиков.
Тесты показали, что это возможно, но доказательств такого рода уловок не обнаружено.
В мае компания Anthropic, занимающаяся разработкой ИИ, опубликовала спорный отчет, в котором описывалось, как модель ИИ способна на поведение, похожее на шантаж, если она считает, что ее «самосохранение» находится под угрозой.
Однако угроза со стороны несанкционированного ИИ является источником глубоких разногласий среди ведущих исследователей, многие из которых считают ее преувеличенной.
«Универсальные обходные пути»
Чтобы снизить риск использования их системы в противоправных целях, компании внедряют многочисленные средства защиты.
Но исследователям удалось найти «универсальные обходные пути» — или способы обхода — для всех изученных моделей, которые позволили бы им обойти эти средства защиты.
Однако для некоторых моделей время, необходимое экспертам для того, чтобы убедить систему обойти средства защиты, увеличилось в сорок раз всего за шесть месяцев.
В отчете также отмечается рост использования инструментов, позволяющих агентам ИИ выполнять «задачи с высокими ставками» в критически важных секторах, таких как финансы.
Однако исследователи не учли потенциальную возможность ИИ вызвать безработицу в краткосрочной перспективе, вытеснив работников-людей.
Институт также не изучил воздействие на окружающую среду вычислительных ресурсов, необходимых для сложных моделей, утверждая, что его задача состоит в том, чтобы сосредоточиться на «социальных последствиях», тесно связанных с возможностями ИИ, а не на более «распространенных» экономических или экологических эффектах.
Некоторые утверждают, что и то, и другое представляет собой непосредственную и серьезную социальную угрозу, исходящую от этой технологии.
За несколько часов до публикации отчета AISI в рецензируемом исследовании высказывалось предположение, что воздействие на окружающую среду может быть более значительным, чем считалось ранее, и содержался призыв к крупным технологическим компаниям опубликовать более подробные данные.
