Пять ключевых задач для обеспечения безопасности ИИ


Эксперты по искусственному интеллекту обычно придерживаются одной из двух точек зрения: он либо значительно улучшит нашу жизнь, либо уничтожит нас всех. И именно поэтому дебаты в Европейском парламенте на этой неделе о том, как регулируется технология, так важны. Но как сделать ИИ безопасным? Вот пять предстоящих задач.

Согласие, что такое искусственный интеллект

Европейскому парламенту потребовалось два года, чтобы дать определение системе ИИ — программному обеспечению, которое может «для заданного набора целей, определенных человеком, генерировать такие результаты, как контент, прогнозы, рекомендации или решения, влияющие на среду, с которой они взаимодействуют». .

На этой неделе он голосует за свой Закон об искусственном интеллекте — первые в своем роде юридические правила в отношении ИИ, которые выходят за рамки добровольных кодексов и требуют от компаний их соблюдения.

Достижение глобального соглашения

Бывший глава британского Управления искусственного интеллекта Сана Харагани отмечает, что технология не знает границ.

«Нам необходимо международное сотрудничество в этом вопросе — я знаю, что это будет сложно», — говорит она BBC News. «Это не внутреннее дело. Эти технологии не находятся в границах одной страны.

Но по-прежнему нет плана глобального регулятора ИИ в стиле Организации Объединенных Наций — хотя некоторые предлагали его — и разные территории имеют разные идеи:

  • Предложения Европейского союза являются наиболее строгими и включают классификацию продуктов ИИ в зависимости от их воздействия — например, спам-фильтр электронной почты будет иметь более мягкое регулирование, чем инструмент обнаружения рака.
  • Великобритания внедряет регулирование ИИ в существующие регулирующие органы — например, те, кто говорит, что технология их дискриминирует, пойдут в Комиссию по вопросам равенства.
  • В Соединенных Штатах действуют только добровольные кодексы, и на недавних слушаниях в комитете по искусственному интеллекту законодатели признали опасения по поводу того, справятся ли они с этой задачей.
  • Китай намерен заставить компании уведомлять пользователей всякий раз, когда используется алгоритм ИИ.

Обеспечение общественного доверия

«Если люди ей доверяют, они будут ее использовать», — говорит глава правительства и регулирующих органов ЕС корпорации International Business Machines (IBM) Жан-Марк Леклерк.

У ИИ есть огромные возможности для улучшения жизни людей невероятным образом. Уже:

  • помощь в открытии антибиотиков
  • заставить парализованных людей снова ходить
  • решение таких проблем, как изменение климата и пандемии

Но как насчет проверки кандидатов на работу или прогнозирования вероятности того, что кто-то совершит преступление?

Европейский парламент хочет, чтобы общественность была проинформирована о рисках, связанных с каждым продуктом ИИ.

Компании, нарушающие его правила, могут быть оштрафованы на 30 миллионов евро или 6% от мирового годового оборота в зависимости от того, что больше.

Но могут ли разработчики предсказать или контролировать, как может использоваться их продукт?

Person using facial recognition system on their smartphone

Решить, кто пишет правила

До сих пор ИИ в значительной степени контролировал себя.

По словам Сэма Альтмана, руководителя OpenAI, создателя ChatGPT, крупные компании заявляют, что они согласны с государственным регулированием, что «критично» для снижения потенциальных рисков.

Но поставят ли они прибыль выше людей, если будут слишком вовлечены в написание правил?

Вы можете поспорить, что они хотят быть как можно ближе к законодателям, которым поручено устанавливать правила.

А основатель Lastminute.com баронесса Лейн-Фокс говорит, что важно прислушиваться не только к корпорациям.

«Мы должны привлечь гражданское общество, научные круги, людей, затронутых этими различными моделями и преобразованиями», — говорит она.

Действуя быстро

Microsoft, вложившая миллиарды долларов в ChatGPT, хочет, чтобы он «избавил вас от рутинной работы».

Он может генерировать человеческую прозу и текстовые ответы, но, как указывает Альтман, это «инструмент, а не существо».

Предполагается, что чат-боты сделают сотрудников более продуктивными.

А в некоторых отраслях искусственный интеллект может создавать рабочие места и быть грозным помощником.

Но другие их уже потеряли — в прошлом месяце BT объявила, что искусственный интеллект заменит 10 000 рабочих мест.

ChatGPT стал общедоступным чуть более шести месяцев назад.

Теперь он может писать сочинения, планировать праздники людей и сдавать профессиональные экзамены.

Возможности этих крупномасштабных языковых моделей растут феноменальными темпами.

И двое из трех «крестных отцов» ИИ — Джеффри Хинтон и профессор Йошуа Бенжио — были среди тех, кто предупреждал, что технология может нанести огромный вред.

Закон об искусственном интеллекте не вступит в силу по крайней мере до 2025 года — «слишком поздно», говорит глава отдела технологий ЕС Маргрете Вестагер.

Вместе с США она разрабатывает временный добровольный кодекс для сектора, который может быть готов в течение нескольких недель.


Добавить комментарий