close-btn

ИИ стал опасным, США усиливает регуляторное давление: что дальше

Президент США Джо Байден издал указ, который имеет целью установить «новые стандарты» безопасности в отношении искусственного интеллекта, включая требования к компаниям, разрабатывающим базовые AI-модели, уведомлять федеральное правительство и делиться результатами всех тестов на безопасность до того, как они будут развернуты для широкой публики

Artificial intelligence, Joe Biden

Artificial intelligence, Joe Biden Фото: whitehouse.gov, freepik.com

Стремительное движение генеративного ИИ вызвало глобальную дискуссию о необходимости создания предохранителей для противодействия потенциальным ловушкам, связанным с передачей алгоритмам слишком большого контроля. Еще в мае лидеры G7 определили ключевые темы, которые необходимо решить в рамках так называемого Hiroshima AI Process, и сегодня семь стран-участниц достигли соглашения о руководящих принципах и «добровольном» кодексе поведения для разработчиков искусственного интеллекта.

То есть разработчики AI, включая ведущих игроков: OpenAI, Google, Microsoft, Meta и Amazon, будут «добровольно обязаны» предоставлять все данные Правительству США относительно своих разработок, связанных с искусственным интеллектом.

На прошлой неделе Организация Объединенных Наций объявила о создании нового совета по изучению управления ИИ, а Великобритания на этой неделе проводит глобальный саммит по управлению AI в Блетчли-парке, на котором выступит вице-президент США Камала Харрис.

«Безопасный, защищенный и надежный ИИ»

Среди прочего, новый указ предусматривает, что разработчики самых мощных систем искусственного интеллекта должны делиться с правительством США результатами своих тестов на безопасность и связанными с ними данными.

«С ростом возможностей ИИ растут и его последствия для безопасности американцев, — отмечается в пояснении нововведения. — Указ призван защитить американцев от потенциальных рисков, связанных с системами искусственного интеллекта».

Интересное по теме: Китайские ученые представили инструмент для коррекции галлюцинаций ИИ

Согласовывая новые стандарты безопасности ИИ с Законом об оборонном производстве (1950), указ конкретно нацелен на любую фундаментальную модель, которая может представлять риск для национальной безопасности, экономической безопасности или общественного здоровья. Хотя это несколько открыто для интерпретации, должно охватывать практически любую фундаментальную модель, которая может быть реализована.

«Эти меры предоставят защищенность, безопасность и надежность систем ИИ до того, как компании обнародуют их», — отмечается в указе.

Кроме того, в указе также изложены планы по разработке различных новых инструментов и систем для обеспечения безопасности и надежности ИИ, а Национальному институту стандартов и технологий (NIST) поручено разработать новые стандарты «для широкого тестирования».

Такие тесты будут применяться во всех сферах, а министерства энергетики и внутренней безопасности, например, будут рассматривать риски, связанные с искусственным интеллектом и критически важной инфраструктурой.

Указ также служит основой для ряда новых директив и стандартов, включая (но не ограничиваясь ими):

  • защиту от рисков использования ИИ для создания опасных биологических материалов;
  • защиту от мошенничества и обмана с помощью AI;
  • создание программы кибербезопасности для сопровождения разработки инструментов ИИ и устранения уязвимостей в критически важном программном обеспечении.

Ознакомьтесь с другими популярными материалами:

Как заработать на искусственном интеллекте: 5 проверенных способов

10 реалистичных технологических прогнозов на следующие 30 лет

Топ ботов-психотерапевтов для поддержания ментального здоровья

По материалам techcrunch.com.

google news