close-btn

ШІ став небезпечним, США посилює регуляторний тиск: що далі

Президент США Джо Байден видав указ, який має на меті встановити «нові стандарти» безпеки щодо штучного інтелекту, включаючи вимоги до компаній, які розробляють базові AI-моделі, повідомляти федеральний уряд і ділитися результатами всіх тестів на безпеку до того, як вони будуть розгорнуті для широкої публіки

Artificial intelligence, Joe Biden

Artificial intelligence, Joe Biden Фото: whitehouse.gov, freepik.com

Стрімкий рух генеративного ШІ викликав глобальну дискусію про необхідність створення запобіжників для протидії потенційним пасткам, пов’язаним з передачею алгоритмам надто великого контролю. Ще в травні лідери G7 визначили ключові теми, які необхідно вирішити в рамках так званого Hiroshima AI Process, і сьогодні сім країн-учасниць досягли угоди про керівні принципи і «добровільний» кодекс поведінки для розробників штучного інтелекту.

Тобто розробники AI, включаючи провідних гравців: OpenAI, Google, Microsoft, Meta і Amazon, будуть «добровільно зобов’язані» надавати всі дані Уряду США щодо своїх розробок, пов’язаних із штучним інтелектом.

Минулого тижня Організація Об’єднаних Націй оголосила про створення нової ради з вивчення управління ШІ, а Великобританія цього тижня проводить глобальний саміт з управління AI в Блетчлі-парку, на якому виступить віце-президент США Камала Харріс.

«Безпечний, захищений і надійний ШІ»

Серед іншого, новий указ передбачає, що розробники найпотужніших систем штучного інтелекту повинні ділитися з урядом США результатами своїх тестів на безпеку і пов’язаними з ними даними.

«Зі зростанням можливостей ШІ зростають і його наслідки для безпеки американців, — зазначається в поясненні нововведення. — Указ покликаний захистити американців від потенційних ризиків, пов’язаних із системами штучного інтелекту».

Цікаве по темі: Китайські вчені представили інструмент для корекції галюцинацій ШІ

Узгоджуючи нові стандарти безпеки ШІ із Законом про оборонне виробництво (1950), указ конкретно націлений на будь-яку фундаментальну модель, яка може становити ризик для національної безпеки, економічної безпеки або громадського здоров’я. Хоча це дещо відкрито для інтерпретації, повинно охоплювати практично будь-яку фундаментальну модель, яка може бути реалізована.

«Ці заходи нададуть захищеність, безпеку і надійність систем ШІ до того, як компанії оприлюднять їх», — йдеться в указі.

Крім того, в указі також викладені плани з розробки різних нових інструментів і систем для забезпечення безпеки і надійності ШІ, а Національному інституту стандартів і технологій (NIST) доручено розробити нові стандарти «для широкого тестування».

Такі тести будуть застосовуватися в усіх сферах, а міністерства енергетики та внутрішньої безпеки, наприклад, розглядатимуть ризики, пов’язані зі штучним інтелектом та критично важливою інфраструктурою.

Указ також слугує основою для низки нових директив і стандартів, включаючи (але не обмежуючись ними):

  • захист від ризиків використання ШІ для створення небезпечних біологічних матеріалів;
  • захист від шахрайства і обману за допомогою AI;
  • створення програми кібербезпеки для супроводу розробки інструментів ШІ та усунення вразливостей у критично важливому програмному забезпеченні.

Ознайомтеся з іншими популярними матеріалами:

Як заробити на штучному інтелекті: 5 перевірених способів

10 реалістичних технологічних прогнозів на наступні 30 років

Топ ботів-психотерапевтів для підтримки ментального здоров’я

За матеріалами techcrunch.com.

google news