Президент США Джо Байден видав указ, який має на меті встановити «нові стандарти» безпеки щодо штучного інтелекту, включаючи вимоги до компаній, які розробляють базові AI-моделі, повідомляти федеральний уряд і ділитися результатами всіх тестів на безпеку до того, як вони будуть розгорнуті для широкої публіки
Стрімкий рух генеративного ШІ викликав глобальну дискусію про необхідність створення запобіжників для протидії потенційним пасткам, пов’язаним з передачею алгоритмам надто великого контролю. Ще в травні лідери G7 визначили ключові теми, які необхідно вирішити в рамках так званого Hiroshima AI Process, і сьогодні сім країн-учасниць досягли угоди про керівні принципи і «добровільний» кодекс поведінки для розробників штучного інтелекту.
Тобто розробники AI, включаючи провідних гравців: OpenAI, Google, Microsoft, Meta і Amazon, будуть «добровільно зобов’язані» надавати всі дані Уряду США щодо своїх розробок, пов’язаних із штучним інтелектом.
Минулого тижня Організація Об’єднаних Націй оголосила про створення нової ради з вивчення управління ШІ, а Великобританія цього тижня проводить глобальний саміт з управління AI в Блетчлі-парку, на якому виступить віце-президент США Камала Харріс.
«Безпечний, захищений і надійний ШІ»
Серед іншого, новий указ передбачає, що розробники найпотужніших систем штучного інтелекту повинні ділитися з урядом США результатами своїх тестів на безпеку і пов’язаними з ними даними.
«Зі зростанням можливостей ШІ зростають і його наслідки для безпеки американців, — зазначається в поясненні нововведення. — Указ покликаний захистити американців від потенційних ризиків, пов’язаних із системами штучного інтелекту».
Цікаве по темі: Китайські вчені представили інструмент для корекції галюцинацій ШІ
Узгоджуючи нові стандарти безпеки ШІ із Законом про оборонне виробництво (1950), указ конкретно націлений на будь-яку фундаментальну модель, яка може становити ризик для національної безпеки, економічної безпеки або громадського здоров’я. Хоча це дещо відкрито для інтерпретації, повинно охоплювати практично будь-яку фундаментальну модель, яка може бути реалізована.
«Ці заходи нададуть захищеність, безпеку і надійність систем ШІ до того, як компанії оприлюднять їх», — йдеться в указі.
Крім того, в указі також викладені плани з розробки різних нових інструментів і систем для забезпечення безпеки і надійності ШІ, а Національному інституту стандартів і технологій (NIST) доручено розробити нові стандарти «для широкого тестування».
Такі тести будуть застосовуватися в усіх сферах, а міністерства енергетики та внутрішньої безпеки, наприклад, розглядатимуть ризики, пов’язані зі штучним інтелектом та критично важливою інфраструктурою.
Указ також слугує основою для низки нових директив і стандартів, включаючи (але не обмежуючись ними):
- захист від ризиків використання ШІ для створення небезпечних біологічних матеріалів;
- захист від шахрайства і обману за допомогою AI;
- створення програми кібербезпеки для супроводу розробки інструментів ШІ та усунення вразливостей у критично важливому програмному забезпеченні.
Ознайомтеся з іншими популярними матеріалами:
Як заробити на штучному інтелекті: 5 перевірених способів
10 реалістичних технологічних прогнозів на наступні 30 років
Топ ботів-психотерапевтів для підтримки ментального здоров’я
За матеріалами techcrunch.com.