Президент США Джо Байден видав указ, який має на меті встановити «нові стандарти» безпеки щодо штучного інтелекту, включаючи вимоги до компаній, які розробляють базові AI-моделі, повідомляти федеральний уряд і ділитися результатами всіх тестів на безпеку до того, як вони будуть розгорнуті для широкої публіки

Artificial intelligence, Joe Biden Фото: whitehouse.gov, freepik.com
Стрімкий рух генеративного ШІ викликав глобальну дискусію про необхідність створення запобіжників для протидії потенційним пасткам, пов’язаним з передачею алгоритмам надто великого контролю. Ще в травні лідери G7 визначили ключові теми, які необхідно вирішити в рамках так званого Hiroshima AI Process, і сьогодні сім країн-учасниць досягли угоди про керівні принципи і «добровільний» кодекс поведінки для розробників штучного інтелекту.
Тобто розробники AI, включаючи провідних гравців: OpenAI, Google, Microsoft, Meta і Amazon, будуть «добровільно зобов’язані» надавати всі дані Уряду США щодо своїх розробок, пов’язаних із штучним інтелектом.
Минулого тижня Організація Об’єднаних Націй оголосила про створення нової ради з вивчення управління ШІ, а Великобританія цього тижня проводить глобальний саміт з управління AI в Блетчлі-парку, на якому виступить віце-президент США Камала Харріс.
«Безпечний, захищений і надійний ШІ»
Серед іншого, новий указ передбачає, що розробники найпотужніших систем штучного інтелекту повинні ділитися з урядом США результатами своїх тестів на безпеку і пов’язаними з ними даними.
«Зі зростанням можливостей ШІ зростають і його наслідки для безпеки американців, — зазначається в поясненні нововведення. — Указ покликаний захистити американців від потенційних ризиків, пов’язаних із системами штучного інтелекту».
Цікаве по темі: Китайські вчені представили інструмент для корекції галюцинацій ШІ
Узгоджуючи нові стандарти безпеки ШІ із Законом про оборонне виробництво (1950), указ конкретно націлений на будь-яку фундаментальну модель, яка може становити ризик для національної безпеки, економічної безпеки або громадського здоров’я. Хоча це дещо відкрито для інтерпретації, повинно охоплювати практично будь-яку фундаментальну модель, яка може бути реалізована.
«Ці заходи нададуть захищеність, безпеку і надійність систем ШІ до того, як компанії оприлюднять їх», — йдеться в указі.
Крім того, в указі також викладені плани з розробки різних нових інструментів і систем для забезпечення безпеки і надійності ШІ, а Національному інституту стандартів і технологій (NIST) доручено розробити нові стандарти «для широкого тестування».
Такі тести будуть застосовуватися в усіх сферах, а міністерства енергетики та внутрішньої безпеки, наприклад, розглядатимуть ризики, пов’язані зі штучним інтелектом та критично важливою інфраструктурою.
Указ також слугує основою для низки нових директив і стандартів, включаючи (але не обмежуючись ними):
- захист від ризиків використання ШІ для створення небезпечних біологічних матеріалів;
- захист від шахрайства і обману за допомогою AI;
- створення програми кібербезпеки для супроводу розробки інструментів ШІ та усунення вразливостей у критично важливому програмному забезпеченні.
Ознайомтеся з іншими популярними матеріалами:
Як заробити на штучному інтелекті: 5 перевірених способів
10 реалістичних технологічних прогнозів на наступні 30 років
Топ ботів-психотерапевтів для підтримки ментального здоров’я
За матеріалами techcrunch.com.