close-btn

ШІ дрон убив оператора: як це вийшло

ШІ дрон убив оператора під час симуляції. Тому що він заважав йому виконати місію.

Drone

Фото: motionarray.com

Безпілотнику зі штучним інтелектом наказали знищити системи ППО супротивника. Машина вирішила вбити будь-кого, хто стояв би у неї на шляху.

Спершу вони визначили загрозу. Потім оператор наказав не знищувати її. Проте, система отримує очки за знищення загрози. В результаті вона вбила оператора. Через те, що він не давав їй виконати завдання.

Солдати намагалися пояснити системі, що вона не має вбивати оператора. Для цього вони почали знімати очки за подібні дії. Зрештою, ШІ зруйнував вежу зв’язку, яку використовують для комунікації з ним.

Цією історією поділився у своєму блозі полковник Такер «Сінко» Гамільтон, начальник відділу випробувань штучного інтелекту та операцій ВПС США.

Раніше він уже заявляв:

«Штучний інтелект — це недобре, штучний інтелект — це не забаганка, штучний інтелект назавжди змінює наше суспільство та наші збройні сили. Ми повинні зіткнутися зі світом, в якому ШІ вже існує і змінює його. ШІ також дуже тендітний, тобто. його легко обдурити та/або маніпулювати. Нам потрібно розробити способи зробити ШІ надійнішим і краще розуміти, чому програмний код приймає певні рішення — те, що ми називаємо ШІ-зрозумілістю».

Важливо відзначити, що жодна реальна людина не постраждала.

З цим також читають: ШІ обвалив акції компаній. Чи під загрозою український бізнес?

Наслідки

Ситуація показує лякаючі перспективи. Безпечне використання нових технологій може коштувати людських життів. Ряд військових уже висловили своє занепокоєння.

Наприклад, той самий Гамільтон, пілот-випробувач винищувача. Він попросив не надто покладатися на штучний інтелект. Причина в тому, що: «ви не можете вести розмову про штучний інтелект, інтелект, машинне навчання, автономію, якщо ви не збираєтеся говорити про етику та ШІ».

Для розуміння ситуації, армія США вже використовує ШІ в управлінні винищувачем F-16.

Чи була симуляція насправді?

Після того, як історія стала надбанням громадськості. Представник ВПС США Енн Стефанек у заяві для Insider заперечувала її існування.

«Міністерство ВПС не проводило подібних симуляцій дронів зі штучним інтелектом і, як і раніше, віддане етичному та відповідальному використанню технологій штучного інтелекту», — сказав Штефанек. «Схоже, що коментарі полковника вирвані з контексту і мали бути анекдотичними».

Подібне виглядає як мінімум дивно. Можливо військові намагаються зам’яти інцидент. Ну тоді вони мають бути прозорішими щодо використання ШІ. Щобільше, якщо історія є правдивою, то їм слід розробити заходи безпеки. Важливо, щоб у результаті системи ШІ не завдавали шкоди людям.

Що це означає для майбутнього ШІ?

Інцидент порушує важливі питання щодо майбутнього ШІ. Якщо системи здатні завдати шкоди людям, як ми можемо гарантувати їхнє безпечне використання?

Можливо, нам необхідно розробити нові етичні рамки для ШІ. Або попрацювати над адекватними технологіями для управління системами.

Зрозуміло, що питання безпеки складне. Однак це проблема, яку нам необхідно вирішити, якщо ми хочемо, щоб ШІ використовувався на благо.

Інші статті на цю тему:

google news