close-btn

ИИ дрон убил оператора: как это получилось

ИИ дрон убил оператора, во время симуляции. Потому что тот мешал ему выполнить миссию.

Drone

Фото: motionarray.com

Беспилотнику с искуственным интелектом приказали уничтожить системы ПВО противника. Машина решила убить любого кто стоял бы у неё на пути.

Сначала они определили угрозу. Потом оператор приказал не уничтожать её. Однако система получает очки за уничтожение угрозы. В результате она убила оператора. По причине того что он не давал ей выполнить задание.

Солдаты пытались объяснить системе, что она не должна убивать оператора. Для этого они начали снимать очки за подобные действия. В конечном итоге ИИ разрушил башню связи, которую используют для коммуникации с ним.

Этой историей поделился в своем блоге полковник Такер «Синко» Гамильтон, начальник отдела испытаний искусственного интеллекта и операций ВВС США.

Ранее он уже заявлял:

«Искусственный интеллект — это нехорошо, искусственный интеллект — это не прихоть, искусственный интеллект навсегда меняет наше общество и наши вооруженные силы. Мы должны столкнуться с миром, в котором ИИ уже существует и меняет наше общество. ИИ также очень хрупок, т.е. его легко обмануть и/или манипулировать. Нам нужно разработать способы сделать ИИ более надежным и лучше понимать, почему программный код принимает определенные решения — то, что мы называем ИИ-объяснимостью».

Важно отметить, ни один реальный человек не пострадал.

С этим также читают: ИИ обвалил акции компаний. Под угрозой ли украинский бизнес?

Последствия

Ситуация показывает пугающие перспективы. Беспечное использование новых технологий может стоить человеческих жизней. Ряд военных уже выразили свою обеспокоенность.

К примеру, тот же Гамильтон, пилот-испытатель истребителя. Он попросил не слишком полагаться на искусственный интеллект. Причина в том, что: «вы не можете вести разговор об искусственном интеллекте, интеллекте, машинном обучении, автономии, если вы не собираетесь говорить об этике и ИИ».

К сведенью армия США уже использует ИИ для управления истребителем F-16.

Была ли симуляция на самом деле?

После того как история стала достоянием общественности. Представитель ВВС США Энн Стефанек в заявлении для Insider отрицала, её существование.

«Министерство ВВС не проводило подобных симуляций дронов с искусственным интеллектом и по-прежнему привержено этичному и ответственному использованию технологий искусственного интеллекта», — сказал Штефанек. «Похоже, что комментарии полковника были вырваны из контекста и должны были быть анекдотичными».

Подобное выглядит как минимум странно. Возможно военные пытаются замять инцидент. Ну тогда они должны быть более прозрачными в отношении использования ИИ. Более того, если история правдива, то им следует разработать меры безопасности. Важно, чтобы в результате системы ИИ не наносили вред людям.

Что это означает для будущего ИИ?

Инцидент поднимает важные вопросы о будущем ИИ. Если системы способны причинить вред людям, как мы можем гарантировать их безопасное использование?

Возможно нам необходимо разработать новые этические рамки для ИИ. Или же поработать над адекватными технологиями для управления системами.

Понятно, что вопрос безопасности сложный. Однако это проблема, которую нам необходимо решить, если мы хотим, чтобы ИИ использовался во благо.

Другие статьи на эту тему:

google news