close-btn

Эксперты предупредили об опасностях искусственного интеллекта

Искусственнй интеллект может быть использован в преступных целях

опасностях искусственного интеллекта

Искусственный интеллект может быть использован в преступных целях Фото: futurelearn.com

Дроны, которые превращаются в оружие, фейковые видео, манипулирующие общественным мнением, и автоматизированные хакерские системы. Это только три угрозы, которые могут возникнуть, если искусственный интеллект попадет «не в те руки».

Авторы доклада об использовании ИИ во вредоносных целях («The Malicious Use of Artificial Intelligence») предупреждают, что искусственный интеллект вполне может быть использован государствами-изгоями, преступниками и террористами.

Доклад экспертов содержит следующие советы:

  • политикам и техническим специалистам следует работать вместе, чтобы быть готовыми к предупреждению злонамеренного использования ИИ
  • хотя ИИ создавался для использования в полезных целях, это технология двойного назначения. Исследователям и инженерам следует об этом помнить и осознавать всю опасность неправомерного использования этой технологии
  • наилучшим примером с рисками двойного назначения, из которого можно и нужно извлечь урок, является компьютерная безопасность
  • эффективным ходом будет активное расширение круга заинтересованных сторон в предотвращении и уменьшении рисков злонамеренного использования ИИ.

В разговоре с BBC, Шахар Авин, представитель Центра изучения экзистенциальных рисков Кембриджского университета, пояснил, что доклад сконцентрирован на тех сферах ИИ, которые доступны для использования уже сейчас или будут доступны в ближайшие пять лет.

СПРАВКА PAYSPACE MAGAZINE

Ранее мы сообщали, что искусственный интеллект будет управлять службами такси в Японии. Корпорация Sony заявила, что будет использовать искусственный интеллект для управления работой диспетчеров и прогнозирования спроса, обусловленного погодой, трафиком и местными мероприятиями.

ВАС ЗАИНТЕРЕСУЕТ — Искусственный интеллект: перспективы использования в финансах

google news
credit link image
×
Подписывайтесь на нас в Telegram и Viber!