Искусственнй интеллект может быть использован в преступных целях
Дроны, которые превращаются в оружие, фейковые видео, манипулирующие общественным мнением, и автоматизированные хакерские системы. Это только три угрозы, которые могут возникнуть, если искусственный интеллект попадет «не в те руки».
Авторы доклада об использовании ИИ во вредоносных целях («The Malicious Use of Artificial Intelligence») предупреждают, что искусственный интеллект вполне может быть использован государствами-изгоями, преступниками и террористами.
Доклад экспертов содержит следующие советы:
- политикам и техническим специалистам следует работать вместе, чтобы быть готовыми к предупреждению злонамеренного использования ИИ
- хотя ИИ создавался для использования в полезных целях, это технология двойного назначения. Исследователям и инженерам следует об этом помнить и осознавать всю опасность неправомерного использования этой технологии
- наилучшим примером с рисками двойного назначения, из которого можно и нужно извлечь урок, является компьютерная безопасность
- эффективным ходом будет активное расширение круга заинтересованных сторон в предотвращении и уменьшении рисков злонамеренного использования ИИ.
В разговоре с BBC, Шахар Авин, представитель Центра изучения экзистенциальных рисков Кембриджского университета, пояснил, что доклад сконцентрирован на тех сферах ИИ, которые доступны для использования уже сейчас или будут доступны в ближайшие пять лет.
СПРАВКА PAYSPACE MAGAZINE
Ранее мы сообщали, что искусственный интеллект будет управлять службами такси в Японии. Корпорация Sony заявила, что будет использовать искусственный интеллект для управления работой диспетчеров и прогнозирования спроса, обусловленного погодой, трафиком и местными мероприятиями.
ВАС ЗАИНТЕРЕСУЕТ — Искусственный интеллект: перспективы использования в финансах