close-btn

Сверхразумный ИИ может погубить человечество — Оксфордский университет

Ученые призвали остановить разработки некоторых ИИ-алгоритмов

Сверхразумный искусственный интеллект может выйти из-под контроля и навредить человеку. Такое предостережение содержится в аналитической записке Оксфордского университета и лаборатории DeepMind. Команда ученых провела серию экспериментов с генеративно-состязательными нейросетями (GAN), состоящими из двух частей: генератора и дискриминатора.

Первый компонент предназначен для создания изображений, а второй — для их оценки. Ученые проверяли гипотезу о «желании» ИИ-алгоритма в какой-то момент прибегнуть к мошенничеству для получения вознаграждения.

«В созданных условиях наш вывод намного сильнее любой предыдущей публикации — экзистенциальная катастрофа не просто возможна, она вероятна», — заявил доктор технических наук Оксфордского университета Майкл Коэн.

По его словам, в системе с ограниченными возможностями искусственные системы всегда будут пытаться перехитрить конкурентов. Коэн предостерегает, что агенты, работающие на основе ИИ, значительно более опасны, чем принято считать, и наивно ожидать от них слепого исполнения возложенных на них задач.

Более того, некоторые разработки сверхразумных алгоритмов следует приостановить. Отметим, что компания Google, владеющая лабораторией DeepMind, в комментарии для издания Motherboard заявила о непричастности к данной исследовательской работе.

ЧИТАЙТЕ ТАКЖЕ: The Merge официально состоялся: Ethereum перешел на алгоритм Proof-of-Stake

Мы ранее сообщали, что до 2030 года Китай перехватит глобальное технологическое лидерство у США и союзников. Такой вывод содержится в аналитическом документе Проекта специальных конкурентных исследований при правительстве США.

ЧИТАЙТЕ ТАКЖЕ:

Google проиграла апелляцию в суде ЕС и заплатит крупнейший в истории антимонопольный штраф

В Европе готовится масштабный проект по развитию трансграничных платежей

По материалам сайта onlinelibrary.wiley.com

google news
credit link image
×
Подписывайтесь на нас в Telegram и Viber!