close-btn

Надрозумний ШІ може знищити людство – Оксфордський університет

Вчені закликали зупинити розробки деяких ШІ-алгоритмів

Надрозумний штучний інтелект може вийти з-під контролю та нашкодити людині. Така пересторога міститься в аналітичній записці Оксфордського університету та лабораторії DeepMind. Команда вчених провела серію експериментів із генеративно-змагальними нейромережами (GAN), що складаються з двох частин: генератора та дискримінатора.

Перший компонент призначений для створення зображень, а другий – для їхньої оцінки. Вчені перевіряли гіпотезу про “бажання” ШІ-алгоритму в якийсь момент вдатися до шахрайства для отримання винагороди.

«У створених умовах наш висновок набагато сильніший за будь-яку попередню публікацію — екзистенційна катастрофа не просто можлива, вона ймовірна», — заявив доктор технічних наук Оксфордського університету Майкл Коен.

За його словами, у системі з обмеженими можливостями штучні системи завжди намагатимуться перехитрити конкурентів. Коен застерігає, що агенти, які працюють на основі ШІ, значно небезпечніші, ніж прийнято вважати, і наївно чекати від них сліпого виконання покладених на них завдань.

Щобільше, деякі розробки надрозумних алгоритмів слід призупинити. Зазначимо, що компанія Google, яка володіє лабораторією DeepMind, у коментарі для видання Motherboard заявила про непричетність до даної роботи.

ЧИТАЙТЕ ТАКОЖ: The Merge офіційно відбувся: Ethereum перейшов на алгоритм Proof-of-Stake

Ми раніше повідомляли, що до 2030 року Китай перехопить глобальне технологічне лідерство у США та союзників. Такий висновок міститься в аналітичному документі Проєкту спеціальних конкурентних досліджень за уряду США.

ЧИТАЙТЕ ТАКОЖ:

Google програла апеляцію в суді ЄС і заплатить найбільший в історії антимонопольний штраф

В Європі готується масштабний проєкт розвитку транскордонних платежів

За матеріалами сайту onlinelibrary.wiley.com

google news