Вчені закликали зупинити розробки деяких ШІ-алгоритмів
Надрозумний штучний інтелект може вийти з-під контролю та нашкодити людині. Така пересторога міститься в аналітичній записці Оксфордського університету та лабораторії DeepMind. Команда вчених провела серію експериментів із генеративно-змагальними нейромережами (GAN), що складаються з двох частин: генератора та дискримінатора.
Перший компонент призначений для створення зображень, а другий – для їхньої оцінки. Вчені перевіряли гіпотезу про “бажання” ШІ-алгоритму в якийсь момент вдатися до шахрайства для отримання винагороди.
«У створених умовах наш висновок набагато сильніший за будь-яку попередню публікацію — екзистенційна катастрофа не просто можлива, вона ймовірна», — заявив доктор технічних наук Оксфордського університету Майкл Коен.
За його словами, у системі з обмеженими можливостями штучні системи завжди намагатимуться перехитрити конкурентів. Коен застерігає, що агенти, які працюють на основі ШІ, значно небезпечніші, ніж прийнято вважати, і наївно чекати від них сліпого виконання покладених на них завдань.
Щобільше, деякі розробки надрозумних алгоритмів слід призупинити. Зазначимо, що компанія Google, яка володіє лабораторією DeepMind, у коментарі для видання Motherboard заявила про непричетність до даної роботи.
ЧИТАЙТЕ ТАКОЖ: The Merge офіційно відбувся: Ethereum перейшов на алгоритм Proof-of-Stake
Ми раніше повідомляли, що до 2030 року Китай перехопить глобальне технологічне лідерство у США та союзників. Такий висновок міститься в аналітичному документі Проєкту спеціальних конкурентних досліджень за уряду США.
ЧИТАЙТЕ ТАКОЖ:
Google програла апеляцію в суді ЄС і заплатить найбільший в історії антимонопольний штраф
В Європі готується масштабний проєкт розвитку транскордонних платежів
За матеріалами сайту onlinelibrary.wiley.com