Системи, що розробляються, все ще мають безліч недоліків, а їх недосконала система класифікації даних може сприяти посиленню дискримінації за етнічною ознакою
Системи на основі технології штучного інтелекту, які становлять потенційну загрозу правам людини, слід заборонити або тимчасово обмежити. Так вважає Комісар ООН з прав людини Мішель Бачелет. При цьому мораторій необхідно тримати до тих пір, поки уряди країн не вироблять чіткий механізм дотримань прав і контролю над використанням даних технологій.
В ході свого виступу Бачелет заявила, що ШІ-алгоритми здатні вирішувати безліч складних соціальних, економічних і виробничих завдань. Однак зворотним боком їхнього повсюдного впровадження є зростаюча загроза, оскільки в руках зловмисників такі системи “можуть мати негативні та навіть катастрофічні наслідки”.
Рада ООН оприлюднила результати недавнього дослідження, в якому фахівці звертають особливу увагу на ШІ-сервіси, що виконують функції профілювання, автоматизованого прийняття рішень і призначених для машинного навчання. На їхню думку, саме в цих трьох сферах криється найбільш руйнівний з точки зору захисту цивільних прав та свобод потенціал ШІ-технологій.
У звіті також говориться, що сервіси на базі штучного інтелекту, збираючи дані, як правило, класифікують людей за расовими та етнічними ознаками. При цьому не поодинокі випадки, коли такі сервіси в ухваленні рішення спиралися на поширені в суспільстві упередження щодо людей іншої національності. Проте Мішель Бачелет не закликала до повної заборони технології розпізнавання облич.
ДОВІДКА PAYSPACE MAGAZINE
Група вчених Північно-Східного університету Бостона (США) провела ряд експериментів, в ході яких була висунута теза про нездатність штучного інтелекту коректно визначати емоції людини.
ЧИТАЙТЕ ТАКОЖ: ШІ-алгоритм вперше перевершив людину в розпізнаванні візуальних образів
За матеріалами сайту ohchr.org