Разрабатываемые системы все еще имеют множество недостатков, а их несовершенная система классификации пользовательских данных может способствовать усилению дискриминации по этническому признаку
Системы на основе технологии искусственного интеллекта, которые представляют потенциальную угрозу правам человека, следует запретить или временно ограничить. Так считает Комиссар ООН по правам человека Мишель Бачелет. При этом мораторий необходимо соблюдать до тех пор, пока правительства стран не выработают четкий механизм соблюдений прав и контроля над использованием данных технологий.
В ходе своего выступления Бачелет заявила, что ИИ-алгоритмы способны решать множество сложных социальных, экономических и производственных задач. Однако оборотной стороной их повсеместного внедрения является растущая угроза, так как в руках злоумышленников такие системы «могут иметь негативные и даже катастрофические последствия».
Совет ООН обнародовал результаты недавнего исследования, в котором специалисты обращают особое внимание на ИИ-сервисы, выполняющие функции профилирования, автоматизированного принятия решений и предназначенных для машинного обучения. По их мнению, именно в этих трех сферах кроется наиболее разрушительный с точки зрения защиты гражданских прав и свобод потенциал ИИ-технологий.
В отчете также говорится, что сервисы на базе искусственного интеллекта, собирая пользовательские данные, как правило, классифицируют людей по расовым и этническим признакам. При этом не одиноки случаи, когда такие сервисы в принятии решения опирались на по-прежнему распространенные в обществе предубеждения относительно людей другой национальности. Тем не менее Мишель Бачелет не призывала к полному запрету технологии распознавания лиц.
СПРАВКА PAYSPACE MAGAZINE
Группа ученых Северо-Восточного университета Бостона (США) провела ряд экспериментов, в ходе которых был выдвинут тезис о неспособности искусственного интеллекта корректно определять эмоции человека.
ЧИТАЙТЕ ТАКЖЕ: ИИ-алгоритм впервые превзошел человека в распознавании визуальных образов
По материалам сайта ohchr.org