close-btn

Дети становятся «невидимками» для беспилотных авто: причины

Исследователи из Корнелльского университета выяснили, что системы беспилотных автомобилей с меньшей точностью обнаруживают детей и темнокожих людей. Рассказываем, почему так происходит

Дети становятся невидимками для беспилотных авто: причины

Фото: freepik.com

Ученые из Королевского колледжа в Лондоне выявили существенные проблемы, связанные с возрастом и цветом кожи объектов, в системах обнаружения автономных транспортных средств. Ими было обнаружено, что дети и люди с более темной кожей подвергаются большему риску на улице со стороны беспилотных авто.

Согласно результатам исследования, анализ эффективности восьми различных ИИ-систем обнаружения пешеходов, обученных на «широко используемых, реальных» наборах данных, показал, что эти программы значительно хуже распознают темнокожих пешеходов и детей, чем светлокожих взрослых.

В результате тестирования с использованием более 8000 изображений было установлено, что точность обнаружения взрослых на 19,67% выше, чем детей, а разница в точности обнаружения светлокожих и темнокожих людей составила 7,52%.

При этом разница в точности определения пола составила всего 1,1%.

«Автономные системы вождения в будущем станут доминирующим видом транспорта. Однако эти системы подвержены ошибкам в программном обеспечении, что потенциально может привести к серьезным травмам или даже гибели пешеходов и пассажиров», — комментирует Цзе Чжан, один из авторов исследования.

Кроме того, специалисты обнаружили, что эффективность распознавания для группы людей с темной кожей снижается в условиях низкой освещенности и низкой контрастности (т.е. ночью) по сравнению с группой людей со светлой кожей.

Причины

Как предполагают исследователи, главной причиной такого расхождения является то, что для обучения систем ИИ используются коллекции изображений пешеходов со светлой кожей.

Потребность в высококачественных данных для обучения и совершенствования моделей ИИ растет экспоненциальными темпами, поскольку практически все отрасли, от финансовых услуг до здравоохранения, начинают внедрять ИИ в свои бизнес-процессы.

Однако без данных модели ИИ практически бесполезны: они не могут устанавливать связи, находить закономерности и делать прогнозы. Именно поэтому для обучения систем ИИ по-прежнему необходимы люди. Ранее мы писали о том, что уже существует приложение, которое позволяет любому человеку в любой точке мира обучать искусственный интеллект и получать за это вознаграждение.

Цзе Чжан также отметил, что проблема предвзятости — преднамеренной или нет — существует уже давно. Но когда речь идет о распознавании пешеходов в беспилотных автомобилях, ставки становятся выше. Чжан призвал разработать руководящие принципы и законы для обеспечения беспристрастного использования данных ИИ.

«Автопроизводителям и правительству необходимо объединить усилия для разработки нормативных актов, которые бы обеспечивали объективную оценку безопасности этих систем, особенно когда речь идет о справедливости. В настоящее время положение о справедливости в этих системах ограничено, что может оказать серьезное влияние не только на будущие системы, но и непосредственно на безопасность пешеходов».

К слову, Украина уже создает правовое поле для искусственного интеллекта.

Стремительное развитие искусственного интеллекта в последние годы привело к появлению сложных языковых моделей. И хотя эти мощные инструменты произвели революцию в различных отраслях, они также сопряжены с некоторыми проблемами и рисками, как мы видим. Одним из наиболее волнующих вопросов является явление галлюцинаций ИИ. Детальнее мы описали этот феномен в нашей статье «Что такое ИИ-галлюцинация и как обычному пользователю ее обнаружить».

Ознакомьтесь с другими популярными материалами на тему ИИ:

google news