close-btn

Штучний інтелект викорінюватиме токсичність в онлайн-іграх

Виходячи з того, що гендерна та расова токсичність, зокрема, надто поширені в онлайн-іграх, фіча може виявитися корисною

Для боротьби з цією проблемою вчені розробляють моделі ШІ, які можуть виявляти токсичну поведінку в режимі реального часу під час гри. Наприклад, одна з моделей може виявляти токсичність з достатнім ступенем точності, однак її розробка демонструє, наскільки складним може бути визначення того, що вважається токсичним.

Щоб створити свою модель, дослідники спочатку попросили учасників подивитись відео геймерів, які грають в Overwatch, та оцінити за шкалою від 1 до 100, наскільки токсичними були гравці у голосових чатах гри. Робота показала, що те, що одна людина сприймає як токсичне, може бути сприйнято іншою людиною як абсолютно нешкідливе.

«Ми були здивовані тим, як сильно люди оцінювали токсичність одного і того ж кліпу, але в ретроспективі це підкреслює серйозну проблему виявлення токсичності за допомогою автоматизованих методів — проблему суб’єктивності», — зазначають автори дослідження.

Тому для усунення токсичності в онлайн-іграх з використанням моделей ШІ необхідно зробити ще багато кроків, що включають підтвердження результатів, підвищення точності прогнозів, вирішення таких проблем, як упередженість, конфіденційність та етика, а також врахування контекстуальних факторів та суб’єктивності.

Раніше ми писали про останній чат-бот Google, задауючи собі питання: чи є LaMDA Штучним Інтелектом з душею або просто програмою, яка може обдурити нас, змусивши думати, що в неї є свідомість?

ЧИТАЙТЕ ТАКОЖ:

google news