Исходя из того, что гендерная и расовая токсичность, в частности, слишком распространены в онлайн-играх, фича может оказаться полезной
Для борьбы с этой проблемой ученые разрабатывают модели ИИ, которые могут выявлять токсичное поведение в режиме реального времени во время игры. Например, одна из моделей может обнаруживать токсичность с достаточной степенью точности, однако, ее разработка демонстрирует, насколько сложным может быть определение того, что считается токсичным.
Чтобы создать свою модель, исследователи сначала попросили участников посмотреть видео геймеров, играющих в Overwatch, и оценить по шкале от 1 до 100, насколько токсичными были игроки в голосовых чатах игры. Работа показала, что то, что один человек воспринимает как токсичное, может быть воспринято другим человеком как совершенно безобидное.
«Мы были удивлены тем, насколько сильно люди оценивали токсичность одного и того же клипа, но в ретроспективе это подчеркивает серьезную проблему обнаружения токсичности с помощью автоматизированных методов — проблему субъективности» — отмечают авторы исследования
Поэтому для устранения токсичности в онлайн-играх с использованием моделей ИИ необходимо предпринять еще много шагов, включающих подтверждение результатов, повышение точности прогнозов, решение таких проблем, как предвзятость, конфиденциальность и этика, а также учет контекстуальных факторов и субъективности.
Ранее мы писали о последнем чат-боте Google, задаваясь вопросом: является ли LaMDA Искусственным Интеллектом с душой или же просто программой, которая может обмануть нас, заставив думать, что у нее есть сознание?
ЧИТАЙТЕ ТАКЖЕ:
- Meta выложила в открытый доступ модель ИИ, которая переводит тексты с 200 языков
- Европарламент принял закон, требующий от Apple открыть доступ третьих лиц к NFC-чипу
- Facebook получил доступ к удаленным данным пользователей. Дошло до увольнений