Команда OpenAI предупреждает, что голосовой режим ChatGPT имеет несколько недостатков, которые могут навредить пользователям
Как говорится в материале Wired, разработчики ChatGPT предупредили пользователей о высоком риске эмоциональной привязанности к голосовому режиму, возможности выхода системы из-под ограничений, а также способности ИИ копировать голоса, что может быть использовано против людей.
Несмотря на серьезность последних двух недостатков, команду разработчиков после тестирования безопасности модели ИИ больше всего обеспокоил именно антропоморфный интерфейс.
О голосовом режиме ChatGPT и эмоциональной привязанности
В конце июля OpenAI начала внедрять пугающе человеческий голосовой интерфейс для ChatGPT. В недавнем анализе безопасности компания признает, что этот антропоморфный голос может побуждать некоторых пользователей к эмоциональной привязанности к своему чат-боту.
Эти предупреждения включены в «системную карту» для GPT-4o, технический документ, который описывает риски, связанные с моделью, а также детали тестирования безопасности и меры по снижению потенциальных рисков, принимаемые компанией.
В последние месяцы OpenAI столкнулась с критикой после того, как ряд сотрудников, работавших над долгосрочными рисками ИИ, покинули компанию. Некоторые из них впоследствии обвинили OpenAI в том, что компания идет на неоправданные риски и подавляет несогласных в своем стремлении коммерциализировать искусственный интеллект. Разглашение большего количества деталей о системе безопасности OpenAI может помочь смягчить критику и успокоить общественность.
Интересное по теме: OpenAI предоставил бесплатный доступ к DALL-E 3 в ChatGPT
Риски, рассмотренные в новой системной карте, очень разнообразны и включают возможность усиления общественных предубеждений, распространения дезинформации и содействия разработке химического или биологического оружия. Документ также содержит детали тестирования, направленного на то, чтобы гарантировать, что модели искусственного интеллекта не попытаются выйти из-под контроля, обмануть людей или разработать катастрофические планы.
Некоторые внешние эксперты хвалят OpenAI за прозрачность, но считают, что компания могла бы сделать больше.
«Раздел системной карты под названием «Антропоморфизация и эмоциональная зависимость» рассматривает проблемы, которые возникают, когда пользователи воспринимают ИИ как человека. Например, во время «красного» тестирования (оценки рисков) GPT-4o исследователи OpenAI заметили случаи использования речи, которая отражала эмоциональную привязанность к модели. Например, люди использовали фразы вроде «Это наш последний день вместе»», — говорится в обзоре Wired.
Антропоморфизация может привести к тому, что пользователи начнут больше доверять результатам модели, когда она «галлюцинирует» ложную информацию, отмечает OpenAI. Со временем это даже может повлиять на отношения пользователей с другими людьми.
«Пользователи могут формировать социальные отношения с ИИ, снижая свою потребность в человеческом взаимодействии, что может быть полезным для одиноких людей, но возможно, негативно скажется на здоровых отношениях», — говорится в документе OpenAI.
Другие проблемы, возникающие с голосовым режимом, включают новые возможные способы «взломать» модель OpenAI — например, вводя аудио, которое заставит модель выйти из-под ограничений. Взломанный голосовой режим может побуждать к имитации конкретного человека или попыткам считывать эмоции пользователя. OpenAI также отмечает, что голосовой интерфейс может быть более эффективным в убеждении людей принять определенную точку зрения.
OpenAI не единственная компания, которая признает риск того, что помощники ИИ могут имитировать человеческое взаимодействие. В апреле Google DeepMind выпустила крупный документ, в котором обсуждаются потенциальные этические вызовы, возникающие из-за усовершенствованных помощников ИИ.
Ознакомьтесь с другими популярными материалами:
Стоимость работы с ChatGPT: обзор тарифных планов: обзор тарифных планов
OpenAI выпустила новый GPT-4o mini: что умеет
OpenAI создаст ИИ-тренера по здоровью