close-btn

Голосовой режим ChatGPT может быть опасен для людей: причины

Команда OpenAI предупреждает, что голосовой режим ChatGPT имеет несколько недостатков, которые могут навредить пользователям

Голосовой режим ChatGPT может быть опасен для людей: причины

Голосовой режим ChatGPT может быть опасен для людей: причины Фото: freepik.com

Как говорится в материале Wired, разработчики ChatGPT предупредили пользователей о высоком риске эмоциональной привязанности к голосовому режиму, возможности выхода системы из-под ограничений, а также способности ИИ копировать голоса, что может быть использовано против людей.

Несмотря на серьезность последних двух недостатков, команду разработчиков после тестирования безопасности модели ИИ больше всего обеспокоил именно антропоморфный интерфейс.

О голосовом режиме ChatGPT и эмоциональной привязанности

В конце июля OpenAI начала внедрять пугающе человеческий голосовой интерфейс для ChatGPT. В недавнем анализе безопасности компания признает, что этот антропоморфный голос может побуждать некоторых пользователей к эмоциональной привязанности к своему чат-боту.

Эти предупреждения включены в «системную карту» для GPT-4o, технический документ, который описывает риски, связанные с моделью, а также детали тестирования безопасности и меры по снижению потенциальных рисков, принимаемые компанией.

В последние месяцы OpenAI столкнулась с критикой после того, как ряд сотрудников, работавших над долгосрочными рисками ИИ, покинули компанию. Некоторые из них впоследствии обвинили OpenAI в том, что компания идет на неоправданные риски и подавляет несогласных в своем стремлении коммерциализировать искусственный интеллект. Разглашение большего количества деталей о системе безопасности OpenAI может помочь смягчить критику и успокоить общественность.

Интересное по теме: OpenAI предоставил бесплатный доступ к DALL-E 3 в ChatGPT

Риски, рассмотренные в новой системной карте, очень разнообразны и включают возможность усиления общественных предубеждений, распространения дезинформации и содействия разработке химического или биологического оружия. Документ также содержит детали тестирования, направленного на то, чтобы гарантировать, что модели искусственного интеллекта не попытаются выйти из-под контроля, обмануть людей или разработать катастрофические планы.

Некоторые внешние эксперты хвалят OpenAI за прозрачность, но считают, что компания могла бы сделать больше.

«Раздел системной карты под названием «Антропоморфизация и эмоциональная зависимость» рассматривает проблемы, которые возникают, когда пользователи воспринимают ИИ как человека. Например, во время «красного» тестирования (оценки рисков) GPT-4o исследователи OpenAI заметили случаи использования речи, которая отражала эмоциональную привязанность к модели. Например, люди использовали фразы вроде «Это наш последний день вместе»», — говорится в обзоре Wired.

Антропоморфизация может привести к тому, что пользователи начнут больше доверять результатам модели, когда она «галлюцинирует» ложную информацию, отмечает OpenAI. Со временем это даже может повлиять на отношения пользователей с другими людьми.

«Пользователи могут формировать социальные отношения с ИИ, снижая свою потребность в человеческом взаимодействии, что может быть полезным для одиноких людей, но возможно, негативно скажется на здоровых отношениях», — говорится в документе OpenAI.

Другие проблемы, возникающие с голосовым режимом, включают новые возможные способы «взломать» модель OpenAI — например, вводя аудио, которое заставит модель выйти из-под ограничений. Взломанный голосовой режим может побуждать к имитации конкретного человека или попыткам считывать эмоции пользователя. OpenAI также отмечает, что голосовой интерфейс может быть более эффективным в убеждении людей принять определенную точку зрения.

OpenAI не единственная компания, которая признает риск того, что помощники ИИ могут имитировать человеческое взаимодействие. В апреле Google DeepMind выпустила крупный документ, в котором обсуждаются потенциальные этические вызовы, возникающие из-за усовершенствованных помощников ИИ.

Ознакомьтесь с другими популярными материалами:

Стоимость работы с ChatGPT: обзор тарифных планов: обзор тарифных планов

OpenAI выпустила новый GPT-4o mini: что умеет

OpenAI создаст ИИ-тренера по здоровью

google news
credit link image
×
Подписывайтесь на нас в Telegram и Viber!