close-btn

Голосовий режим ChatGPT може бути небезпечним для людей: причини

Команда OpenAI попереджає, що голосовий режим ChatGPT має декілька недоліків, що можуть зашкодити користувачам

Голосовий режим ChatGPT може бути небезпечним для людей: причини

Голосовий режим ChatGPT може бути небезпечним для людей: причини Фото: freepik.com

Як йдеться у матеріалі Wired, розробники ChatGPT попередили користувачів про високий ризик емоційної прив’язки до голосового режиму, можливість виходу системи з-під обмежень, а також здатність ШІ копіювати голоси, що може бути використано проти людей.

Попри серйозність останніх двох недоліків, команду розробників після тестування безпеки моделі ШІ найбільше занепокоїв саме антропоморфний інтерфейс.

Про голосовий режим ChatGPT та емоційну прив’язаність

Наприкінці липня OpenAI почала впроваджувати моторошно людський голосовий інтерфейс для ChatGPT. У нещодавньому аналізі безпеки компанія визнає, що цей антропоморфний голос може спонукати деяких користувачів до емоційної прив’язаності до свого чат-бота.

Ці попередження включені в «системну карту» для GPT-4o, технічний документ, який описує ризики, пов’язані з моделлю, а також деталі тестування безпеки та заходи щодо зменшення потенційних ризиків, які вживає компанія.

Останніми місяцями OpenAI зіткнулася з критикою після того, як низка співробітників, які працювали над довгостроковими ризиками ШІ, покинули компанію. Деякі з них згодом звинуватили OpenAI у тому, що компанія йде на невиправдані ризики та придушує незгодних у своєму прагненні комерціалізувати штучний інтелект. Розкриття більшої кількості деталей про систему безпеки OpenAI може допомогти пом’якшити критику та заспокоїти громадськість.

Цікаве по темі: OpenAI надав безплатний доступ до DALL-E 3 в ChatGPT

Ризики, розглянуті в новій системній карті, є дуже різноманітними і включають можливість посилення суспільних упереджень, поширення дезінформації та сприяння розробці хімічної чи біологічної зброї. Документ також містить деталі тестування, яке має на меті гарантувати, що моделі штучного інтелекту не спробують вийти з-під контролю, обманути людей або розробити катастрофічні плани.

Деякі зовнішні експерти хвалять OpenAI за прозорість, але вважають, що компанія могла б зробити більше.

«Розділ системної карти під назвою «Антропоморфізація та емоційна залежність» розглядає проблеми, які виникають, коли користувачі сприймають ШІ як людину. Наприклад, під час «червоного» тестування (оцінки ризиків) GPT-4o дослідники OpenAI помітили випадки використання мовлення, яке відображало емоційну прив’язаність до моделі. Наприклад, люди використовували фрази на кшталт “Це наш останній день разом”», — йдеться в огляді Wired.

Антропоморфізація може призвести до того, що користувачі почнуть більше довіряти результатам моделі, коли вона «галюцинує» неправдиву інформацію, зазначає OpenAI. З часом це навіть може вплинути на стосунки користувачів з іншими людьми.

«Користувачі можуть формувати соціальні відносини з ШІ, знижуючи свою потребу в людській взаємодії, що може бути корисним для самотніх людей, але можливо, негативно впливатиме на здорові стосунки», — йдеться в документі OpenAI.

Інші проблеми, що виникають із голосовим режимом, включають нові можливі способи «зламати» модель OpenAI — наприклад, вводячи аудіо, яке змусить модель вийти з-під обмежень. Голосовий режим, який було зламано, може спонукати до імітації конкретної особи або спроби зчитувати емоції користувача. OpenAI також зазначає, що голосовий інтерфейс може бути більш ефективним у переконанні людей прийняти певну точку зору.

OpenAI не єдина компанія, яка визнає ризик того, що помічники ШІ можуть імітувати людську взаємодію. У квітні Google DeepMind випустила великий документ, у якому обговорюються потенційні етичні виклики, що виникають через вдосконалені помічники ШІ.

Ознайомтеся з іншими популярними матеріалами:

Вартість роботи з ChatGPT: огляд тарифних планів

OpenAI випустила новий GPT-4o mini: що вміє

OpenAI створить ШІ-тренера зі здоровʼя

google news
credit link image
×
Підписуйтесь на нас в Telegram та Viber!