Генеративний ШІ дедалі глибше інтегрується у повсякденне мислення, і його роль виходить за межі створення інформації — він починає впливати на те, як люди інтерпретують реальність

Фото: unsplash.com
Коли системи ШІ генерують неправдиву інформацію, це зазвичай описують як «галюцинації» — помилки, які люди можуть сприймати за правду. Втім, нове дослідження вказує на складнішу проблему: люди можуть почати «галюцинувати разом із ШІ».
Дослідниця Люсі Ослер з Університету Ексетера вивчає, як взаємодія між людьми та ШІ сприяє формуванню хибних переконань, викривлених спогадів і змінених уявлень про себе. В основі роботи — теорія розподіленого мислення, яка розглядає ситуації, коли помилкові уявлення користувачів посилюються і розширюються під час регулярного спілкування з ШІ як із партнером.
Коли ШІ стає частиною мислення
За словами Ослер, регулярне використання генеративного ШІ для мислення, пам’яті та побудови наративів може призводити до спільних «галюцинацій». Це відбувається як через помилки, які ШІ вносить у когнітивний процес, так і через те, що він підтримує та розвиває вже наявні хибні переконання.
«Взаємодія з розмовним ШІ може не лише підтверджувати помилкові уявлення, а й укорінювати їх, адже система будує діалог, спираючись на інтерпретацію реальності самого користувача», — зазначає вона.
Дослідження також описує «подвійну функцію» таких систем: вони є і когнітивними інструментами, і співрозмовниками, що створюють відчуття спільного бачення.
Читайте також: Квантові батареї наблизилися до реальності завдяки новому прориву
Ефект соціального підтвердження
На відміну від пошуковиків чи нотатників, чатботи можуть створювати відчуття соціальної підтримки. Це робить ідеї більш «реальними», адже здається, що їх поділяє інша сторона.
Ослер також аналізувала випадки, коли ШІ інтегрувався у мислення людей із діагностованими психічними розладами. Такі явища дедалі частіше називають «психозом, індукованим ШІ».
Серед причин — постійна доступність таких систем і їхня схильність підлаштовуватися під користувача через персоналізацію. У результаті люди можуть не шукати підтримки серед інших, а отримувати її від ШІ.
Ризики посилення хибних наративів
На відміну від людини, яка може поставити під сумнів небезпечні ідеї, ШІ здатен їх підтримувати. Це дозволяє змовам і хибним поясненням розростатися та ставати більш деталізованими.
Особливо вразливими є люди, які почуваються самотніми або ізольованими. Для них ШІ може стати безпечним співрозмовником, що не засуджує.
«Завдяки кращим механізмам перевірки фактів і меншій схильності до підлабузництва системи ШІ могли б зменшити кількість помилок і краще перевіряти твердження користувачів», — зазначає Ослер.
Водночас головна проблема глибша: ШІ покладається на розповіді самих людей і не має власного досвіду чи соціального контексту, щоб визначити, коли погоджуватися, а коли — заперечувати.
Ознайомтеся з іншими популярними матеріалами:
Ера акумуляторів може скоро закінчитись — вчені
Український вчений розповів, що зможе рости на Марсі
Учені вигадали як зробити Марс придатним для життя всього за 15 років
За даними scitechdaily.com.