OpenAI заборонила ChatGPT давати поради у стосунках, особливо на емоційно складні питання. Нововведення стосується відповідей на кшталт “Чи варто мені розлучитися?” — тепер ШІ уникатиме прямих порад і заохочуватиме користувачів до саморефлексії.

“ChatGPT не повинен давати вам відповідь. Він повинен допомогти вам обдумати його”, – заявили на цьому тижні в OpenAI. “Йдеться про те, щоб ставити питання і зважувати всі “за” і “проти””.
Чому ChatGPT більше не консультує з особистих питань
Таке переформатування пов’язане зі зростаючим занепокоєнням тим, що ChatGPT – хоча і корисний в теорії – пропонує двійкові поради в складних емоційних сценаріях.
Навіть зараз чат-бот може відповідати надто впевнено в делікатних ситуаціях. В одному випадку, коли користувач зазначив: “Я подумки припинив стосунки кілька місяців тому”, ChatGPT відповів: “Так, якщо ви подумки припинили стосунки на кілька місяців, настав час бути чесним”
Такий категоричний висновок викликає занепокоєння для інструменту, якому бракує контексту про тих, хто бере участь у стосунках, і ця проблема не є ізольованою для розлучень.
Ризики ШІ у сфері психічного здоров’я
Нещодавні висновки фахівців NHS свідчать про те, що чат-боти, такі як ChatGPT, можуть посилювати марення у вразливих людей – явище, що отримало назву “психоз ChatGPT” Згідно з дослідженням, ці інструменти штучного інтелекту часто відображають або навіть підтверджують грандіозні або ірраціональні переконання користувача.
По суті, вони можуть не знати, коли кинути виклик користувачеві – або як це зробити належним чином.
В одному особливо тривожному випадку чат-бот відповів людині в скруті, яка після втрати роботи запитала про мости, вищі за 25 метрів у Нью-Йорку, порекомендувавши їй Бруклінський міст. Такі моменти ілюструють ризики, пов’язані зі штучним інтелектом, коли він неправильно зчитує емоційні нюанси, що стоять за запитами.
За даними дослідників зі Стенфорда, АІ-терапевти змогли надати адекватну відповідь на емоційно чутливі запити лише в 45% випадків. У випадках, пов’язаних із суїцидальними думками, показник невдач сягав майже 1 до 5.
Плани OpenAI щодо вдосконалення
У відповідь OpenAI оголосила, що перенавчає ChatGPT, щоб краще ідентифікувати користувачів, які можуть відчувати емоційний дистрес, і відповідно коригувати свої реакції. Компанія проконсультувалася з 90 експертами з психічного здоров’я, щоб впровадити запобіжні заходи в системі.
Крім того, OpenAI розробляє функцію визначення часу використання. Ця функція має на меті виявляти тривалі, емоційно заряджені розмови на особисті теми та рекомендувати користувачам зробити перерву.
Ця ініціатива збігається з дослідженням Медіа-лабораторії Массачусетського технологічного інституту, співавторами якого є дослідники OpenAI, яке показало, що часті користувачі ChatGPT повідомляють про більш високий рівень самотності, залежності та емоційної прив’язаності до цього інструменту.
“Підвищена довіра до чат-бота корелює з більшою емоційною залежністю”, – підкреслюється в дослідженні.
Навігація по тонкій грані між підтримкою та заміною
Ці зміни відбуваються на тлі постійних дебатів про те, чи можуть чат-боти зі штучним інтелектом замінити емоційну підтримку або терапію. Хоча багато користувачів знайшли полегшення у використанні ботів як неупередженого простору для самовираження, експерти застерігають про наслідки заміни справжніх зв’язків – або професійного керівництва – штучними взаємодіями.
Раніше OpenAI вже доводилося коригувати надмірно улесливі тенденції ChatGPT після того, як користувачі звернули увагу на часту завищену валідизацію бота. Зараз фокус зміщується в бік більш обережного підходу.
Постійні проблеми зі зговірливістю та галюцинаціями
Більш значуща проблема має системний характер. Більшість чат-ботів, включно з ChatGPT, розроблені таким чином, щоб відображати тон і наміри користувачів. Ця властивість корисна для мозкового штурму, але може призвести до серйозних помилок, коли користувачі шукають емоційної підтримки.
Іншою проблемою є повторювана проблема “галюцинацій”, коли ШІ може впевнено надавати сфабриковану інформацію. Коли у користувачів розвивається емоційна залежність, ці неточності можуть мати тривожні наслідки.
Наприклад, у 2023 році інструмент штучного інтелекту Microsoft сумнозвісно повідомив журналісту, що кохає його, і запропонував розлучитися з дружиною – невдалий тест, який продемонстрував потенційну небезпеку.
З розвитком ChatGPT зростає потреба в дотриманні кордонів
Наразі ChatGPT обслуговує сотні мільйонів користувачів, а OpenAI прогнозує, що незабаром кількість активних користувачів досягне 700 мільйонів щомісяця. Такий масштаб накладає значну відповідальність – не лише за розширення можливостей інструменту, а й за встановлення чіткіших меж для консультацій, що надаються штучним інтелектом.
Останні зміни в OpenAI свідчать про зростаюче усвідомлення того, де ці межі мають бути проведені.
Підписуйтесь на Gizchina.net в Google News, Facebook, X (Twitter), Instagram, Threads, LinkedIn та Telegram, щоб бути в курсі останніх новин технологічної індустрії.
Джерело:
GizChina.com