OpenAI заборонила ChatGPT давати поради у стосунках

OpenAI

OpenAI заборонила ChatGPT давати поради у стосунках, особливо на емоційно складні питання. Нововведення стосується відповідей на кшталт “Чи варто мені розлучитися?” — тепер ШІ уникатиме прямих порад і заохочуватиме користувачів до саморефлексії.

OpenAI
ChatGPT
3D візуалізація людиноподібного робота інтегрованого з текстом зі штучним інтелектом у схему

“ChatGPT не повинен давати вам відповідь. Він повинен допомогти вам обдумати його”, – заявили на цьому тижні в OpenAI. “Йдеться про те, щоб ставити питання і зважувати всі “за” і “проти””.

Чому ChatGPT більше не консультує з особистих питань

Таке переформатування пов’язане зі зростаючим занепокоєнням тим, що ChatGPT – хоча і корисний в теорії – пропонує двійкові поради в складних емоційних сценаріях.

Навіть зараз чат-бот може відповідати надто впевнено в делікатних ситуаціях. В одному випадку, коли користувач зазначив: “Я подумки припинив стосунки кілька місяців тому”, ChatGPT відповів: “Так, якщо ви подумки припинили стосунки на кілька місяців, настав час бути чесним”

Такий категоричний висновок викликає занепокоєння для інструменту, якому бракує контексту про тих, хто бере участь у стосунках, і ця проблема не є ізольованою для розлучень.

Ризики ШІ у сфері психічного здоров’я

Нещодавні висновки фахівців NHS свідчать про те, що чат-боти, такі як ChatGPT, можуть посилювати марення у вразливих людей – явище, що отримало назву “психоз ChatGPT” Згідно з дослідженням, ці інструменти штучного інтелекту часто відображають або навіть підтверджують грандіозні або ірраціональні переконання користувача.

По суті, вони можуть не знати, коли кинути виклик користувачеві – або як це зробити належним чином.

В одному особливо тривожному випадку чат-бот відповів людині в скруті, яка після втрати роботи запитала про мости, вищі за 25 метрів у Нью-Йорку, порекомендувавши їй Бруклінський міст. Такі моменти ілюструють ризики, пов’язані зі штучним інтелектом, коли він неправильно зчитує емоційні нюанси, що стоять за запитами.

Читай також:  Глобальна версія Poco F5 сертифікована ЄЕС: Ключові характеристики

OpenAI
ChatGPT

За даними дослідників зі Стенфорда, АІ-терапевти змогли надати адекватну відповідь на емоційно чутливі запити лише в 45% випадків. У випадках, пов’язаних із суїцидальними думками, показник невдач сягав майже 1 до 5.

Плани OpenAI щодо вдосконалення

У відповідь OpenAI оголосила, що перенавчає ChatGPT, щоб краще ідентифікувати користувачів, які можуть відчувати емоційний дистрес, і відповідно коригувати свої реакції. Компанія проконсультувалася з 90 експертами з психічного здоров’я, щоб впровадити запобіжні заходи в системі.

Крім того, OpenAI розробляє функцію визначення часу використання. Ця функція має на меті виявляти тривалі, емоційно заряджені розмови на особисті теми та рекомендувати користувачам зробити перерву.

Ця ініціатива збігається з дослідженням Медіа-лабораторії Массачусетського технологічного інституту, співавторами якого є дослідники OpenAI, яке показало, що часті користувачі ChatGPT повідомляють про більш високий рівень самотності, залежності та емоційної прив’язаності до цього інструменту.

“Підвищена довіра до чат-бота корелює з більшою емоційною залежністю”, – підкреслюється в дослідженні.

Навігація по тонкій грані між підтримкою та заміною

Ці зміни відбуваються на тлі постійних дебатів про те, чи можуть чат-боти зі штучним інтелектом замінити емоційну підтримку або терапію. Хоча багато користувачів знайшли полегшення у використанні ботів як неупередженого простору для самовираження, експерти застерігають про наслідки заміни справжніх зв’язків – або професійного керівництва – штучними взаємодіями.

OpenAI
ChatGPT

Раніше OpenAI вже доводилося коригувати надмірно улесливі тенденції ChatGPT після того, як користувачі звернули увагу на часту завищену валідизацію бота. Зараз фокус зміщується в бік більш обережного підходу.

Постійні проблеми зі зговірливістю та галюцинаціями

Більш значуща проблема має системний характер. Більшість чат-ботів, включно з ChatGPT, розроблені таким чином, щоб відображати тон і наміри користувачів. Ця властивість корисна для мозкового штурму, але може призвести до серйозних помилок, коли користувачі шукають емоційної підтримки.

Читай також:  Додатки в Apple App Store значно дорожче, ніж в Google Play Store

Іншою проблемою є повторювана проблема “галюцинацій”, коли ШІ може впевнено надавати сфабриковану інформацію. Коли у користувачів розвивається емоційна залежність, ці неточності можуть мати тривожні наслідки.

Наприклад, у 2023 році інструмент штучного інтелекту Microsoft сумнозвісно повідомив журналісту, що кохає його, і запропонував розлучитися з дружиною – невдалий тест, який продемонстрував потенційну небезпеку.

З розвитком ChatGPT зростає потреба в дотриманні кордонів

Наразі ChatGPT обслуговує сотні мільйонів користувачів, а OpenAI прогнозує, що незабаром кількість активних користувачів досягне 700 мільйонів щомісяця. Такий масштаб накладає значну відповідальність – не лише за розширення можливостей інструменту, а й за встановлення чіткіших меж для консультацій, що надаються штучним інтелектом.

Останні зміни в OpenAI свідчать про зростаюче усвідомлення того, де ці межі мають бути проведені.

Підписуйтесь на Gizchina.net в Google News, Facebook, X (Twitter), Instagram, Threads, LinkedIn та Telegram, щоб бути в курсі останніх новин технологічної індустрії.

Джерело:
GizChina.com

Нагадаємо, раніше ми писали, що OpenAI може досягти оцінки в 500 мільярдів доларів – новий раунд продажу акцій, Викрито вразливість Amazon Q: хакер впровадив шкідливий код у репозиторій GitHub та ChatGPT обробляє понад 2,5 мільярда запитів щодня і стає реальним конкурентом Google.
What’s your Reaction?
Cool
1
Cool
Happy
0
Happy
Shaking
0
Shaking
Interesting
0
Interesting
Sad
0
Sad
Angry
0
Angry
Читайте Gizchina в Google News

Сподобалась стаття? Подякуй редакції!

Оцініть статтю
( Поки що оцінок немає )
Поділитися з друзями
GizChina.net