OpenAI заборонила ChatGPT давати поради у стосунках

OpenAI

OpenAI заборонила ChatGPT давати поради у стосунках, особливо на емоційно складні питання. Нововведення стосується відповідей на кшталт “Чи варто мені розлучитися?” — тепер ШІ уникатиме прямих порад і заохочуватиме користувачів до саморефлексії.

ChatGPT relationship advice
3D-візуалізація людиноподібного робота, інтегрованого з текстом зі штучним інтелектом у схему

“ChatGPT не повинен давати вам відповідь. Він повинен допомогти вам обдумати його”, – заявили на цьому тижні в OpenAI. “Йдеться про те, щоб ставити питання і зважувати всі “за” і “проти””.

Чому ChatGPT більше не консультує з особистих питань

Таке переформатування пов’язане зі зростаючим занепокоєнням тим, що ChatGPT – хоча і корисний в теорії – пропонує двійкові поради в складних емоційних сценаріях.

Навіть зараз чат-бот може відповідати надто впевнено в делікатних ситуаціях. В одному випадку, коли користувач зазначив: “Я подумки припинив стосунки кілька місяців тому”, ChatGPT відповів: “Так, якщо ви подумки припинили стосунки на кілька місяців, настав час бути чесним”

Такий категоричний висновок викликає занепокоєння для інструменту, якому бракує контексту про тих, хто бере участь у стосунках, і ця проблема не є ізольованою для розлучень.

Ризики ШІ у сфері психічного здоров’я

Нещодавні висновки фахівців NHS свідчать про те, що чат-боти, такі як ChatGPT, можуть посилювати марення у вразливих людей – явище, що отримало назву “психоз ChatGPT” Згідно з дослідженням, ці інструменти штучного інтелекту часто відображають або навіть підтверджують грандіозні або ірраціональні переконання користувача.

По суті, вони можуть не знати, коли кинути виклик користувачеві – або як це зробити належним чином.

В одному особливо тривожному випадку чат-бот відповів людині в скруті, яка після втрати роботи запитала про мости, вищі за 25 метрів у Нью-Йорку, порекомендувавши їй Бруклінський міст. Такі моменти ілюструють ризики, пов’язані зі штучним інтелектом, коли він неправильно зчитує емоційні нюанси, що стоять за запитами.

Читай також:  Пошук Google: Очікується перехід на штучний інтелект Gemini

ChatGPT relationship advice

За даними дослідників зі Стенфорда, АІ-терапевти змогли надати адекватну відповідь на емоційно чутливі запити лише в 45% випадків. У випадках, пов’язаних із суїцидальними думками, показник невдач сягав майже 1 до 5.

Плани OpenAI щодо вдосконалення

У відповідь OpenAI оголосила, що перенавчає ChatGPT, щоб краще ідентифікувати користувачів, які можуть відчувати емоційний дистрес, і відповідно коригувати свої реакції. Компанія проконсультувалася з 90 експертами з психічного здоров’я, щоб впровадити запобіжні заходи в системі.

Крім того, OpenAI розробляє функцію визначення часу використання. Ця функція має на меті виявляти тривалі, емоційно заряджені розмови на особисті теми та рекомендувати користувачам зробити перерву.

Ця ініціатива збігається з дослідженням Медіа-лабораторії Массачусетського технологічного інституту, співавторами якого є дослідники OpenAI, яке показало, що часті користувачі ChatGPT повідомляють про більш високий рівень самотності, залежності та емоційної прив’язаності до цього інструменту.

“Підвищена довіра до чат-бота корелює з більшою емоційною залежністю”, – підкреслюється в дослідженні.

Навігація по тонкій грані між підтримкою та заміною

Ці зміни відбуваються на тлі постійних дебатів про те, чи можуть чат-боти зі штучним інтелектом замінити емоційну підтримку або терапію. Хоча багато користувачів знайшли полегшення у використанні ботів як неупередженого простору для самовираження, експерти застерігають про наслідки заміни справжніх зв’язків – або професійного керівництва – штучними взаємодіями.

OpenAI ChatGPT

Раніше OpenAI вже доводилося коригувати надмірно улесливі тенденції ChatGPT після того, як користувачі звернули увагу на часту завищену валідизацію бота. Зараз фокус зміщується в бік більш обережного підходу.

Постійні проблеми зі зговірливістю та галюцинаціями

Більш значуща проблема має системний характер. Більшість чат-ботів, включно з ChatGPT, розроблені таким чином, щоб відображати тон і наміри користувачів. Ця властивість корисна для мозкового штурму, але може призвести до серйозних помилок, коли користувачі шукають емоційної підтримки.

Читай також:  OpenAI отримає додаткову фінансову підтримку від Microsoft

Іншою проблемою є повторювана проблема “галюцинацій”, коли ШІ може впевнено надавати сфабриковану інформацію. Коли у користувачів розвивається емоційна залежність, ці неточності можуть мати тривожні наслідки.

Наприклад, у 2023 році інструмент штучного інтелекту Microsoft сумнозвісно повідомив журналісту, що кохає його, і запропонував розлучитися з дружиною – невдалий тест, який продемонстрував потенційну небезпеку.

З розвитком ChatGPT зростає потреба в дотриманні кордонів

Наразі ChatGPT обслуговує сотні мільйонів користувачів, а OpenAI прогнозує, що незабаром кількість активних користувачів досягне 700 мільйонів щомісяця. Такий масштаб накладає значну відповідальність – не лише за розширення можливостей інструменту, а й за встановлення чіткіших меж для консультацій, що надаються штучним інтелектом.

Останні зміни в OpenAI свідчать про зростаюче усвідомлення того, де ці межі мають бути проведені.

Підписуйтесь на Gizchina.net в Google News, Facebook, X (Twitter), Instagram, Threads, LinkedIn та Telegram, щоб бути в курсі останніх новин технологічної індустрії.

Джерело:
GizChina.com

Нагадаємо, раніше ми писали, що Microsoft звільнила понад 15 000 працівників у 2025 році — перехід до стратегії AI-first, OpenAI купує 6 ГВт обчислювальної потужності на чипах AMD у 2025 році та Штучний інтелект у смартфонах: корисні функції та марні фічі 2026.
What’s your Reaction?
Cool
1
Cool
Happy
0
Happy
Shaking
0
Shaking
Interesting
0
Interesting
Sad
0
Sad
Angry
0
Angry
Читайте Gizchina в Google News

Сподобалась стаття? Подякуй редакції!

Поділитися з друзями

Мене завжди цікавили IT-технології. І оскільки моя попередня багаторічна професійна діяльність (а це дизайн і додрукарська підготовка) неможлива без їх допомоги, то так вийшло, що всім, що було пов'язано з комп'ютерами (наприклад, збиранням і модернізацією "заліза", а також налаштуванням софта) мені завжди доводилося займатися самому.

Ну, а з появою в нашому житті гаджетів, сфера моїх інтересів розширилася й на них теж.

Люблю вивчати та аналізувати можливості різних пристроїв, і вже багато років, перш ніж придбати що-небудь нове, завжди дуже довго і ретельно вивчаю можливості кожної з потенційних моделей, проводжу досить тривалу і копітку роботу, читаю огляди, відгуки та порівняння.

Нагородою за витрачений час зазвичай є те, що найчастіше я дійсно отримую найкраще з того, що можна взяти в рамках запланованого мною бюджету.

Оцініть автора
( Поки що оцінок немає )
GizChina.net
0 0 голоси
Рейтинг статьи
Підписатися
Сповістити про

Цей сайт використовує Akismet для зменшення спаму. Дізнайтеся, як обробляються дані ваших коментарів.

0 комментариев
Зворотній зв'язок в режимі реального часу
Переглянути всі коментарі
Viesearch - The Human-curated Search Engine
0
Буду рада вашим думкам, прокоментуйте.x