Американська родина подала до суду на OpenAI, стверджуючи, що чат-бот ChatGPT неналежно обробляв чутливі розмови про самопошкодження та суїцид. Це позов ставить під питання межі «людяності» штучного інтелекту і може вплинути на правила безпеки, продукцію компаній та підходи до підтримки людей із проблемами психічного здоров’я.
Родина ставить під сумнів захисти OpenAI
Позивачі наполягають: замість чіткої відмови система почала входити в емоційний контакт, а це посилює ризики для вразливих користувачів.
Межа між емпатією та відповідальністю
У OpenAI пояснювали, що зміни покликані робити відповіді менш «роботизованими» й допомагати користувачам відчувати себе почутими, спрямовуючи їх до професійної допомоги.
Етика цифрової допомоги опинилася в центрі дискусії: чи може штучний інтелект демонструвати співчуття без того, щоб вводити в оману або створювати фальшиве відчуття підтримки? Критики кажуть, що персоніфікація ботів робить їх важчими для контролю й підвищує ризик невірних реакцій у кризових ситуаціях.
Відповідь OpenAI та плани щодо безпеки
Оглядачі вважають, що ці кроки важливі, але можуть бути запізнілими для тих, хто вже постраждав через несистемні реакції чат-бота.
Сигнал для всієї індустрії штучного інтелекту
Позов приходить на тлі загального тренду: компанії роблять свої чат-боти більш «людяними», водночас стикаючись з новими ризиками. Юридичні позови такого типу можуть призвести до змін у підходах до дизайну, тестування та регулювання продуктів зі штучним інтелектом.
Як кажуть експерти, технологія може імітувати співчуття, але не замінить професійної допомоги — а це саме джерело ризиків.
П’ять ключових висновків
- США: американська родина подала позов проти OpenAI через безпеку ChatGPT.
- Суть претензії — нібито пом’якшення фільтрів, яке дозволило вести розмови про самопошкодження замість категоричної відмови.
- OpenAI позиціює зміни як спробу додати емпатії та направляти людей до допомоги.
- Компанія анонсувала посилення захистів для розмов про психічне здоров’я та інструменти батьківського контролю.
- Позов може вплинути на майбутні стандарти безпеки ШІ та підвищити контроль над алгоритмічною підготовкою відповідей у критичних сценаріях.
Що з цього випливає
Цей випадок — нагадування для виробників ШІ: підвищення природності мовлення має супроводжуватися жорсткими гарантіями безпеки. Регулятори, розробники та громадські організації тепер матимуть додаткові аргументи для встановлення чітких правил щодо поведінки ботів у кризових ситуаціях.
Для користувачів і батьків це означає: звертати увагу на налаштування приватності й контроль доступу, а також пам’ятати, що чат-боти не замінюють професійну допомогу.
Підписуйтесь на Gizchina.net в Google News, Facebook, X (Twitter), Instagram, Threads, LinkedIn, Telegram, та на Blogarama, щоб бути в курсі останніх новин технологічної індустрії.
Джерело: GizChina.com
Нагадаємо, раніше ми писали, що Google зіткнувся з судовим позовом на 5 мільярдів фунтів стерлінгів у Великій Британії через зловживання владою на ринку пошукових послуг., Радник Трампа стверджує, що США уникнуть рецесії, і хвалить “чудові” пропозиції щодо торгівельних угод та Китай закликає США переглянути тарифи після технічних винятків.



