Баг ChatGPT викриває історію особистих розмов мільйонів користувачів

chatgpt bug 1200x675

Баг у чат-боті зі штучним інтелектом ChatGPT дозволив деяким користувачам бачити заголовки розмов інших користувачів, що викликало занепокоєння щодо конфіденційності. Генеральний директор OpenAI Сем Альтман визнав проблему, заявивши, що компанія відчуває себе “жахливо” через це. Він запевнив клієнтів, що “значна” помилка вже виправлена.

Мільйони людей скористалися ChatGPT з моменту його запуску в листопаді минулого року. Чат-бот зберігає кожну розмову в історії чату користувача, що дозволяє йому повернутися до неї пізніше. Ця функція є корисною, оскільки дозволяє користувачам легко повертатися до попередніх чатів.

Сем Альтман, генеральний директор OpenAI, оголосив, що його команда виправила помилку і незабаром проведе “технічний розтин” для подальшого розслідування проблеми. Компанія відчуває себе “жахливо” через помилку, але Альтман підкреслив, що глюк дозволяв користувачам бачити лише заголовки чатів інших користувачів, а не самі чати.

OpenAI підтвердили, що їхній сервіс знову працює. Однак Альтман заявив, що користувачі не матимуть доступу до своїх історій чатів з певного періоду часу 27 березня. У політиці конфіденційності зазначено, що дані, отримані з цих розмов, такі як підказки та відповіді, можуть допомогти в подальшому навчанні можливостей чат-бота. Це може допомогти покращити його здатність розуміти та реагувати на потреби користувачів.

Цей баг ChatGPT – лише один з багатьох інцидентів, які викликали занепокоєння щодо конфіденційності в індустрії ШІ. Зростальна конкуренція між Google і Microsoft у галузі штучного інтелекту призвела до швидкого випуску нових продуктів. Це викликає занепокоєння, що помилки або недогляди можуть мати ненавмисні та потенційно шкідливі наслідки.

What’s your Reaction?
Cool
0
Cool
Happy
3
Happy
Shaking
0
Shaking
Interesting
0
Interesting
Sad
0
Sad
Angry
0
Angry
Читайте Gizchina в Google News

Сподобалась стаття? Подякуй редакції!

Джерело
Поділитися з друзями
Оцініть автора
( Поки що оцінок немає )
GizChina.net

Баг ChatGPT раскрывает историю личных разговоров миллионов пользователей

chatgpt bug 1200x675

Баг в чат-боте с искусственным интеллектом ChatGPT позволил некоторым пользователям видеть заголовки разговоров других пользователей, что вызвало беспокойство о конфиденциальности. Генеральный директор OpenAI Сэм Альтман признал проблему, заявив, что компания чувствует себя “ужасно” из-за этого. Он заверил клиентов, что “значительная” ошибка уже исправлена.

Миллионы людей воспользовались ChatGPT с момента его запуска в ноябре прошлого года. Чат-бот сохраняет каждый разговор в истории чата пользователя, что позволяет ему вернуться к нему позже. Эта функция полезна, поскольку позволяет пользователям легко возвращаться к предыдущим чатам.

Сэм Альтман, генеральный директор OpenAI, объявил, что его команда исправила ошибку и вскоре проведет “техническое вскрытие” для дальнейшего расследования проблемы. Компания чувствует себя “ужасно” из-за ошибки, но Альтман подчеркнул, что глюк позволял пользователям видеть только заголовки чатов других пользователей, а не сами чаты.

OpenAI подтвердили, что их сервис снова работает. Однако Альтман заявил, что пользователи не будут иметь доступа к своим историям чатов с определенного периода времени 27 марта. В политике конфиденциальности указано, что данные, полученные из этих разговоров, такие как подсказки и ответы, могут помочь в дальнейшем обучении возможностей чат-бота. Это может помочь улучшить его способность понимать и реагировать на потребности пользователей.

Этот баг ChatGPT – лишь один из многих инцидентов, которые вызвали беспокойство о конфиденциальности в индустрии ИИ. Растущая конкуренция между Google и Microsoft в области искусственного интеллекта привела к быстрому выпуску новых продуктов. Это вызывает беспокойство, что ошибки или упущения могут иметь непреднамеренные и потенциально вредные последствия.

What’s your Reaction?
Cool
1
Cool
Happy
2
Happy
Shaking
0
Shaking
Interesting
0
Interesting
Sad
1
Sad
Angry
0
Angry
Читайте Gizchina в Google News

Сподобалась стаття? Подякуй редакції!

Джерело
Поділитися з друзями
Оцініть автора
( Поки що оцінок немає )
GizChina.net