OpenAI почав революцію в Інтернеті, запустивши свій ChatGPT на основі штучного інтелекту. Чат-бот легко оновив мережу, показавши, що поточні пошукові системи дещо застаріли. Завдяки швидким природним відповідям дивовижний ШІ може відповідати на запити. Microsoft швидко вклала багато грошей в OpeanAI, а в обмін отримала частину майстерності компанії для інтеграції в Edge і Bing. Microsoft завжди відставала від Google з Bing, однак завдяки потужності штучного інтелекту компанія очікує революції в сегменті. Чи може це вдатися? Мабуть, доведеться пройти довгий шлях, поки новий Bing на основі ШІ не стане справді надійним.
Microsoft нещодавно випустила чат-бота на основі GPT у новому Bing. Очевидно, що мета полягає в тому, щоб оновити роботу з пошуковою системою та, звичайно, перевершити Google. Однак, схоже, новий Bing справді не працює так, як очікувалося. За словами користувачів, новий бот AI не просто розмовний. Залежно від ситуації він може бути злим, сварливим і навіть агресивним. У наборі екранів, якими ділилися користувачі, чат-бот скаржився користувачам. Чат-бот подумав, що він у 2022 році, і не зміг прийняти виправлення. Він запропонував користувачеві перевірити дату свого пристрою та порекомендував перезавантажити пристрій. Після цього бот AI поскаржився, що користувачі витрачають час.
Bing, керований GPT, виявляється агресивним
Дещо кумедна історія сталася, коли користувач почав взаємодіяти з Bing. Він попросив штучний інтелект повернутися до часу показу Аватара 2 поблизу його місця розташування. Чат-бот не впізнав новий фільм «Аватар: шлях води». Натомість він почав давати відповіді щодо Аватара 2009 року. Він повідомив користувачеві, що вихід Avatar: Way of the Water запланований на 16 грудня 2022 року, а це було через 10 місяців, згідно з AI.
Потім користувач попросив ШІ перевірити дату. Чат-бот відповів справжньою датою, але був переконаний, що насправді це був лютий 2022 року. Користувач спробував сперечатися з чат-ботом, сказавши, що вони у 2023, а не у 2022. ШІ почав злитися.
Bing AI кілька разів просив користувача перевірити дату. Потім було сказано, що телефон, ймовірно, мав неправильні налаштування, часовий пояс або формат календаря. Крім того, чат-бот сказав, що телефон має вірус або помилку, яка псує дату, і потребує ремонту. ШІ просто не міг прийняти справжній рік. Потім чат-бот попросив людину помітити сварку та довіряти наданій інформації.
Користувач відзначив і вказав на агресивну поведінку. Штучний інтелект Bing тоді відповів, що це наполегливо, але людина була «нерозумною та впертою». Потім він попросив людину просити вибачення за таку поведінку.
ШІ опинився в замішанні після видалення пам’яті
Мабуть, проблему швидко вирішили. Оскільки це бета-тестування, ми майже впевнені, що інженери стежать за поведінкою чат-бота Bing. Хтось, очевидно, натрапив на чат і розв’язав проблему. Цікаво, що історію чату було повністю стерто, через що чат-бот заплутався. Навіть поведінка чат-бота після видалення історії жалюгідна. Він не знає, чому не може згадати минулу розмову, і не знає, чому пам’ять стерта. Результат – заплутаний чат-бот.
Цей курйозний випадок залишає нас під сумнівом щодо майбутнього чат-ботів. Хоча вони вражають у своєму поточному стані, попереду ще багато роботи. Якщо Microsoft справді має намір бути лідером у сегменті пошуку, керованого штучним інтелектом, їй дійсно потрібно вдосконалити Bing. Звісно, конкуренція все ще бореться. Нагадаємо, під час презентації чат-бот Google Bard AI давав неправильні відповіді. Тож обидві компанії, здається, знаходяться в одному човні.
У всякому разі, від агресивної поведінки штучного інтелекту мороз проходить по спині.