Керівник OpenAI Ян Лейке подав у відставку – каже, що “безпека” більше не є пріоритетом

andrew neel 3biuyzmcm0s unsplash 1200x675

Нещодавно Ян Лейке, співдиректор команди Superalignment в OpenAI, оголосив про свою відставку з компанії. Цей крок став значним ударом для OpenAI, яка була в авангарді досліджень і розробок ШІ. Відхід Лейке особливо важливий з огляду на його роль у забезпеченні безпеки та відповідності ШІ-систем людським намірам. У своїй прощальній заяві Лейке висловив глибоке занепокоєння зміною пріоритетів OpenAI. Він стверджує, що компанія знехтувала внутрішньою культурою та правилами безпеки і тепер більше зосереджена на швидкому запуску “привабливих” продуктів.

OpenAI executive Jan Leike

OpenAI створила команду Superalignment у липні 2023 року з основною метою забезпечити, щоб системи ШІ з “суперінтелектом” і “розумніші за людину” могли слідувати людським намірам. На момент заснування OpenAI зобов’язалася інвестувати 20% своїх обчислювальних потужностей протягом наступних чотирьох років у забезпечення безпеки моделей ШІ. Ця ініціатива розглядалася як вирішальний крок на шляху до розробки відповідальних і безпечних технологій ШІ.

Нещодавні потрясіння в OpenAI

Відставка Лейке настала після періоду неспокою в OpenAI. У листопаді 2023 року майже всі співробітники OpenAI погрожували звільнитися і піти слідом за відстороненим лідером Семом Альтманом в Microsoft. Цей крок став відповіддю на рішення ради директорів усунути Альтмана з посади генерального директора. Тоді вони посилалися на брак відвертості в його спілкуванні з радою директорів. Ситуація врешті-решт була вирішена з поверненням Альтмана на посаду генерального директора, що супроводжувалося перестановками в раді директорів некомерційного підрозділу компанії.

Відповідь керівництва OpenAI

У відповідь на занепокоєння Лейке керівники OpenAI Грег Брокман і Сем Альтман спільно заявили, що вони “підвищили свою обізнаність про ризики ШІ і будуть продовжувати вдосконалювати роботу з безпеки в майбутньому, щоб впоратися з ризиками кожної нової моделі”. Така відповідь свідчить про те, що OpenAI усвідомлює важливість безпеки ШІ і буде вирішувати ці проблеми. Однак відставка Лейке і розформування команди Superalignment ставить під сумнів здатність компанії ставити безпеку на перше місце в своєму прагненні до розвитку штучного інтелекту.

OpenAI Sora

Ось уривок з їхньої спільної відповіді:

“Ми дуже вдячні Яну за все, що він зробив для OpenAI, і знаємо, що він продовжить сприяти нашій місії назовні. У світлі деяких питань, що виникли у зв’язку з його відходом, ми хотіли б пояснити наші міркування щодо нашої загальної стратегії.

По-перше, ми підвищили обізнаність про ризики та можливості AGI, щоб світ був краще підготовлений до них. Ми неодноразово демонстрували широкі можливості, які відкриває масштабування глибокого навчання, та аналізували їхній вплив; закликали на міжнародному рівні до управління ШІ (ще до того, як такі заклики стали популярними); проводили дослідження в науковій сфері оцінки катастрофічних ризиків систем ШІ. Це була новаторська робота.

По-друге, ми закладаємо фундамент для безпечного розгортання все більш надійних систем. Зробити нову технологію безпечною вперше – непросто. Наприклад, наша команда доклала чимало зусиль, щоб безпечно випустити GPT-4 у світ, і з тих пір продовжує вдосконалювати поведінку моделей і моніторинг зловживань у відповідь на уроки, отримані в ході розгортання.

По-третє, майбутнє буде складнішим, ніж минуле. Нам потрібно постійно вдосконалювати наші зусилля з безпеки, щоб відповідати ризикам кожної нової моделі.

Відставка Яна Лейке – важлива подія, яка підкреслює постійні проблеми та напруженість у спільноті дослідників ШІ. Оскільки технології ШІ продовжують розвиватися швидкими темпами, такі компанії, як OpenAI, повинні надавати пріоритет безпеці. Ці бренди також повинні підтримувати високий рівень безпеки, щоб гарантувати, що ці технології працюють відповідально. Занепокоєння Лейке щодо зміни пріоритетів OpenAI слугує нагадуванням про необхідність прозорості та підзвітності. АІ-бренди повинні продемонструвати прихильність етичним практикам у дослідженнях і розробці АІ.

Джерело

What’s your Reaction?
Cool
2
Cool
Happy
2
Happy
Shaking
0
Shaking
Interesting
0
Interesting
Sad
0
Sad
Angry
0
Angry
Читайте Gizchina в Google News

Сподобалась стаття? Подякуй редакції!

Поділитися з друзями
Оцініть автора
( Поки що оцінок немає )
GizChina.net