Home / Технології / Конфлікт лідерів ШІ: Anthropic звинувачує OpenAI в брехні через угоду з Пентагоном

Конфлікт лідерів ШІ: Anthropic звинувачує OpenAI в брехні через угоду з Пентагоном

Anthropic OpenAI конфлікт

Генеральний директор Anthropic Даріо Амодей прямо звинуватив OpenAI та її генерального директора Сема Альтмана в тому, що вони ввели в оману співробітників і громадськість щодо контракту з Пентагоном, у меморандумі обсягом 1600 слів, в якому угоду OpenAI названо«театром безпеки». Ця конфронтація має значення, оскільки вона протиставляє дві провідні компанії в галузі штучного інтелекту одна одній з питанням, наскільки державне фінансування повинно впливати на безпеку та прозорість, і чи дійсно формулювання контракту захищає громадян.

Це не просто розмита суперечка в галузі. Двоє найвпливовіших людей у сфері штучного інтелекту зараз прямо та особисто звинувачують одне одного. У письмовій формі.

У меморандумі Амодеї звинувачує OpenAI в підписанні контракту з Пентагоном з метою заспокоїти співробітників і критиків, а не для забезпечення реального захисту, і називає публічні пояснення Сема Альтмана нечесними.

Такий рівень звинувачень — чинний генеральний директор, який називає іншого за звинуваченням і мотивом у службовій записці — підносить суперечку вище рівня звичайних корпоративних суперечок.

Anthropic OpenAI конфлікт
Anthropic OpenAI конфлікт

Ключові висновки

  • Даріо Амодеї надіслав меморандум обсягом 1600 слів, в якому звинуватив контракт OpenAI з Пентагоном у «театрі безпеки»і назвав публічні заяви Сема Альтмана «відвертою брехнею».
  • Anthropic заявляє, що її власні переговори з Міністерством оборони провалилися після того, як Пентагон наполягав на необмеженому доступі до «законного використання»; OpenAI підписала майже ідентичну угоду кілька годин по тому.
  • Амодей стверджує, що юридична прогалина робить «законне використання» слабким захистом: чинні правила США дозволяють деякі закупівлі даних і спостереження без ордерів, тому формулювання контракту може бути неефективним на практиці.
  • Пізніше Альтман визнав, що угода виглядала «опортуністичною і недбалою», і змінив формулювання, щоб заборонити внутрішнє спостереження за громадянами США, але критики кажуть, що ця зміна була запізнілою.
  • Заявлена моральна позиція Anthropic ускладнюється попередньою роботою Пентагону: за повідомленнями, Claude використовувався в рамках завдання Міністерства оборони, пов’язаного з Іраном, за попередньою угодою.
Читай також:  Деміс Хассабіс попереджає: реклама в ChatGPT може підірвати довіру

Як угода з Пентагоном спровокувала публічну суперечку

Anthropic вела переговори про потенційну угоду з Міністерством оборони, вартість якої, за повідомленнями, становила 200 мільйонів доларів. Переговори провалилися, коли Пентагон наполягав, що може використовувати моделі Anthropic для «будь-яких законних цілей».

Anthropic поставила дві чіткі умови: ніякого масового внутрішнього спостереження і ніякої повністю автономної зброї без людського нагляду. Пентагон не погодився на ці обмеження, і переговори були припинені.

За кілька годин OpenAI погодилася на те, що Anthropic описує як по суті той самий контракт. Сем Альтман публічно заявив, що версія OpenAI включала захисні заходи, яких вимагала Anthropic; Амодей каже, що це твердження є неточним і зводиться до намірів — Anthropic відмовилася з принципу, а OpenAI погодилася.

 

Anthropic OpenAI конфлікт

Критики кажуть, що юридична лазівка була проігнорована

На папері контракт забороняє «незаконне» спостереження. Але головна теза Амодея полягає в тому, що багато практик збору даних урядом вже дозволені чинним законодавством США, включаючи придбання у приватних брокерів даних, які можуть бути використані для внутрішнього спостереження.

Це робить пункт про «законне використання» набагато менш захисним, ніж здається: якщо закон дозволяє таку практику, обмеження договору втрачають сенс.

Пізніше OpenAI оновила угоду, щоб чітко заборонити внутрішнє спостереження за громадянами США. Альтман також визнав, що впровадження виглядало «опортуністичним і недбалим», але противники кажуть, що перегляд не повністю розв’язав проблему правової прогалини або термінів розкриття інформації.

Нечисті руки — обидві фірми піддаються ретельній перевірці

Амодей позиціонує Anthropic як компанію, що займає принципову позицію, але загальна картина є більш складною. Згідно з повідомленнями, попередній контракт Anthropic з Міністерством оборони США дозволяв її моделі Claude допомагати у виборі цілей в Ірані — це підриває просту наративну лінію «ми в більшій безпеці».

Читай також:  Ця класична гра Nintendo Switch тепер доступна лише за $1,99

Амодей також повідомив співробітникам, що Anthropic втратила вплив на адміністрацію Трампа після того, як не надала достатньої публічної підтримки, протиставляючи це підходу Альтмана. Ці твердження додають політичного виміру до того, що почалося як суперечка щодо контракту.

Поведінка користувачів швидко відреагувала на суперечку: після оголошення OpenAI кількість видалень ChatGPT помітно зросла, тоді як додаток Anthropic піднявся на вершину рейтингу магазину додатків. Амодей підкреслив цей момент у своїй записці.

На перший погляд, це суперечка щодо конкретних формулювань контракту; насправді ж це змагання за те, хто може певно претендувати на звання «відповідального ШІ», коли йдеться про державне фінансування та непрозорість діяльності.

Що це означає

Цей конфлікт показує, наскільки крихкими можуть бути заяви про корпоративну відповідальність, коли стикаються великі урядові контракти та нечіткі правові стандарти. Очікуйте подальшого ретельного вивчення формулювань контрактів та посилення тиску на компанії, що займаються штучним інтелектом, з метою чіткого визначення правових та операційних гарантій.

FAQ

У чому звинуватив OpenAI генеральний директор Anthropic?
Даріо Амодей заявив, що контракт OpenAI з Пентагоном є «театром безпеки» і вводить в оману співробітників та громадськість щодо реальних обмежень використання ШІ.

Що стало причиною конфлікту між Anthropic і OpenAI?
Причиною стала угода OpenAI з Міністерством оборони США після того, як Anthropic відмовилася від подібного контракту через умови «законного використання» моделей ШІ.

Яку проблему бачить Anthropic у формулюванні контракту?
Компанія вважає, що пункт про «законне використання» може дозволяти уряду використовувати ШІ для внутрішнього спостереження, якщо такі практики вже дозволені законодавством.

Як відреагував Сем Альтман на критику?
Пізніше Альтман визнав, що угода виглядала «опортуністичною і недбалою», та оновив формулювання контракту, щоб заборонити внутрішнє спостереження за громадянами США.

Читай також:  Xiaomi 14T і 14T Pro дебютують з функцією Circle to Search

Чи має Anthropic власні контракти з Пентагоном?
За повідомленнями, модель Claude раніше використовувалася в проектах Міністерства оборони США, що також викликало дискусії щодо позиції компанії.

Джерело: GizChina.com

Tagged:
0 0 голоси
Рейтинг статьи
Підписатися
Сповістити про

Цей сайт використовує Akismet для зменшення спаму. Дізнайтеся, як обробляються дані ваших коментарів.

0 комментариев
Зворотній зв'язок в режимі реального часу
Переглянути всі коментарі
Best Mobile App Development Companies - OnToplist.comBlogarama - Blog Directory
0
Буду рада вашим думкам, прокоментуйте.x