Керівниця робототехніки OpenAI звільнилася через угоду з Пентагоном


У відповідь на суперечливу угоду OpenAI з Міністерством оборони США Кейтлін Каліновскі пішла з посади керівниці відділу апаратного забезпечення компанії.
«Це було нелегке рішення. Штучний інтелект відіграє важливу роль у забезпеченні національної безпеки. Але стеження за американцями без судового дозволу і смертоносна автономія без погодження людини — це питання, які заслуговують більшої уваги, ніж їм приділяють зараз», — написала вона.
Каліновскі працювала в Apple над апаратною частиною комп’ютерів Mac, згодом перейшла до Meta, ставши однією з ключових інженерок у підрозділі Reality Labs. У 2024 році вона приєдналася до OpenAI, очоливши напрям робототехніки та споживчого апаратного забезпечення.
У заяві вона наголосила, що рішення було «про принцип, а не про людей», висловивши «глибоку повагу» до CEO OpenAI Сема Альтмана і команди стартапу.
«На мою думку, оголошення зробили поспіхом, без визначення обмежень. Це насамперед питання управління. Вони надто важливі, щоб квапитися з укладанням угод», — додала Каліновскі.
Представник OpenAI підкреслив, що угода з Пентагоном «створює робочий шлях для відповідального використання ШІ в цілях національної безпеки, водночас чітко окресливши червоні лінії: жодного внутрішнього стеження і автономної зброї».
«Ми розуміємо, що в людей є тверді переконання щодо цих питань, і продовжимо обговорювати їх із працівниками, урядом та суспільством у всьому світі», — додав він.
Угоду між OpenAI і Пентагоном уклали наприкінці лютого — невдовзі після того, як перемовини між Anthropic і Міноборони зайшли в глухий кут.
Невдовзі Альтман визнав, що угода вийшла «поспішною» і з погляду іміджу стартапу «виглядає не дуже добре».
Ситуація позначилася на популярності ChatGPT і Claude. Кількість видалень першого чатбота зросла на 295%, а другий піднявся на вершину рейтингу App Store.

Протистояння влади з Anthropic
У липні 2025 року Міністерство оборони США уклало контракти на суму до $200 млн з Anthropic, Google, OpenAI та xAI на розробку рішень ШІ у сфері безпеки.
У січні 2026 року WSJ повідомила про ризик розірвання угоди з Anthropic. Розбіжності виникли через жорстку етичну політику стартапу. Правила забороняють використовувати модель Claude для масового стеження й автономних летальних операцій.
У лютому 2026 року армія США задіяла Claude в операції із захоплення президента Венесуели Ніколаса Мадуро, після чого конфлікт загострився.
CEO компанії Дарио Амодей зустрівся з міністром оборони Пітом Гегсетом для обговорення ситуації. Відомство висунуло ультиматум: Anthropic зобов’язана прийняти урядові умови до 27 лютого.
Амодей заявив, що скоріше не співпрацюватиме з Пентагоном, аніж погодитися на використання своїх технологій, яке може «підірвати, а не захистити демократичні цінності».
Наприкінці лютого президент США Дональд Трамп доручив усім федеральним відомствам упродовж шести місяців повністю відмовитися від використання технологій Anthropic.
Він назвав стартап «вийшовшою з-під контролю» компанією під керівництвом людей, які «не мають поняття, що таке реальний світ».
Пентагон офіційно визнав Anthropic «ризиком для ланцюжка постачання» — це ставить під удар бізнес фірми з іншими підрядниками уряду. Microsoft і Google заявили, що й надалі надаватимуть компанії свої продукти.
Дійде до суду
Амодей заявив, що його компанія оскаржить у суді рішення Міністерства оборони про визнання фірми ризиком для ланцюжка постачання. Воно «юридично необґрунтоване», вважає підприємець
У зверненні йдеться, що рішення Пентагону не стосується переважної більшості клієнтів Claude.
За словами Амодея, компанія вела продуктивні переговори з Міноборони протягом кількох днів, однак вони зірвалися після витоку внутрішньої службової записки. У ній CEO охарактеризував відносини OpenAI з відомством як «радше показову демонстрацію безпеки, ніж реальний захист від ризиків».
Амодей вибачився за витік, заявивши, що компанія ненавмисно розкрила зміст меморандума і не давала вказівок комусь це робити.
«Нам невигідно погіршувати ситуацію», — написав він.
Глава стартапу підкреслив, що документ був написаний упродовж кількох годин після серії оголошень про те, що Anthropic видалять із федеральних систем. Він вибачився за тон, назвавши той день «складним для компанії».
Амодей додав, що меморандум є «застарілою оцінкою» і не відображає «уважної та виваженої думки». За його словами, для фірми головним пріоритетом є забезпечення американським солдатам і фахівцям з національної безпеки доступу до важливих інструментів під час триваючих масштабних бойових операцій.
Anthropic й надалі забезпечуватиме Міністерство оборони своїми моделями «за номінальною вартістю» стільки, скільки буде потрібно.
Ексрадник Білого дому з питань штучного інтелекту Дін Болл зазначив, що компанії буде важко оскаржити рішення Пентагону.
«Суди доволі неохоче ставлять під сумнів рішення уряду про те, що є питанням національної безпеки, а що ні. Для цього треба подолати дуже високий бар’єр. Але це не неможливо», — зазначив експерт.
Нагадаємо, у лютому Anthropic пом’якшила ключову політику безпеки, пояснивши це необхідністю зберегти конкурентоспроможність.