WSJ: армія США використала Claude від Anthropic у операції із захоплення Мадуро


Армія США задіяла Claude від Anthropic в операції із захоплення президента Венесуели Ніколаса Мадуро. Про це пише WSJ із посиланням на джерела.
Місія включала бомбардування кількох об’єктів у Каракасі. Використання моделі в подібних цілях суперечить публічній політиці Anthropic. Правила компанії прямо забороняють застосовувати ШІ для насильства, розробки озброєнь або організації стеження.
«Ми не можемо коментувати, чи використовувався Claude або будь-яка інша модель у конкретній операції — секретній чи іншій. Будь-яке застосування LLM — як у приватному секторі, так і в держструктурах — має відповідати нашій політиці, що регулює способи розгортання нейромережі. Ми тісно співпрацюємо з партнерами, щоб забезпечити дотримання правил», — заявив представник Anthropic.
Інтеграція Claude у структури Міноборони стала можливою завдяки партнерству Anthropic з Palantir Technologies. Програмне забезпечення останньої широко використовується військовими та федеральними правоохоронними органами.
Після рейду співробітник Anthropic поцікавився у колеги з Palantir, яку саме роль нейромережа відіграла в операції із захоплення Мадуро, пише WSJ. Представник стартапу заявив, що компанія не обговорювала застосування своїх моделей у конкретних місіях «ні з якими партнерами, включно з Palantir», обмежуючись лише технічними питаннями.
«Anthropic віддана використанню передового ШІ на підтримку національної безпеки США», — додав представник фірми.
Anthropic проти Пентагону?
Представник Пентагону Шон Парнелл заявив про перегляд відносин із ШІ-лабораторією.
«Нашій країні потрібні партнери, готові допомагати бійцям перемагати в будь-якій війні», — сказав він.
У липні 2025 року Міністерство оборони США уклало контракти на суму до $200 млн з Anthropic, Google, OpenAI та xAI на розробку ШІ-рішень у сфері безпеки. Головне управління цифрових і ШІ-технологій відомства планувало використати їхні напрацювання для створення агентних систем безпеки.
Втім уже в січні 2026 року WSJ повідомила про ризик розірвання угоди з Anthropic. Розбіжності виникли через жорстку етичну політику стартапу. Правила забороняють використовувати модель Claude для масового стеження та автономних летальних операцій, що обмежує її застосування спецслужбами на кшталт ICE і ФБР.
Невдоволення чиновників посилилося на тлі інтеграції чатбота Grok у мережу Пентагону. Міністр оборони Піт Гегсет, коментуючи партнерство з xAI, підкреслив, що відомство «не буде використовувати моделі, які не дозволяють вести війни».
Тиск на розробників
Axios із посиланням на джерела написали, що Пентагон тисне на чотири великі ШІ-компанії, аби ті дозволили армії США використовувати технології для «усіх законних цілей». Йдеться зокрема про розробку озброєнь, збір розвідданих і бойові операції.
Anthropic відмовляється зняти обмеження на стеження за громадянами США та створення повністю автономного озброєння. Переговори зайшли в глухий кут, однак швидко замінити Claude складно через технологічну перевагу моделі у специфічних державних завданнях.
Окрім чатбота Anthropic, Пентагон використовує ChatGPT від OpenAI, Gemini від Google і Grok від xAI в несекретних задачах. Усі три погодилися послабити обмеження, що діють для звичайних користувачів.
Зараз обговорюється перенесення LLM у секретний контур і їх застосування «для всіх законних цілей». Одна з трьох компаній уже погодилася це зробити, інші дві «виявляють більшу гнучкість» порівняно з Anthropic.
Мілітаризація ШІ
США — не єдина країна, що активно впроваджує штучний інтелект в оборонний сектор.
Китай
У червні 2024 року в КНР представили ШІ-командувача для масштабних військових симуляцій за участі всіх видів військ НВАК. Віртуальний стратег наділений широкими повноваженнями, швидко навчається і вдосконалює тактику під час цифрових навчань.
У листопаді ЗМІ повідомили, що китайські дослідники адаптували модель Llama 13B від Meta для створення інструмента ChatBIT. Нейромережу оптимізували для збору й аналізу розвідданих, а також підтримки ухвалення оперативних рішень.
Індія
Нью-Делі також зробив ставку на ШІ як драйвер національної безпеки. Уряд виробив стратегії й програми на національному рівні, створив спеціальні інститути та органи для впровадження ШІ, а також запустив проєкти з застосування технології в різних галузях.
Велика Британія
Лондон закріпив за штучним інтелектом статус пріоритетного напряму. У «Стратегії ШІ для оборони» (2022) відомство розглядає ШІ як ключовий компонент майбутніх збройних сил. У «Стратегічному оборонному огляді» (2025) технологію названо фундаментальним елементом сучасної війни.
Якщо раніше штучний інтелект у військовому контексті сприймався як допоміжний інструмент, то нині британські Збройні сили планують трансформацію в «технологічно інтегровані сили», де ШІ-системи мають застосовуватися на всіх рівнях — від штабної аналітики до поля бою.
Нагадаємо, у березні 2025 року Пентагон анонсував використання ШІ-агентів для моделювання зіткнень з іноземними противниками.