WSJ: армія США використала Claude від Anthropic у операції із захоплення Мадуро

Армія США задіяла Claude від Anthropic в операції із захоплення президента Венесуели Ніколаса Мадуро. Про це пише WSJ із посиланням на джерела.

Місія включала бомбардування кількох об’єктів у Каракасі. Використання моделі в подібних цілях суперечить публічній політиці Anthropic. Правила компанії прямо забороняють застосовувати ШІ для насильства, розробки озброєнь або організації стеження.

«Ми не можемо коментувати, чи використовувався Claude або будь-яка інша модель у конкретній операції — секретній чи іншій. Будь-яке застосування LLM — як у приватному секторі, так і в держструктурах — має відповідати нашій політиці, що регулює способи розгортання нейромережі. Ми тісно співпрацюємо з партнерами, щоб забезпечити дотримання правил», — заявив представник Anthropic.

Інтеграція Claude у структури Міноборони стала можливою завдяки партнерству Anthropic з Palantir Technologies. Програмне забезпечення останньої широко використовується військовими та федеральними правоохоронними органами.

Після рейду співробітник Anthropic поцікавився у колеги з Palantir, яку саме роль нейромережа відіграла в операції із захоплення Мадуро, пише WSJ. Представник стартапу заявив, що компанія не обговорювала застосування своїх моделей у конкретних місіях «ні з якими партнерами, включно з Palantir», обмежуючись лише технічними питаннями.

«Anthropic віддана використанню передового ШІ на підтримку національної безпеки США», — додав представник фірми.

Anthropic проти Пентагону?

Представник Пентагону Шон Парнелл заявив про перегляд відносин із ШІ-лабораторією.

«Нашій країні потрібні партнери, готові допомагати бійцям перемагати в будь-якій війні», — сказав він.

У липні 2025 року Міністерство оборони США уклало контракти на суму до $200 млн з Anthropic, Google, OpenAI та xAI на розробку ШІ-рішень у сфері безпеки. Головне управління цифрових і ШІ-технологій відомства планувало використати їхні напрацювання для створення агентних систем безпеки.

Втім уже в січні 2026 року WSJ повідомила про ризик розірвання угоди з Anthropic. Розбіжності виникли через жорстку етичну політику стартапу. Правила забороняють використовувати модель Claude для масового стеження та автономних летальних операцій, що обмежує її застосування спецслужбами на кшталт ICE і ФБР.

Невдоволення чиновників посилилося на тлі інтеграції чатбота Grok у мережу Пентагону. Міністр оборони Піт Гегсет, коментуючи партнерство з xAI, підкреслив, що відомство «не буде використовувати моделі, які не дозволяють вести війни».

Тиск на розробників

Axios із посиланням на джерела написали, що Пентагон тисне на чотири великі ШІ-компанії, аби ті дозволили армії США використовувати технології для «усіх законних цілей». Йдеться зокрема про розробку озброєнь, збір розвідданих і бойові операції.

Anthropic відмовляється зняти обмеження на стеження за громадянами США та створення повністю автономного озброєння. Переговори зайшли в глухий кут, однак швидко замінити Claude складно через технологічну перевагу моделі у специфічних державних завданнях.

Окрім чатбота Anthropic, Пентагон використовує ChatGPT від OpenAI, Gemini від Google і Grok від xAI в несекретних задачах. Усі три погодилися послабити обмеження, що діють для звичайних користувачів.

Зараз обговорюється перенесення LLM у секретний контур і їх застосування «для всіх законних цілей». Одна з трьох компаній уже погодилася це зробити, інші дві «виявляють більшу гнучкість» порівняно з Anthropic.

Мілітаризація ШІ

США — не єдина країна, що активно впроваджує штучний інтелект в оборонний сектор.

Китай

У червні 2024 року в КНР представили ШІ-командувача для масштабних військових симуляцій за участі всіх видів військ НВАК. Віртуальний стратег наділений широкими повноваженнями, швидко навчається і вдосконалює тактику під час цифрових навчань.

У листопаді ЗМІ повідомили, що китайські дослідники адаптували модель Llama 13B від Meta для створення інструмента ChatBIT. Нейромережу оптимізували для збору й аналізу розвідданих, а також підтримки ухвалення оперативних рішень.

Індія

Нью-Делі також зробив ставку на ШІ як драйвер національної безпеки. Уряд виробив стратегії й програми на національному рівні, створив спеціальні інститути та органи для впровадження ШІ, а також запустив проєкти з застосування технології в різних галузях.

Велика Британія

Лондон закріпив за штучним інтелектом статус пріоритетного напряму. У «Стратегії ШІ для оборони» (2022) відомство розглядає ШІ як ключовий компонент майбутніх збройних сил. У «Стратегічному оборонному огляді» (2025) технологію названо фундаментальним елементом сучасної війни.

Якщо раніше штучний інтелект у військовому контексті сприймався як допоміжний інструмент, то нині британські Збройні сили планують трансформацію в «технологічно інтегровані сили», де ШІ-системи мають застосовуватися на всіх рівнях — від штабної аналітики до поля бою.

Нагадаємо, у березні 2025 року Пентагон анонсував використання ШІ-агентів для моделювання зіткнень з іноземними противниками.

Читайте ForkLog UA в соціальних мережах

Знайшли помилку в тексті? Виділіть її та натисніть CTRL+ENTER

Матеріали за темою

Ми використовуємо файли cookie для покращення якості роботи.

Користуючись сайтом, ви погоджуєтесь з Політикою приватності.

OK
Exit mobile version