Anthropic пом’якшила правила безпеки ШІ на тлі жорсткого ультиматуму Пентагону

Компанія Anthropic пом’якшила ключову політику безпеки, пояснивши це необхідністю зберегти конкурентоспроможність. Паралельно на компанію тисне Пентагон з вимогою дозволити застосування ШІ для стеження за громадянами США та створення автономної зброї.

Раніше компанія позиціонувала себе як одну з найбільш орієнтованих на безпеку ШІ-лабораторій на ринку. Втім тепер керівництво відмовилося від ключового зобов’язання в цій сфері.

У 2023 році компанія представила Responsible Scaling Policy (RSP) — набір добровільних правил для зниження катастрофічних ризиків під час роботи з нейромережами. Спершу документ передбачав, що розробник призупинить розвиток штучного інтелекту, якщо визнає його потенційно небезпечним.

«Ми вирішили, що нікому не допоможемо, якщо просто припинимо навчати моделі ШІ. Враховуючи стрімкий прогрес у галузі, нам здалося нерозумним брати на себе односторонні зобов’язання, поки конкуренти рухаються вперед», — заявив головний науковий співробітник Anthropic Джаред Каплан.

У третій версії RSP зазначено, що Anthropic продовжить покращувати ШІ в разі, якщо вважатиме, що він не має суттєвих переваг над конкурентами.

«Політичне середовище змістилося в бік пріоритету конкурентоспроможності та економічного зростання, а дискусії про безпеку ШІ не отримали суттєвої підтримки на федеральному рівні», — йдеться в блозі стартапу.

Нова версія політики передбачає вищу прозорість, зокрема докладну публікацію результатів тестування моделей. Компанія обіцяє не відставати від конкурентів у питаннях контролю систем. Anthropic готова сповільнити розробку лише в тому разі, якщо стане беззаперечним лідером перегонів і водночас побачить значний ризик катастрофи.

Коли Anthropic представила RSP у 2023 році, вона сподівалася, що конкуренти підуть її прикладом. Однак ніхто не дав настільки ж однозначної обіцянки призупинити розвиток ШІ.

Anthropic під тиском Пентагону

Між Anthropic і Міноборони США виникли розбіжності через плани військових застосовувати ШІ для стеження за громадянами країни та розробки автономної зброї. Стартап проти такого підходу, однак представники Пентагону заявили про намір використовувати LLM «для всіх законних сценаріїв» без обмежень і припустили можливість розірвання контракту.

CEO стартапу Даріо Амодей зустрівся з міністром оборони Пітом Хегсетом для обговорення ситуації. Відомство висунуло ультиматум: стартап має прийняти урядові умови до 27 лютого.

У разі відмови влада може визнати компанію загрозою для ланцюжків постачання. Це поставить під удар бізнес Anthropic з іншими підрядниками уряду США. Альтернативний варіант — застосування Закону про оборонне виробництво (Defense Production Act), що дозволить Пентагону примусово використовувати технології стартапу.

«Цей сценарій безпрецедентний і майже напевно призведе до хвилі судових розглядів, якщо адміністрація вживе негативних заходів проти Anthropic», — заявив юрист із державних контрактів McCarter & English Франклін Тернер.

У відповідній заяві представники ШІ-компанії наголосили, що сторони «продовжують вести діалог у добросовісному ключі».

Anthropic непохитний

У Reuters дізналися, що Anthropic не має наміру пом’якшувати свої обмеження на використання технології у військових цілях.

Позицію стартапу підтримав співзасновник Ethereum Віталік Бутерін.

«Якщо вони не відступлять і з честю приймуть наслідки, це суттєво поліпшить мою думку про Anthropic», — заявив він.

У лютому з’ясувалося, що ШІ-модель Claude застосували в операції із захоплення президента Венесуели Ніколаса Мадуро. За даними агентства, на зустрічі з Хегсетом CEO Anthropic не висловив занепокоєння через застосування продуктів компанії в цій ініціативі.

Настільки серйозна загроза Пентагону вказує на небажання відмовлятися від Claude в оборонній сфері, пише The Economist. Журналісти зазначають, що технології стартапу можуть виявитися незамінними для військових завдань.

Нагадаємо, SpaceX і її дочірня ШІ-компанія xAI беруть участь у секретному тендері Пентагону з розробки автономних роїв дронів із голосовим керуванням.

Читайте ForkLog UA в соціальних мережах

Знайшли помилку в тексті? Виділіть її та натисніть CTRL+ENTER

Матеріали за темою

Ми використовуємо файли cookie для покращення якості роботи.

Користуючись сайтом, ви погоджуєтесь з Політикою приватності.

OK