В Anthropic запропонували стандарти прозорості для розробників ШІ

Спеціалісти Anthropic запропонували «фреймворк прозорості» для розробників передових ШІ з метою запобігти можливим катастрофічним сценаріям ще до того, як вони стануть реальністю.

«Нам потрібні проміжні кроки, щоб забезпечити безпечну, відповідальну та прозору розробку дуже потужного штучного інтелекту», — зазначили в компанії.

У документі йдеться про створення гнучкої системи базових вимог без жорсткого регулювання, яке могло б уповільнити інновації. Пропонується зосередитись лише на найбільших гравцях галузі — наприклад, тих, чиї витрати на R&D перевищують $1 млрд або ж річний дохід сягає $100 млн.

Згідно з запропонованими Antropic правилами, розробники потужних ШІ мають:

  • створити безпекові рамки для розробки — враховувати ризики створення біологічної, хімічної чи ядерної зброї, а також загрозу від автономних моделей;
  • публікувати політику безпечної розробки і самостійно підтверджувати її дотримання;
  • оприлюднювати опис тестів, оцінок і захистів для кожної моделі під час запуску або суттєвих оновлень;
  • нести юридичну відповідальність за неправдиві заяви щодо дотримання політики безпечної розробки, а також захищати свідків, що викривають порушення;
  • обрати практичні стандарти безпеки з урахуванням мінливості і розвитку ШІ-індустрії.

У тексті згадуються приклади добровільних стандартів безпеки від OpenAI, DeepMind, Microsoft і самої Anthropic

На думку авторів, законодавче закріплення запропонованого фреймворку унеможливить відкат назад у майбутньому, коли моделі стануть ще більш автономними.

«Без відповідальної та безпечної розробки навіть одна помилка може зупинити прогрес на десятиліття», — зазначають в Anthropic.

Нагадаємо, у червні дослідники компанії вказали на здатність більших сучасних ШІ-моделей до шантажу.

Читайте ForkLog UA в соціальних мережах

Знайшли помилку в тексті? Виділіть її та натисніть CTRL+ENTER

Матеріали за темою

Ми використовуємо файли cookie для покращення якості роботи.

Користуючись сайтом, ви погоджуєтесь з Політикою приватності.

OK
Exit mobile version