В Anthropic запропонували стандарти прозорості для розробників ШІ
Спеціалісти Anthropic запропонували «фреймворк прозорості» для розробників передових ШІ з метою запобігти можливим катастрофічним сценаріям ще до того, як вони стануть реальністю.
«Нам потрібні проміжні кроки, щоб забезпечити безпечну, відповідальну та прозору розробку дуже потужного штучного інтелекту», — зазначили в компанії.
У документі йдеться про створення гнучкої системи базових вимог без жорсткого регулювання, яке могло б уповільнити інновації. Пропонується зосередитись лише на найбільших гравцях галузі — наприклад, тих, чиї витрати на R&D перевищують $1 млрд або ж річний дохід сягає $100 млн.
Згідно з запропонованими Antropic правилами, розробники потужних ШІ мають:
- створити безпекові рамки для розробки — враховувати ризики створення біологічної, хімічної чи ядерної зброї, а також загрозу від автономних моделей;
- публікувати політику безпечної розробки і самостійно підтверджувати її дотримання;
- оприлюднювати опис тестів, оцінок і захистів для кожної моделі під час запуску або суттєвих оновлень;
- нести юридичну відповідальність за неправдиві заяви щодо дотримання політики безпечної розробки, а також захищати свідків, що викривають порушення;
- обрати практичні стандарти безпеки з урахуванням мінливості і розвитку ШІ-індустрії.
У тексті згадуються приклади добровільних стандартів безпеки від OpenAI, DeepMind, Microsoft і самої Anthropic.
На думку авторів, законодавче закріплення запропонованого фреймворку унеможливить відкат назад у майбутньому, коли моделі стануть ще більш автономними.
«Без відповідальної та безпечної розробки навіть одна помилка може зупинити прогрес на десятиліття», — зазначають в Anthropic.
Нагадаємо, у червні дослідники компанії вказали на здатність більших сучасних ШІ-моделей до шантажу.