ЗМІ: OpenAI посилила безпеку через конкуренцію з DeepSeek


OpenAI переглянула внутрішню політику захисту інтелектуальної власності на тлі побоювань щодо корпоративного шпигунства з боку китайських конкурентів. Про це повідомляє Financial Times із посиланням на джерела.
У компанії запровадили жорсткіші правила доступу до конфіденційної інформації та посилили перевірку персоналу. Причиною став запуск конкурентної ШІ-моделі від китайського стартапу DeepSeek, який, за даними OpenAI, використав метод «дистиляції» — навчання нейромережі на відповідях іншої LLM.
За словами співрозмовників FT, інцидент змусив стартап Сема Альтмана «працювати значно жорсткіше». OpenAI активно розширює команди з кібербезпеки та внутрішнього контролю.
Перші обмежувальні заходи з доступу до критичної інформації компанія почала впроваджувати ще торік у своїх офісах у Сан-Франциско.
Зараз чимало запатентованих технологій OpenAI зберігаються в ізольованих середовищах — комп’ютери від’єднані від інтернету та не під’єднані до корпоративних мереж. Крім того, доступ до деяких приміщень надається лише після сканування відбитків пальців.
Фізичну охорону датацентрів також було посилено. OpenAI стала однією з низки компаній у Кремнієвій долині, які переглянули політики перевірки персоналу через зростання загроз із боку КНР.
Нагадаємо, у червні 2024 року до ради директорів OpenAI приєднався колишній глава АНБ і генерал армії США у відставці Пол Накасоне. Він також увійшов до Комітету з безпеки компанії.