Право говорити і страх AGI. Співробітники ШІ-компаній забили на сполох

Колишні та нинішні співробітники ШІ-корпорацій склали звернення з вимогою розширити права на розголошення потенційно небезпечної корпоративної інформації.

«Компанії, що займаються штучним інтелектом, володіють закритою інформацією про можливості та обмеження своїх систем, їхні захисні заходи та рівні ризику [технологій]. Наразі у них є лише несуттєві зобов’язання з надання частини цієї інформації урядам, але не громадськості», — йдеться в документі.

Серед тих, хто підписав лист, 13 колишніх і чинних співробітників OpenAI, Google DeepMind і Anthropic, деякі побажали залишитися анонімними.

Автори вважають, що поки за ШІ-гігантами не встановлять ефективний державний нагляд, їхні працівники є «єдиними, хто може притягнути їх до відповідальності».

Однак у таких компаній, є «сильні фінансові стимули, щоб уникнути нагляду». За словами авторів документа, найчастіше їх обмежують угоди про конфіденційність та інші корпоративні процедури:

«Звичайних заходів захисту інформаторів недостатньо, оскільки вони зав’язані на незаконній діяльності, тоді як багато ризиків, які нас турбують, ще не регулюються. Деякі обґрунтовано побоюються різних форм відплати, враховуючи історію подібних випадків у галузі».

Як пом’якшувальний захід автори запропонували корпораціям дотримуватися кількох принципів:

  1. Не укладати угод, які забороняють «приниження» або критику компанії.
  2. Забезпечувати анонімність і неупередженість щодо співробітника, який повідомив про ризик.
  3. Підтримувати «культуру відкритої критики» і визнати можливі побоювання — від маніпуляцій з ШІ до втрати контролю над ним, відомої як «сингулярність».
  4. Не вживати заходів у відповідь щодо працівників, які опублікували пов’язану з побоюваннями конфіденційну інформацію.

Всемогутній AGI

Інший колишній працівник OpenAI Леопольд Ашенбреннер опублікував есе, в якому висловив занепокоєння, пов’язане зі швидким розвитком загального штучного інтелекту (AGI).

Робота складена в рамках ініціативи Situational Awareness («Ситуативна обізнаність») і присвячена співзасновнику OpenAI Іллі Суцкеверу, який пішов у відставку.

«Гонка AGI почалася. Ми будуємо машини, які можуть думати і міркувати. До 2025-2026 року ці машини обженуть багатьох випускників коледжів. […] Попутно в неї втрутяться органи національної безпеки. Уряд США прокинеться, і у 2027-2028 році ми отримаємо якусь форму урядового проєкту AGI. Жоден стартап не зможе впоратися з надінтелектом. Десь у SiFi настане фінал», — пише Ашенбреннер.

За його спостереженнями, технологічне протистояння посилюється з кожним роком, тому до кінця десятиліття «трильйони доларів підуть на графічні процесори».

При цьому провідні національні компанії-розробники розглядають безпеку як другорядне завдання. Наразі дослідницькі установи «підносять на блюдечку AGI для Комуністичної партії Китаю».

«Суперінтелект дасть вирішальну економічну і військову перевагу. КНР ще не вийшла з гри. У перегонах за створенням AGI на карту буде поставлено саме виживання вільного світу. Чи зможемо ми зберегти нашу перевагу над авторитарними державами? І чи вдасться нам уникнути самознищення на цьому шляху?», — задався питанням колишній співробітник OpenAI.

Він вважає, що лише деякі, хто пов’язаний з розробкою ШІ-технології, можуть вплинути на майбутнє людства.

Раніше мільярдер Ілон Маск назвав штучний інтелект своїм головним страхом. На його думку, нейромережі можуть позбавити людей необхідності працювати.

Нагадаємо, у травні 2024 року мільярдер та інвестор Воррен Баффетт порівняв загрозу діпфейків із ядерною зброєю.

Читайте ForkLog UA в соціальних мережах

Знайшли помилку в тексті? Виділіть її та натисніть CTRL+ENTER

Матеріали за темою

Ми використовуємо файли cookie для покращення якості роботи.

Користуючись сайтом, ви погоджуєтесь з Політикою приватності.

OK
Exit mobile version