Маск, Возняк та низка експертів закликали призупинити розвиток потужніших за GPT-4 ШІ-систем

Низка відомих дослідників, підприємців та науковців підписали відкритий лист із закликом негайно призупинити принаймні на шість місяців навчання систем штучного інтелекту (ШІ), потужніших за GPT-4.

Заяву підтримали генеральний директор SpaceX, Tesla та Twitter Ілон Маск, співзасновник Apple Стів Возняк, письменник і професор Ювал Ной Харарі, співзасновник Ripple Кріс Ларсен та понад тисячу інших людей. 

У листі сказано, що ШІ-системи з “конкурентоспроможним інтелектом” можуть становити серйозні ризики для людства, а до його розробки треба підходити з максимальною ретельністю:

“На жаль, такого рівня планування та управління не існує, незважаючи на те, що останні місяці ШІ-лабораторії вийшли з-під контролю щодо розробки та розгортання все більш потужного цифрового розуму, який ніхто, навіть його творці, не можуть зрозуміти, прогнозувати або надійно контролювати”.

Потужні системи штучного інтелекту слід розробляти лише тоді, коли ми будемо впевнені, що їхній ефект буде позитивним, а ризики – керованими, зазначається в листі.

Автори заяви також вважають, що у разі, якщо лабораторії не зможуть швидко поставити на паузу свої розробки в цій галузі, має втрутитися влада і ввести мораторій.

Паузу у принаймні півроку дослідники разом з експертами мають використати для впровадження спільних протоколів безпеки для розробки штучного інтелекту.

Нагадаємо, компанія OpenAI, яка стоїть за розробкою чат-бота ChatGPT, оголосила про впровадження нових плагінів у нейромережу. Завдяки їм бот отримав доступ до інтернету.

Раніше ми випустили матеріал із детальним оглядом нової нейромережі GPT-4: 

Читайте ForkLog UA в соціальних мережах

Знайшли помилку в тексті? Виділіть її та натисніть CTRL+ENTER

Матеріали за темою

Ми використовуємо файли cookie для покращення якості роботи.

Користуючись сайтом, ви погоджуєтесь з Політикою приватності.

OK