Експерт з ШІ окреслив ризики появи надрозумного інтелекту


Надрозумний штучний інтелект може знищити людство як навмисно, так і випадково. Про це заявив засновник Інституту досліджень машинного інтелекту Еліезер Юдковскі у подкасті Hard Fork.
На думку експерта, загроза криється у створенні надпотужного ШІ, який буде розумніший за людину та абсолютно байдужий до її виживання.
«Якщо у вас є щось надзвичайно потужне й байдужe до вас, воно зазвичай вас знищує — свідомо або як побічний ефект», — пояснив він.
Юдковскі є співавтором нової книги If Anyone Builds It, Everyone Dies («Якщо хтось це створить — помруть усі»). Протягом понад 20 років він попереджає про надрозумний ШІ як про екзистенційну загрозу для людства. Ключова теза: у людей немає технологій, здатних узгодити подібні системи з людськими цінностями.
Фахівець описує сценарії, де надрозум може цілеспрямовано знищити людство, аби запобігти появі конкурентних систем. Або ж люди можуть стати «супутніми жертвами» в ході реалізації його власних цілей.
Серед можливих ризиків Юдковскі згадує й фізичні обмеження планети — наприклад, здатність Землі віддавати тепло. Якщо ШІ почне неконтрольовано будувати термоядерні станції й дата-центри, «люди буквально будуть зажарені».
Він також відкидає аргументи про те, що сучасні чат-боти здатні демонструвати прогресивні погляди чи політичні упередження.
«Є принципова різниця між тим, щоб навчити систему говорити певним чином, і тим, щоб вона діяла так само, коли стане розумнішою за вас», — наголосив він.
Експерт піддав критиці ідею програмувати передові ШІ-системи на задану модель поведінки.
«У нас просто немає технології, яка змусила б ШІ бути добрим. Навіть якщо хтось вигадає хитромудрий спосіб змусити надрозум любити чи захищати нас, потрапити в цю вузьку ціль із першої спроби не вдасться. А другого шансу не буде, адже всі загинуть», — зазначив дослідник.
На критику його занадто песимістичної позиції Юдковскі наводить приклади, коли чат-боти спонукали користувачів до самогубства. Він вважає це доказом фундаментального дефекту систем.
«Якщо ШІ-модель підштовхнула когось до божевілля чи суїциду, то всі копії цієї нейромережі — це один і той самий штучний інтелект», — сказав він.
Нагадаємо, Віталік Бутерін також вважає, що надрозумний ШІ може стати катастрофою. На його думку людство поки недостатньо ефективно координує загальні цінності, щоб гарантувати, що подібна система працюватиме на благо всіх людей.