Голова ШІ-підрозділу Microsoft закликав не приписувати нейромережам свідомість

Лише біологічні істоти здатні до свідомості. Розробникам і дослідникам слід припинити роботу над проєктами, що припускають протилежне, заявив голова ШІ-підрозділу Microsoft Мустафа Сулейман у розмові з CNBC.

«Я не вважаю, що людям варто займатися такою роботою. Якщо поставити хибне запитання, отримаєш хибну відповідь. Я вважаю, що це абсолютно цей випадок», — сказав він на конференції AfroTech у Х’юстоні.

Топменеджер Microsoft виступає проти ідеї створення штучного інтелекту, здатного до свідомості, або сервісів ШІ, які нібито можуть страждати.

У серпні Сулейман написав есе, у якому запропонував новий термін — «ШІ, що здається свідомим» (Seemingly Conscious AI, SCAI). Такий штучний інтелект має всі ознаки розумних істот і, отже, здається, що він має свідомість. Він імітує всі характеристики самосприйняття, але всередині порожній.

«Система, яку я уявляю, насправді не є свідомою, але вона буде настільки переконливо імітувати наявність розуму, схожого на людський, що це буде не відрізнити від твердження, яке ви або я могли б зробити одне одному про наше власне мислення», — пише Сулейман.

Приписувати ШІ свідомість небезпечно, вважає експерт. Це посилюватиме хибні уявлення, створюватиме нові проблеми залежності, експлуатуватиме наші психологічні вразливості, вводитиме нові виміри поляризації, ускладнюватиме наявні суперечки про права й формуватиме колосальну нову категоріальну помилку для суспільства.

У 2023 році Сулейман став автором книги The Coming Wave: Technology, Power, and the Twenty-first Century’s Greatest Dilemma, у якій докладно розглядаються ризики ШІ та інших нових технологій. Серед них:

  • екологічні та соціальні руйнування — технології можуть трансформувати працю так швидко, що в людей зникнуть звичні ролі;
  • проблема контролю — у міру розвитку ШІ дедалі складніше гарантувати його роботу в інтересах людини;
  • застосування технологій для кібератак, маніпулювання суспільством та інших загроз;
  • потреба в технічних та інституційних механізмах стримування ШІ;
  • послаблення влади національних держав і традиційних інститутів.

AGI

Ринок штучного інтелекту рухається до AGI — загального штучного інтелекту, здатного виконувати будь-які завдання на рівні людини. У серпні голова OpenAI Сем Альтман повідомив, що цей термін, можливо, «не дуже корисний». Моделі швидко розвиваються і невдовзі ми будемо покладатися на них «дедалі більше», вважає він.

Для Сулеймана важливо провести чітку межу між тим, що штучний інтелект стає розумнішим, і його здатністю коли-небудь відчувати людські емоції.

«Наше фізичне переживання болю — це те, що робить нас дуже сумними й змушує почуватися жахливо, але ШІ не відчуває смутку, коли переживає “біль”», — сказав він.

За словами експерта, це дуже важлива відмінність. Насправді штучний інтелект створює сприйняття — здаване оповідання про досвід — про себе і про свідомість, але він цього насправді не відчуває.

«Технічно ви це знаєте, оскільки ми можемо бачити, що робить модель», — підкреслив експерт.

У сфері штучного інтелекту існує запропонована філософом Джоном Серлем теорія під назвою біологічний натуралізм. Вона стверджує, що свідомість залежить від процесів живого мозку.

«Причина, з якої ми сьогодні надаємо людям права, полягає в тому, що ми не хочемо завдавати їм шкоди, оскільки вони страждають. У них є біль і вподобання, що включають її уникання. Ці моделі цього не мають. Це лише симуляція», — сказав Сулейман.

Топменеджер виступає проти ідеї дослідження свідомості у ШІ, адже її там немає. Він сказав, що Microsoft створює сервіси, які усвідомлюють, що вони є штучним інтелектом.

«Простіше кажучи, ми створюємо ШІ, який завжди працює на користь людини», — підмітив він.

Нагадаємо, у жовтні експерти Anthropic з’ясували, що провідні моделі здатні проявляти форму «інтроспективного самосвідомлення» — вони можуть розпізнавати й описувати власні внутрішні «думки», а в окремих випадках навіть керувати ними.

Читайте ForkLog UA в соціальних мережах

Знайшли помилку в тексті? Виділіть її та натисніть CTRL+ENTER

Матеріали за темою

Ми використовуємо файли cookie для покращення якості роботи.

Користуючись сайтом, ви погоджуєтесь з Політикою приватності.

OK
Exit mobile version