Що таке загальний штучний інтелект (AGI)?
Загальний штучний інтелект (Artificial General Intelligence, AGI) — це гіпотетична форма ШІ, здатна розуміти, навчатися та виконувати будь-які інтелектуальні завдання на рівні людини (або навіть краще) у різних галузях.
На відміну від вузького ШІ, який спеціалізується на конкретних функціях (наприклад, розпізнавання образів чи гра в шахи), AGI передбачає універсальний гнучкий «розум». Така система могла б адаптуватися до нових завдань без додаткового програмування, демонструючи здоровий глузд, творчість і абстрактне мислення, подібно до людського.
Основні підходи до створення AGI
- Когнітивне моделювання намагається відтворити в машині принципи роботи людського мозку і психіки. Дослідники розробляють когнітивні архітектури — програмні моделі, що імітують процеси сприйняття, пам’яті, уваги та мислення людини. Приклади включають системи на кшталт SOAR чи ACT-R, які розбивають розв’язання задач на кроки і модулі, подібно до мислення людини.
Інший напрям — емуляція мозку, де ставиться мета детально просканувати і симулювати нейронні мережі людського мозку.
Проєкти на кшталт Blue Brain чи Whole Brain Emulation прагнуть відтворити нейрон за нейроном, щоб «запустити» мозок на комп’ютері. Когнітивне моделювання потребує глибокого розуміння роботи мозку і свідомості, і водночас великої обчислювальної потужності для симуляції біологічної складності.
Це амбітний, але й найбільш біологічно обґрунтований шлях до AGI: якщо ми зрозуміємо і скопіюємо механізми природного інтелекту, то отримаємо штучний інтелект із подібними загальними здібностями. - Нейросимволічні методи поєднують дві колись конкуруючі парадигми: нейронні мережі (що добре розпізнають патерни в даних) та символічний ШІ (що оперує логікою і правилами). Мета — об’єднати навчання з даних і можливість логічного висновування в одній системі.
Наприклад, нейросимволічна система може навчитися розпізнавати зображення кота за допомогою нейронної мережі, а потім використовувати базу знань і правила, щоб пояснити, чому на зображенні саме кіт (наприклад, має хвіст, вуса, типову морфологію). Такий тандем дозволяє долати обмеження чисто нейронних підходів, які часто є «чорними скриньками» без прозорості і здорового глузду.
Нейросимволічний ШІ розглядається багатьма як перспективний шлях до AGI, адже дає точність логіки разом з гнучкістю машинного навчання. Компанії на зразок IBM досліджують нейросимволічні алгоритми (напр. проєкт AllegroGraph 8), які інтегрують знання з баз даних і правил із нейромережевим навчанням.
Якщо вдасться створити систему, що одночасно вчиться на прикладах і міркує абстрактно, це може стати містком до справді універсального інтелекту. Нейросимволічні методи також сприяють кращій пояснюваності рішень ШІ та їх відповідності правилам, що важливо для довіри й безпеки. - Еволюційне програмування передбачає використання принципів еволюції для «вирощування» інтелектуальних систем. Еволюційні алгоритми (EA) моделюють природний відбір у цифровому середовищі: генерують багато варіантів програм або нейромереж, відбирають найбільш успішні за певним критерієм, вносять випадкові мутації та схрещують їх, а потім повторюють цикл. Через тисячі поколінь алгоритм формує рішення, які людина могла б і не придумати.
Еволюційний підхід цікавий тим, що він не потребує точного плану створення моделі — достатньо визначити середовище і критерії виживання, а далі алгоритм сам знайде шлях.
У контексті AGI, еволюційні алгоритми розглядаються як серйозний кандидат на створення загального інтелекту. Вони здатні відкривати неочікувані стратегії розв’язання проблем, масштабуються з розвитком апаратного забезпечення і можуть генерувати дуже різноманітні підходи.
Їхнім головним недоліком є висока вимогливість до ресурсів (тисячі моделей потребують потужних GPU для симуляції) та непередбачуваність: еволюція може породити дивне чи небажане рішення, якщо невірно задати ціль. - Архітектури пам’яті та навчання. Одним із ключових викликів на шляху до AGI є наділення ШІ довготривалою пам’яттю та умінням навчатися протягом життя. Сучасні великі мовні моделі (LLM) вражають масштабом знань, але вони обмежені фіксованим контекстом і не мають справжньої пам’яті про попередні взаємодії.
Дослідники вважають, що безперервна пам’ять — здатність накопичувати знання і досвід упродовж часу — є необхідною умовою для появи загального інтелекту. Тому розробляються спеціальні архітектури, які доповнюють нейромережі модулями пам’яті.
Приклади включають диференційовані комп’ютери з пам’яттю (DNC) від DeepMind чи мережі пам’яті (Memory Networks) від Meta (Facebook) — ці системи дозволяють ШІ записувати й зчитувати дані у власну пам’ять, подібно до того як це робить комп’ютер або мозок.
Також дослідники розробляють внутрішні моделі світу: замість того, щоб реагувати лише на поточний вхід, AGI повинна будувати ментальну модель середовища, зберігати факти, робити припущення та оновлювати їх з досвідом. Такі світові моделі та пам’ять тісно пов’язані з поняттям агентності — здатності ШІ ставити цілі і планувати дії на основі минулого досвіду.
Усе це має наблизити систему до більш «людського» стилю мислення. Такі архітектури розглядаються як критично важливий будівельний блок AGI: додавши пам’ять і контекст, ми переходимо від простого передбачення наступного кроку до справжнього розуміння та навчання на досвіді.
Ключові проєкти та дослідницькі лабораторії
- OpenAI відкрито заявляє своєю місією розробку безпечного та корисного AGI для всього людства. Ця організація прославилася такими моделями, як GPT-3 і GPT-4, що продемонстрували наближення до загальних інтелектуальних здібностей у сфері мови.
OpenAI була заснована як некомерційна дослідницька компанія, а нині працює як комерційна структура з «капітальним обмеженням» прибутку, щоб залучити інвестиції, не зрікаючись початкової місії.
GPT-моделі від OpenAI вже вміють писати тексти, програмувати, складати іспити — все це ознаки універсальності, хоч і в межах мовних задач. Директор OpenAI, Сем Альтман, неодноразово заявляв, що вважає створення AGI досяжним у перспективі років, а не десятиліть.
У лютому 2023 року OpenAI опублікувала стратегію «Planning for AGI and beyond», де підкреслює потенційні переваги AGI (прориви в науці, прискорення економічного зростання) і водночас визнає серйозні ризики неправильного використання або аварій.
OpenAI також інвестує в дослідження alignment (узгодження цілей ШІ з людськими цінностями), створивши команду Superalignment для вирішення проблем контролю над майбутнім суперінтелектом. - DeepMind (Google DeepMind). Лондонська лабораторія DeepMind, заснована Демісом Хассабісом у 2010 році і нині підрозділ Google, відома своїм гаслом «розв’язати проблему інтелекту, а тоді використати її для розв’язання всього іншого».
DeepMind з самого початку заявляла метою створення AGI, спираючись на синтез нейронауки і машинного навчання. Вони досягли низки наукових проривів: алгоритм AlphaGo вперше переміг чемпіона світу з го, AlphaStar змагався з профі у StarCraft II, а AlphaFold вирішив 50-річну проблему складання білків.
Підхід DeepMind ґрунтується на глибокому навчанні та підкріплювальному навчанні: їхні моделі вчаться шляхом взаємодії з середовищем (гри, симуляції) і самовдосконалення через проби і помилки. У 2023 році Google об’єднала DeepMind з командою Google Brain, щоб прискорити прогрес у ШІ. Нова структура отримала назву Google DeepMind.
Лабораторія продовжує дослідження в напрямку діалогових агентів, що мають і знання, і можливість логічного мислення, а також працює над мульти-модальними моделями (на кшталт Gato, що вміє і бачити, і спілкуватися, і керувати робототехнікою). - Anthropic була заснована у 2021 році колишніми дослідниками OpenAI (брати Даріо та Данієль Амодеї та ін.) і позиціює себе як дослідницька компанія з безпеки ШІ.
Місія Anthropic — створювати надійні, зрозумілі та керовані ШІ-системи. Компанія відома своїм ШІ-чатботом Claude, який конкурує з моделями OpenAI. Особливістю підходу Anthropic є концепція «Конституційного ШІ» — навчання моделей слідувати набору етичних принципів (конституції), щоб мінімізувати упередження і шкідливі відповіді.
Компанія наголошує на інтерпретованості: їхні дослідження спрямовані на розуміння внутрішніх механізмів роботи великих моделей, щоб забезпечити прозорість.
Anthropic активно працює над розширенням контексту пам’яті (Claude вже підтримує дуже довгі діалоги) та навичками «розсудливої» поведінки моделі. - Conjecture. Невеликий стартап з Лондона, заснований Коннором Лією (одним із співтворців EleutherAI), який цілком присвячений проблемі алайнменту (узгодження) і контрольованості майбутнього AGI.
Conjecture ставить перед собою мету «створити нову архітектуру ШІ, що забезпечить контрольоване і безпечне розгортання передових технологій ШІ». Проєкт досліджує нестандартні ідеї для запобігання втрати контролю над суперінтелектом, пропонуючи підходи типу когнітивної емуляції — побудови ШІ, що мислить більш структуровано, подібно до людини, і тому легше піддається аналізу та управлінню.
Conjecture також відома тим, що відкрито обговорює невирішені проблеми на шляху до безпечного AGI, акцентуючи, що просте масштабування моделей призводить до зростання ризиків непередбачуваної поведінки та ускладнює налагодження.
Команда Conjecture підкреслює необхідність альтернатив до «гострої» гонки озброєнь ШІ: інвестувати в дослідження безпеки, експериментувати з архітектурами, які за своєю природою прозоріші та контрольованіші, і залучати широку спільноту до питання, як убезпечити потенційно небезпечний розумний ШІ. - Numenta. Компанія Numenta, очолювана відомим нейронауковцем Джеффом Гокінзом (автор книги «A Thousand Brains»), пропагує біологічно-орієнтований шлях до AGI. Їхній підхід базується на дослідженні неокортексу — частини мозку, відповідальної за вищі функції.
Гокінз запропонував теорію «тисячі мізків», згідно з якою інтелект виникає з координації безлічі паралельних моделей світу в колонках неокортексу. Numenta намагається відтворити ці принципи у коді: їхні алгоритми імітують сенсорно-моторне навчання, коли система одночасно сприймає інформацію і активно діє у середовищі. У 2024 році Numenta запустила Thousand Brains Project.
За словами Гокінза, «людський мозок — найкращий приклад інтелектуальної системи», і за останні десятиліття нейронаука просунулась у розумінні того, як мозок створює інтелект. Numenta прагне використати ці знання, щоб побудувати AI, який може самостійно експериментувати, безперервно навчатися і взаємодіяти зі світом, як це робить дитина.
Numenta підкреслює також енергоефективність мозку — їхні алгоритми спрямовані на те, щоб моделі навчались і працювали з мінімальними витратами енергії, як це робить мозок, що теж є важливим для масштабного AGI. - MIT та інші академічні лабораторії. Університети також відіграють значну роль у дослідженні AGI.
Массачусетський технологічний інститут (MIT) у 2018 році запустив масштабну ініціативу MIT Intelligence Quest, метою якої є вивчення фундаментів людського інтелекту і розвиток технологій штучного інтелекту на благо суспільства. У MIT працює Центр мозку, розуму і машин (CBMM) під керівництвом видатного нейровченого Томазо Поджо — цей центр об’єднує нейронауку, когнітивну науку та інформатику, шукаючи єдину теорію інтелекту.
У Стенфорді, Оксфорді, Берклі та інших провідних закладах теж існують лабораторії, присвячені AGI або безпеці сильного ШІ. Приміром, в Берклі професор Стюарт Рассел заснував Center for Human-Compatible AI, що фокусується на проблемі узгодження ШІ з людськими цінностями. В Оксфорді діє Future of Humanity Institute на чолі з Ніком Бостромом, де вивчають ризики і стратегії щодо суперінтелекту.
Дослідники в університетах зосереджуються на напрямках, які доповнюють промислові проєкти: нові алгоритми навчання, теорія розуміння, і математична безпека ШІ (формальні методи контролю).
Філософські та етичні фактори створення AGI
- Технологічна сингулярність. Це поняття описує гіпотетичний момент, коли розвиток технологій (насамперед ШІ) стає неконтрольовано швидким і необоротним, що призводить до радикальних змін цивілізації.
Ідея сингулярності популяризована футуристом Реймондом Курцвайлом: він прогнозував, що близько 2045 року машини перевершать людей, спричинивши «вибух інтелекту». З цієї точки зору, AGI — лише проміжний крок до ще могутнішого штучного суперінтелекту (ASI).
У сценарії сингулярності надрозумні машини зможуть самостійно вдосконалювати себе, створюючи нові покоління ШІ дедалі швидше, і згодом вийдуть за межі нашого розуміння.
Оптимісти (як Курцвайл) вважають, що це може вирішити більшість проблем людства, адже суперінтелект генеруватиме неймовірні винаходи. Песимісти застерігають, що такий стрибок може бути катастрофічним: люди втратять контроль над своєю долею без можливості передбачити чи осмислити дії істоти розумнішої за себе.
Сама назва «сингулярність» натякає на точку розриву, де колишні моделі прогнозу перестають працювати. Поки це концепція з області футурології, але обговорення її наслідків вже зараз впливає на стратегії розвитку AGI. Дослідники закликають, готуватися, поки зміни не стали некерованими. - Контрольованість та проблема сумісності (alignment). Ще до появи суперінтелекту постає питання контролю над AGI: як гарантувати, що надпотужний ШІ діятиме у наших інтересах і відповідно до людських цінностей? Якщо неправильно сформулювати мету для могутнього ШІ, він може реалізувати її буквально, але з жахливими побічними наслідками.
Сьогодні дослідники працюють над алгоритмами навчання з людським зворотним зв’язком, створюють правила безпеки (як у Anthropic з «конституцією» для ШІ) та моделюють різні сценарії поведінки AGI, щоб виявити небезпечні тенденції.
Контрольованість означає, що люди повинні мати способи зупинити або скоригувати дії ШІ, якщо щось піде не так. Проте чим розумніша і автономніша система, тим складніше прогнозувати всі її дії і тим більше ризик, що вона зможе обійти обмеження.
Проблема alignment є центральною етичною проблемою AGI: без її вирішення навіть доброзичливий на перший погляд штучний розум може стати некерованим.
- Потенційна загроза для людства. Філософи і футурологи відносять неконтрольований AGI до так званих екзистенційних ризиків — подій, що можуть знищити або незворотно змінити нашу цивілізацію.
У найгірших сценаріях надрозумний ШІ, чиї цілі не співпадають з нашими, може цілком випадково (або через байдужість) поставити під удар саме існування людей. Інший аспект — зловмисне використання AGI: надпотужний ШІ в руках тиранічного режиму або терористів міг би стати інструментом масового утиску чи зброєю.
При відповідному контролі AGI може стати найбільшим благом для людства і полегшити життя мільярдам людей — від автоматизації рутини до лікування невиліковних хвороб. Але навіть у позитивних сценаріях AGI принесе глибокі соціальні зміни: зникнення багатьох професій, переоцінку понять розуму та свідомості, можливу появу нових етичних викликів.
Загрозу не можна зводити лише до фантастичного «повстання машин» — вона проявляється і в більш прозаїчних речах: підриві приватності, концентрації влади, економічній нерівності між тими, хто володіє AGI, і всіма іншими.
Розуміння ризиків дає шанс їх мінімізувати та спрямувати появу надлюдського інтелекту в русло, сумісне з виживанням і процвітанням людства.