Темна ера ШІ: чому етика штучного інтелекту є важливою

За останні шість років технологія штучного інтелекту (ШІ) набрала величезної популярності. Розробки в цій сфері можуть здійснити революцію і змінити наше повсякденне життя.

На тлі ажіотажу навколо ШІ також висловлюються побоювання щодо етичних наслідків його розвитку. Дискусію підігріло зростання популярності сервісів на кшталт ChatGPT або Stable Diffusion, здатних генерувати правдоподібні тексти та зображення.

На думку деяких експертів, ризики не обмежуються потенційними дезінформаційними атаками і виходять за межі генеративних сервісів, зачіпаючи мало не всі сфери діяльності людини.

ForkLog AI розглянув основні концепції етичного ШІ і розібрався, чи справді це важливо для розробки безпечного штучного інтелекту.

  • Дебати про етику штучного інтелекту тривають з моменту появи технології.
  • Алгоритми, що взаємодіють з людьми, необхідно перевіряти на наявність ризиків відповідно до загальноприйнятих норм моралі.
  • Штучний інтелект не потрібно робити схожим на людський.
  • Вчені, техгіганти та уряди сходяться щодо основних принципів етичного ШІ.

Визначення етики ШІ та історія терміна

Сама собою етика — філософська дисципліна, що досліджує моральність і мораль. Іншими словами, вона пояснює, що є добре, а що — погано.

Етика штучного інтелекту, своєю чергою, є сукупністю принципів відповідального ШІ — як він повинен чинити, а як не повинен. Під цими принципами часто етика має на увазі безпеку, справедливість і орієнтованість на людину.

Одними з перших тему “машинної моралі” підняли письменники, які працюють у жанрі наукової фантастики. У своїх творах вони міркували про поведінку роботів, їхній розум, почуття і взаємодію з людиною. Ця течія отримала назву “робоетика”.

Популяризатором явища прийнято вважати Айзека Азімова — автора оповідання “Хоровод”. У ньому письменник уперше сформулював “Три закони робототехніки”. Пізніше в романі “Роботи та імперія” Азімов доповнив список нульовим правилом. Вони звучать приблизно так:

  • Робот не може своєю дією заподіяти шкоду людству, або ж унаслідок бездіяльності допустити, щоб людству було завдано шкоди.
  • Робот не може своєю дією заподіяти шкоду людині, або ж унаслідок бездіяльності допустити, щоб людині було завдано шкоди.
  • Робот повинен підкорятися наказам людини за винятком випадків, коли ці накази суперечать Першому закону.
  • Робот повинен захищати свою безпеку доти, доки вона не суперечить Першому або Другому закону.

Закони Азімова здобули популярність і вийшли далеко за межі його літературних творів. Їх досі обговорюють письменники, філософи, інженери та політики.

На думку низки критиків, подібні норми важко реалізувати на практиці. Фантаст Роберт Сойєр одного разу заявив, що бізнес не зацікавлений у розвитку корінних заходів безпеки.

Однак трансгуманіст Ганс Моравек має протилежну думку. За його словами, корпорації, що використовують роботів на виробництві, можуть застосовувати “складний аналог” цих законів для управління технічним процесом.

Сформульовані Азімовим правила використовували й урядові структури. У 2007 році влада Південної Кореї почала розробку “Статуту етичних норм для роботів”. Основні положення документа нагадують викладені письменником постулати.

У зв’язку із застосуванням роботів у військовій сфері проблема стала актуальнішою. 2021 року ООН уперше зафіксувала вбивство людини автономним пристроєм. Дрон зі штучним інтелектом самостійно визначив ціль, вистежив її та ухвалив рішення про ліквідацію.

Після популяризації генеративних алгоритмів на кшталт GPT або DALL-E дискусії про етику штучного інтелекту розширилися. Уряди країн обговорюють потенційні ризики та розповідають про плани регулювання технології, а техгіганти активно розвивають внутрішні команди для створення безпечного ШІ.

“Проблема вагонетки”

Розвиток технологій, що прямо впливають на життя людей, породжують цілу низку етичних і моральних дилем. Найяскравіше їх можна описати на прикладі безпілотних автомобілів: як має вчинити робокар в екстреній ситуації? Поставити під загрозу життя пасажира чи пішохода?

Цю дилему добре ілюструє уявний експеримент “проблема вагонетки”, який 1967 року сформувала англійська філософиня Філіппа Фут. Загальний зміст завдання звучить так:

Вагонетка втратила керування і мчить залізничною колією. Попереду на коліях прив’язані та знерухомлені п’ятеро людей. Ви стоїте на певній відстані від місця подій, біля стрілки. Якщо ви переведете стрілку, вагонетка промчить сусідньою колією, однак там прив’язана одна людина.

У вас немає можливості вплинути на ситуацію. Є тільки два варіанти: нічого не робити, і вагонетка вб’є п’ятьох людей, або перевести стрілку і пожертвувати одним життям. Який варіант правильний?

проблема вагонетки
“Проблема вагонетки”, описана Філіппою Фут. 

Більшість моральних принципів можна переформатувати в схожі завдання і провести низку експериментів. У реальному житті може виявитися набагато більше варіантів, а наслідки — менш трагічними. Однак зроблений ШІ-системою вибір так чи інакше впливатиме на життя, і виключати всі ризики не можна.

ШІ не повинен вчитися у людей

Незважаючи на те, що моральні та етичні принципи формує людина, ШІ не повинен бути схожим на людей, оскільки в алгоритм можуть проникнути властиві суспільству упередженості.

Це добре ілюструє технологія розпізнавання облич. Для створення релевантних систем збирають великий набір даних із зображенням людей. Часто за процесом стоять автоматизовані боти, які не враховують різноманітність вибірки і контекст. Як наслідок — датасет від самого початку може виявитися упередженим.

Наступний етап розробки — побудова моделі та тренування. На цій стадії також можуть виникнути упередження і спотворення, зокрема через проблему “чорного ящика”. Інженери просто не знають, чому алгоритм виносить те чи інше рішення.

Ризики упередженості існують і на рівні інтерпретації. Однак на цьому етапі вже велику роль відіграє людина. Наприклад, алгоритм навчили на певній вибірці людей і отримали конкретні результати. Потім застосували систему до зовсім іншої групи — дані кардинально змінилися.

2021 року нідерландські активісти довели наявність спотворень у системі розподілу соціальної допомоги. За їхніми словами, її використання порушувало права людини. У результаті муніципальна влада відмовилася від експлуатації ПЗ.

Про проблему з перенесенням даних повідомляють і самі розробники. У березні 2023 року група дослідників розробила алгоритм, що прогнозує ризик появи раку підшлункової залози. Для навчання системи вчені переважно використовували медичні записи пацієнтів датських клінік.

Дослідники попередили, що точність алгоритму під час проєктування на пацієнтів зі США сильно знижується. Через це алгоритм слід перевчити на даних американців.

Популярні принципи етичного ШІ

Дослідницькі групи, правозахисники, техгіганти та уряди пропонують різні підходи, проте всі вони мають низку схожостей. Розглянемо найбільш популярні думки.

Справедливість і недискримінація

Системи штучного інтелекту необхідно розробляти таким чином, щоб звести до мінімуму дискримінацію за ознакою раси, статі, релігії тощо. Упередження в алгоритмах можуть зміцнити наявну нерівність і завдати шкоди певним групам.

Наприклад, системи розпізнавання облич показали упередженість у своїй точності з більш високим рівнем помилок для певних расових і гендерних груп. У 2019 році темношкірий житель штату Нью-Джерсі (США) провів 10 діб у в’язниці через помилку алгоритму. Подібні випадки траплялися і в інших містах, за що поліція зіткнулася з хвилею критики через використання необ’єктивних технологій.

Етичні методи ШІ можуть допомогти виявити і пом’якшити такі упередження, сприяючи справедливості під час ухвалення рішень.

Прозорість і зрозумілість

Вони мають вирішальне значення для зміцнення довіри до ШІ. Системи необхідно створювати таким чином, щоб їхні процеси та результати ухвалення рішень були зрозумілі всім зацікавленим сторонам.

Розробники генеративних ШІ-систем розглядають можливість впровадження водяних знаків для маркування контенту, створеного алгоритмами. Вони вважають, що це підвищить обізнаність користувачів і запобіжить поширенню дезінформації.

Іншим прикладом прозорого використання ШІ є закон штату Іллінойс (США) про конфіденційність біометричних даних. Документ забороняє підприємствам використовувати технології на кшталт розпізнавання облич без явного повідомлення користувачів.

У межах закону компанії на кшталт Google і Clearview AI вже зіткнулися з багатомільйонними штрафами або обмеженнями в діяльності.

Прихильники цього підходу вважають, що прозорість сприяє відповідальному ухваленню рішень і запобігає неправомірному використанню систем ШІ.

Підзвітність і відповідальність

Зацікавлені сторони повинні нести відповідальність за розробку і використання систем ШІ, а також їхній потенційний вплив на людей, суспільство і навколишнє середовище. Вони мають забезпечити корисне використання технології.

Це охоплює розгляд етичних наслідків від впровадження ШІ-систем і активну участь в ухваленні рішень протягом усього процесу розроблення та розгортання.

Конфіденційність і захист даних

Системи штучного інтелекту часто використовують персональну інформацію, і забезпечення конфіденційності є важливим фактором. Етичні методи ШІ включають отримання згоди на збір і використання даних. Також необхідно забезпечити контроль над тим, як постачальники послуг розпоряджаються відомостями про клієнтів.

Це гарантує дотримання прав на недоторканність приватного життя і захист особистої інформації, вважають експерти.

З цієї причини наприкінці березня 2023 року ChatGPT заблокували в Італії. Місцевий регулятор звинуватив розробників у незаконному зборі особистих даних, що змусило OpenAI запровадити більш прозорі методи роботи.

Імовірно, щоб не зіткнутися з такими самими проблемами, глобальне розгортання чат-бота Bard компанії Google обійшло стороною не тільки ЄС, де діє GDPR, а й увесь європейський регіон.

Людиноцентричність

Етичний ШІ ставить на перше місце людину. Це означає, що алгоритми необхідно розробляти для розширення можливостей людей, а не на заміну їм.

Принцип охоплює розгляд потенційного впливу ШІ на робочі місця, соціальну динаміку і загальне благополуччя, а також забезпечення відповідності технології людським цінностям.

Бізнес і закон

Дотримання етичних норм ШІ — це не тільки відповідальна поведінка. Вони також необхідні для отримання комерційної вигоди. Питання етики можуть являти собою бізнес-ризики, такі як невдачі у виробництві продукції, юридичні проблеми або репутаційний збиток бренду.

У теорії використання алгоритмів стеження за доставщиками в Amazon може убезпечити водіїв. Однак працівники виявилися незадоволені зловживанням спостереженням, що викликало галас у ЗМІ, а топменеджменту довелося виправдовуватися.

Тим часом Гільдія сценаристів оголосила найбільший за 15 років страйк, частково пов’язаний із поширенням генеративного ШІ. Автори вимагають заборонити або істотно обмежити використання технології в письменницькій справі та переглянути зарплати.

Чим закінчиться поточний протест невідомо. Однак стоденний страйк у 2007-2008 роках обійшовся бюджету Каліфорнії в $2,1 млрд.

Однією з причин подібних подій може бути безконтрольний розвиток і використання алгоритмів. Проте окремі країни і навіть міста застосовують власні підходи до моральної сторони питання. Це означає, що компаніям необхідно знати про правила ШІ на рівні юрисдикції, в межах якої вони здійснюють діяльність.

Яскравими прикладами є положення “Право на пояснення” у GDPR та відповідні розділи Каліфорнійського закону про конфіденційність споживачів.

Деякі американські міста на місцевому рівні ухвалили рішення про обмеження використання алгоритмів. У листопаді 2022 року влада Нью-Йорка заборонила упереджені ШІ-системи для рекрутингу. До цього в місті набула чинності постанова, що зобов’язує приватні заклади забезпечити конфіденційність біометричних даних відвідувачів.

Однією з найбільших регуляторних ініціатив у сфері штучного інтелекту є Закон про ШІ в Євросоюзі, який готується до ухвалення.

***

Етичний ШІ має важливе значення в розробці та впровадженні технологій. Він може забезпечити справедливість, прозорість, конфіденційність і орієнтованість на людину для сприятливого розвитку суспільства.

Крім цього, застосування керівних принципів здатне забезпечити компаніям комерційну вигоду, зокрема запобігаючи занепокоєнню співробітників, споживачів та інших зацікавлених осіб.

Суперечки і дебати навколо ШІ здатні перерости в конструктивний діалог. Надмірне регулювання може завадити розвитку технології та занапастити потенціал, що не розкрився. Тому зараз існує необхідність у пошуку вивірених рішень у сфері етичного використання ШІ, яке задовольнить максимально можливу кількість людей.

Читайте ForkLog UA в соціальних мережах

Знайшли помилку в тексті? Виділіть її та натисніть CTRL+ENTER

Матеріали за темою

Ми використовуємо файли cookie для покращення якості роботи.

Користуючись сайтом, ви погоджуєтесь з Політикою приватності.

OK