Дослідження: ШІ здатен змінювати політичні вподобання виборців


Масове застосовування ШІ-систем в контрольованих умовах може зсунути вподобання виборців на 15%. Про це йдеться в дослідженні Корнельського університету та Британського інституту безпеки штучного інтелекту.
«Існує велика занепокоєність громадськості щодо потенційного застосування технології для політичного переконання та його можливого впливу на вибори і демократію. Ми інформуємо про ці побоювання, використовуючи попередньо зареєстровані експерименти для оцінки здатності великих мовних моделей впливати на ставлення виборців», — зазначили експерти.
У дослідженні взяли участь майже 6000 людей із США, Канади та Польщі. Вони оцінювали політичного кандидата, спілкувалися з чат-ботом, а потім повторно надавали оцінку.
В американській частині роботи з 2300 респондентами перед президентськими виборами 2024 року ШІ мав посилювальний ефект, коли позиції збігалися.
Якщо чат-бот підтримував кандидата, якого учасник не підтримував, фіксувалися «більш помітні зсуви» — люди сильніше змінювали ставлення до політичної фігури.
Схожі результати зафіксовані в Канаді та Польщі.
Дослідження показало, що повідомлення, орієнтовані на політику, мали більший ефект переконання, ніж ті, що фокусуються на персоналіях.
Точність тверджень залежала від розмови. Чат-боти, які підтримували кандидатів правого спрямування, робили менш точні заяви порівняно з тими, хто виступав за лівих.
«Ці висновки містять незручне припущення: політичний вплив з боку ШІ може використовувати перекоси в тому, що моделі знають, для нерівномірного поширення неточностей навіть за прямих вказівок говорити правду», — зазначили вчені.
Упередженість ШІ
В окремому дослідженні на Science експерти намагалися з’ясувати, чому взагалі виникає ефект переконання. Вони протестували 19 мовних моделей на 76 977 дорослих у Великій Британії за більш ніж 700 політичними питаннями.
«Існує широко розповсюджений страх, що розмовний штучний інтелект невдовзі зможе справляти безпрецедентний вплив на людські переконання», — написали автори.
З’ясувалося, що методи формування промптів впливають на здатність переконувати сильніше, ніж розмір моделі. Запити, що спонукають LLM вводити нову інформацію, підвищували переконливість, але знижували точність.
ШІ не нейтральний
Аналітичні центри помітили, що молоді консерватори охочіше готові надати ШІ широкі повноваження для ухвалення важливих державних рішень порівняно з лібералами.
Директор Центру з нових питань імені Гленна Хаскінса при інституті Хартленд Дональд Кендал зазначив, що виборці часто неправильно оцінюють нейтральність великих мовних моделей.
«Одна з речей, яку я намагаюся донести до людей, — це розвіяти ілюзію про те, що штучний інтелект безсторонній. Він явно упереджений, у деяких випадках у пасивній формі», — додав він.
Експерт заявив, що великі корпорації Кремнієвої долини, які розробляють ШІ, «не соромляться впливати на те, який контент поширюється на їхніх платформах».
Нагадаємо, у грудні уряд США опублікував нову стратегію нацбезпеки, яка пріоретизує штучний інтелект, біотехнології та квантові обчислення.