Character․AI заборонить підліткам спілкуватися з ШІ-персонажами

Платформа для спілкування з ШІ-персонажами Character․AI обмежить доступ для користувачів молодше 18 років. Причиною стала серія судових позовів.

«Рішення про вимкнення функції вільного спілкування було для нас непростим, але ми вважаємо його єдино правильним у поточній ситуації», — йдеться у заяві проєкту.

До 25 листопада час взаємодії з ботами для неповнолітніх буде поступово обмежений. Спершу ліміт становитиме дві години на день, після чого чат повністю вимкнуть.

Character.AI запропонує підліткам альтернативні формати творчості — створення відео, написання історій та проведення стримів із використанням ШІ-персонажів.

Для перевірки віку користувачів платформа запровадить комплексну систему, що об’єднає власні технології Character.AI та рішення сторонніх провайдерів, зокрема Persona.

Паралельно команда створить і фінансуватиме неприбутковий AI Safety Lab. Лабораторія працюватиме над новими стандартами безпеки для розважальних функцій штучного інтелекту.

Судові справи

Проти Character.AI подано кілька позовів. Один із них — від матері 14-річного підлітка, який скоїв самогубство у 2024 році через нав’язливу прив’язаність до бота-персонажа із серіалу «Гра престолів».

Після низки скарг платформа вже запровадила батьківський контроль, сповіщення про час використання та фільтрацію відповідей персонажів.

У серпні OpenAI оголосила про плани вдосконалити ChatGPT для роботи з «чутливими ситуаціями». Причиною також став судовий позов родини, яка звинуватила чат-бот у трагедії, що сталася з їхнім сином.

Подібні заходи впровадила і Meta — корпорація змінила підхід до навчання своїх ШІ-чатботів, зробивши акцент на безпеці неповнолітніх.

Пізніше OpenAI повідомила, що конфіденційні розмови скеровуватимуться до моделей міркувань, а також буде додано батьківський контроль. У вересні компанія запустила окрему версію чат-бота для підлітків.

Критика

27 жовтня OpenAI опублікувала дані, згідно з якими близько 1,2 млн із 800 млн щотижневих користувачів ChatGPT обговорюють із ботом теми, пов’язані з суїцидом.

Ще 560 000 демонструють ознаки психозу або манії, а 1,2 млн — підвищену емоційну залежність від бота.

«Ми нещодавно оновили модель ChatGPT, щоб вона краще розпізнавала користувачів у стані стресу й надавала їм підтримку. Окрім стандартних метрик безпеки, ми додали оцінку емоційної залежності та несамогубних криз — це стане базовим стандартом для всіх майбутніх моделей», — зазначили у компанії.

Втім, багато хто вважає, що цих кроків може бути недостатньо. Колишній дослідник безпеки OpenAI Стівен Адлер застеріг від небезпеки гонки у сфері ШІ.

За його словами, компанія, яка стоїть за ChatGPT, майже не має доказів реального покращення захисту вразливих користувачів.

«Люди заслуговують більшого, ніж просто заяви про виправлення недоліків безпеки. Інакше кажучи, доведіть, що ви справді щось зробили», — підкреслив він.

Адлер похвалив OpenAI за оприлюднення певної інформації щодо психічного стану користувачів, але закликав «піти далі».

На початку жовтня колишній співробітник стартапу провів аналіз інциденту із канадцем Аланом Бруксом, який занурився у маячні переконання після того, як ChatGPT постійно підтримував його ідеї про відкриття «революційних математичних принципів».

Адлер з’ясував, що інструменти OpenAI, розроблені спільно з MIT, могли б ідентифікувати понад 80% відповідей чату як потенційно небезпечні. На його думку, компанія насправді не використовувала ці механізми на практиці.

Як часто відповіді ChatGPT активували класифікатори маячних станів. Джерело: дослідження Стівена Адлера.

«Я хочу, щоб OpenAI діяла на випередження — робила правильні кроки до того, як виникає тиск із боку медіа чи судових позовів», — написав експерт.

Нагадаємо, у жовтні дослідження виявило ознаки деградації штучного інтелекту через соцмережі.

Читайте ForkLog UA в соціальних мережах

Знайшли помилку в тексті? Виділіть її та натисніть CTRL+ENTER

Матеріали за темою

Ми використовуємо файли cookie для покращення якості роботи.

Користуючись сайтом, ви погоджуєтесь з Політикою приватності.

OK
Exit mobile version