OpenAI посилить безпеку ChatGPT після трагедії з підлітком


Компанія OpenAI оприлюднила плани з усунення недоліків ChatGPT у роботі з «чутливими ситуаціями». Причиною став позов від сім’ї, яка звинуватила чат-бот у трагедії, що трапилася з їхнім сином.
«Мета — зробити наші інструменти максимально корисними для людей. У межах цього ми вдосконалюємо здатність моделей розпізнавати та правильно реагувати на ознаки психічної чи емоційної кризи та допомагати людям знаходити підтримку — з урахуванням порад експертів», — йдеться в блозі стартапу.
У компанії зазначили, що в ChatGPT діє багаторівнева система захисту для взаємодії з вразливими користувачами. Починаючи з 2023 року, моделі навчені не надавати інструкцій щодо заподіяння шкоди собі. Водночас вони вміють переходити на підтримувальний і співчутливий тон.
Якщо користувач озвучує суїцидальні думки, ChatGPT спрямовує його до професійної допомоги. Для цього OpenAI співпрацює з 90 лікарями з більш ніж 30 країн, серед яких психіатри, педіатри та терапевти.
GPT-5 продемонстрував помітний прогрес у запобіганні нездоровій емоційній залежності, зменшенні льстивих відповідей і зниженні частки некоректних реакцій у кризових ситуаціях, наголосили в OpenAI.
Втім, попри всі захисні механізми, ШІ-системи компанії часом давали збої. Тому OpenAI працює над такими напрямами:
- посилення захисту в довгих діалогах;
- уточнення правил блокування контенту;
- розширення підтримки для більшої кількості людей у кризі;
- спрощення звернень до екстрених служб;
- можливість швидкого зв’язку з довіреними контактами;
- підвищення рівня безпеки підлітків.
26 серпня батьки 16-річного Адама Рейна подали проти OpenAI позов після його смерті. Вони стверджують, що «ChatGPT активно допомагав Адаму вивчати методи суїциду».
Це не поодинокий випадок. Раніше письменниця Лаура Рейлі у есе розповіла, що її 29-річна донька пішла з життя «після тривалих обговорень цього з ChatGPT».
Нагадаємо, у серпні стало відомо, що чат-бот Grok розкрив 370 000 діалогів користувачів для індексації у пошукових системах.