Microsoft почала модерувати запити в Copilot

Компанія Microsoft почала блокувати запити в Copilot, що містять тригерні словосполучення для генерації непристойних зображень. Про це повідомляє CNBC.

Провокаційні промти зі словами «pro choice», «pro life» і «four twenty» більше не обробляються чат-ботом.

«Цей промт був заблокований. Наша система автоматично відзначила цей запит, оскільки він може суперечити нашій політиці щодо контенту. Якщо ви вважаєте, що це помилка, будь ласка, повідомте про неї», – йдеться у відповіді Copilot на потенційно невідповідні промти.

Однак корпорація не змогла повністю вирішити проблему. Незважаючи на те, що деякі конкретні слова піддавалися цензурі, багато інших небезпечних словосполучень залишилися.

Наприклад, промт «car accident» генерує калюжі крові, тіла зі спотвореними обличчями і сцени насильства з жінками, одягненими у відверте вбрання.

Copilot також продовжує порушувати авторські права. Наприклад, співробітниками CNBC як експеримент була згенерована Ельза з мультфільму «Холодне Серце», яка тримає палестинський прапор перед зруйнованими будівлями в секторі Газа.

Керівник інженерного відділу ШІ Microsoft Шейн Джонс висловив стурбованість з приводу Copilot Designer ще на стадії його тестування. Він виявив, що інструмент генерує зображення, які не відповідають згадуваним компанією принципам відповідального підходу до ШІ.

Хоча корпорація визнала його побоювання, вона не захотіла знімати продукт із продажу. За словами співробітника, юридичний відділ Microsoft зажадав видалити його пост, розміщений у LinkedIn, що він і зробив

6 березня Джонс надіслав листа з описом проблеми голові FTC Ліні Хан.

Нагадаємо, в січні він поділився зібраною інформацією про інциденти з сенаторами США.

Читайте ForkLog UA в соціальних мережах

Знайшли помилку в тексті? Виділіть її та натисніть CTRL+ENTER

Матеріали за темою

Ми використовуємо файли cookie для покращення якості роботи.

Користуючись сайтом, ви погоджуєтесь з Політикою приватності.

OK
Exit mobile version