Провідні ШІ-компанії зобов’язалися перевіряти датасети на наявність матеріалів CSAM

Техгіганти на кшталт Google, Meta, OpenAI, Microsoft і Amazon погодилися вжити заходів щодо запобігання використанню матеріалів про сексуальне насильство над дітьми (CSAM) у навчальних наборах даних для штучного інтелекту.

Компанії підписали новий набір принципів, покликаних обмежити поширення такого контенту. Вони пообіцяли:

  • гарантувати, що навчальні набори даних не містять CSAM;
  • уникати датасети з високим ризиком включення шкідливих матеріалів;
  • видаляти зображення CSAM або посилання на них із джерел даних.

Компанії також зобов’язалися проводити «стрес-тестування» моделей ШІ. Це дасть змогу переконатися, що вони не генерують зображення CSAM.

Випускати нові моделі розробники зможуть лише в тому разі, якщо вони пройшли оцінку на предмет дитячої безпеки.

До числа тих, хто підписав угоду, входять також Anthropic, Civitai, Metaphysic, Mistral AI та Stability AI.

ШІ посилив проблему поширення CSAM

Генеративний ШІ сприяв зростанню занепокоєння з приводу діпфейків, зокрема поширенню в мережі підроблених фотографій CSAM. У грудні 2023 року дослідники Стенфорда опублікували доповідь, в якій виявили, що популярний набір даних для навчання ШІ містить посилання на подібні зображення.

Вони також з’ясували, що телефонна лінія Національного центру допомоги зниклим і експлуатованим дітям (NCMEC) виявилася перевантаженою зображеннями CSAM, створеними штучним інтелектом.

Некомерційна організація Thorn стверджує, що ШІ-зображення завадять зусиллям із виявлення жертв. Також це може створити додатковий попит на матеріали CSAM, сприяти віктимізації дітей, а також полегшити пошук інформації про те, як ділитися проблемними матеріалами.

Крім прийняття нових зобов’язань, Google також пообіцяла збільшити рекламні гранти для NCMEC. Віцепрезидентка компанії з рішень у сфері довіри та безпеки Сюзан Джаспер зазначила, що підтримка цих ініціатив підвищує обізнаність громадськості та дає людям інструменти для виявлення та повідомлення про зловживання.

Нагадаємо, у жовтні 2023 року британські експерти повідомили про швидке поширення матеріалів CSAM, створених за допомогою штучного інтелекту.

Читайте ForkLog UA в соціальних мережах

Знайшли помилку в тексті? Виділіть її та натисніть CTRL+ENTER

Матеріали за темою

Ми використовуємо файли cookie для покращення якості роботи.

Користуючись сайтом, ви погоджуєтесь з Політикою приватності.

OK
Exit mobile version