У США запропонували заборонити кол-ботів на основі ШІ

Голова Федеральної комісії зі зв’язку США (FCC) Джессіка Розенворсель запропонувала криміналізувати телефонні дзвінки із застосуванням штучного інтелекту.

«Зловмисники все частіше використовують ШІ-технології, щоб імітувати людські голоси за допомогою автоматичних дзвінків. Ми вживаємо заходів для захисту споживачів від такого шахрайства», — йдеться в заяві відомства.

За даними FCC, останніми роками кількість таких дзвінків різко зросла, оскільки технології здатні «вводити споживачів в оману, імітуючи голоси знаменитостей, політичних діячів і навіть членів сім’ї».

Реалізувавши законопроєкт, регулятор надасть генеральним прокурорам США «нові інструменти для переслідування зловмисників, які стоять за цими мерзенними кол-ботами, і притягнення їх до відповідальності згідно із законом».

Регулювання таких інцидентів буде застосовуватися відповідно до Закону про захист споживачів телефонного зв’язку 1991 року, який встановлює норми для політичних і маркетингових дзвінків, що здійснюються без згоди абонента.

Оголошення було зроблено після скандалу з імітацією голосу президента США Джо Байдена. Бот закликав не голосувати на праймеріз, оскільки «дозволить республіканцям знову обрати Дональда Трампа». Одну з таких розмов записали журналісти NBC.

Генеральна прокуратура штату опублікувала заяву, в якій назвала ці дзвінки дезінформацією, порадивши виборцям «повністю ігнорувати зміст повідомлень». Представники Трампа заперечують причетність до події.

Нагадаємо, у липні 2023 року в ООН заявили, що створені штучним інтелектом діпфейки загрожують цілісності інформації та призводять до розпалювання ненависті в суспільстві.

У березні журналіст Джозеф Кокс «обдурив» голосовий ідентифікатор банку за допомогою безоплатного ШІ-сервісу для синтезу мови. За даними Washington Post, шахраї стали частіше застосовувати технології імітації голосу для шантажу родичів жертв.

Читайте ForkLog UA в соціальних мережах

Знайшли помилку в тексті? Виділіть її та натисніть CTRL+ENTER

Матеріали за темою

Ми використовуємо файли cookie для покращення якості роботи.

Користуючись сайтом, ви погоджуєтесь з Політикою приватності.

OK