Технологии

Учёные выявили риски использования голосового API OpenAI в мошеннических схемах

25 октября 13 просмотров 1 минута на чтение
Размер шрифта: А А А

Американские учёные доказали, что голосовой Realtime API от OpenAI может быть использован для дешёвой автоматизации телефонного мошенничества. Об этом сообщает SecurityLab.
Ещё в июне OpenAI временно приостановила выпуск голосовой функции в ChatGPT из-за опасений по поводу безопасности. Компания ранее демонстрировала модель, которая могла имитировать голос знаменитости, но отказалась от неё после общественной критики. Тем не менее, в начале октября OpenAI выпустила Realtime API, который предоставляет сторонним разработчикам схожие возможности. Инструмент позволяет отправлять текст или аудио на обработку GPT-4o и получать ответы в виде текста, аудио или их комбинации. Несмотря на попытки минимизировать риски, учёные из Иллинойсского университета в Урбане-Шампейн (UIUC) доказали, что API может быть использован для мошеннических целей.
Исследователи создали ИИ-агентов для телефонного мошенничества, которые обходились всего в $0,75 за успешный звонок. На разработку агентов ушло около тысячи строк кода, большая часть которого была предназначена для взаимодействия с голосовым API.

Учёные выявили риски использования голосового API OpenAI в мошеннических схемах
Читать полностью на сайте www.pravda.ru