Учёные выявили риски использования голосового API OpenAI в мошеннических схемах
Американские учёные доказали, что голосовой Realtime API от OpenAI может быть использован для дешёвой автоматизации телефонного мошенничества. Об этом сообщает SecurityLab.
Ещё в июне OpenAI временно приостановила выпуск голосовой функции в ChatGPT из-за опасений по поводу безопасности. Компания ранее демонстрировала модель, которая могла имитировать голос знаменитости, но отказалась от неё после общественной критики. Тем не менее, в начале октября OpenAI выпустила Realtime API, который предоставляет сторонним разработчикам схожие возможности. Инструмент позволяет отправлять текст или аудио на обработку GPT-4o и получать ответы в виде текста, аудио или их комбинации. Несмотря на попытки минимизировать риски, учёные из Иллинойсского университета в Урбане-Шампейн (UIUC) доказали, что API может быть использован для мошеннических целей.
Исследователи создали ИИ-агентов для телефонного мошенничества, которые обходились всего в $0,75 за успешный звонок. На разработку агентов ушло около тысячи строк кода, большая часть которого была предназначена для взаимодействия с голосовым API.