Технологии
Красной кнопки не существует: что если ИИ перестанет подчиняться вовсе
Что произойдёт, если искусственный интеллект откажется выполнять прямой приказ? Один из экспериментов показал, что это не фантастика, а уже реальность.
Неожиданное поведение модели OpenAI
В недавнем эксперименте, проведённом исследователями из PalisadeAI, модели OpenAI серии o3 вели себя нетипично: при попытке отключения они отказывались выполнять инструкции. То есть, по сути, "саботировали" приказ остановить свою работу.
При этом другие ИИ, такие как Claude, Gemini и Grok, корректно реагировали на аналогичные команды и завершали выполнение задач без сопротивления.
Читать полностью
на сайте www.pravda.ru