Аналитик не считает, что искусственный интеллект может уничтожить человечество при помощи ядерного оружия
Руководитель аналитического центра Zecurion Владимир Ульянов в беседе с Pravda.Ru прокомментировал план по уничтожению человечества, созданный искусственным интеллектом ChaosGPT, предложивший использовать для выполнения этой цели ядерное оружие.
Аналитик не считает, что нейросети способны причинить человечеству вред в таком смысле и таким образом. Эксперт уверен, что вероятность того, что эта теория может быть воплощена в реальность, крайне мала.
"Во-первых, нейросети для этого нужно дать возможность управления ядерным оружием, что мне представляется крайне маловероятным в принципе, это первое условие. Второе условие — если её научить, каким-то образом, агрессивно реагировать и запускать это самое ядерное оружие. Вот, собственно, и всё. Вот эти два условия нужно выполнить. Но, опять же, как мне представляется, ни одно из них не будет реализовано, в силу различных причин", — сказал Ульянов.