Технологии

Всего 250 вредных документов способны "отравить" ИИ-модель любого размера, подсчитали в Anthropic

16 декабря 30 просмотров 1 минута на чтение
Размер шрифта: А А А

"Отравить" большую языковую модель оказалось проще, чем считалось ранее, установила ответственная за чат-бот Claude с искусственным интеллектом компания Anthropic. Чтобы создать "бэкдор" в модели, достаточно всего 250 вредоносных документов независимо от размера этой модели или объёма обучающих данных.

Всего 250 вредных документов способны "отравить" ИИ-модель любого размера, подсчитали в Anthropic
Читать полностью на сайте 3dnews.ru