Технологии

Опросы больше не те: ИИ подменяет мнение человека

17 мая 2025 г. 864 просмотра 1 минута на чтение
Размер шрифта: А А А

Может ли искусственный интеллект искажать результаты научных исследований? Оказывается, да — и это уже происходит. Всё больше социологов замечают: в анкетах, заполненных на платформах вроде Prolific и Amazon Mechanical Turk, стали появляться слишком "совершенные" ответы. Они звучат слишком гладко, слишком корректно — не по-человечески.
В чём суть проблемы
С момента появления ChatGPT участники онлайн-опросов получили новый "инструмент". Взамен честного ответа — сгенерированный ботом текст. И всё бы ничего, если бы это не влияло на достоверность собранных данных.
Именно это обеспокоило Джанет Сюй из Стэнфорда. Вместе с Симоной Чжан (Нью-Йоркский университет) и Эй Джеем Альверо (Корнелл) она решила провести исследование и выяснить: насколько серьёзна угроза.

Опросы больше не те: ИИ подменяет мнение человека
Читать полностью на сайте www.pravda.ru