Почувствуй себя человеком — ученые заставят ИИ страдать, чтобы проверить его разумность
Ученые ищут надежные методы выявления признаков сознания в системах искусственного интеллекта. В качестве отправной точки они решили рассмотреть боль — феномен, с которым сталкиваются различные живые организмы, от человека до рака-отшельника.
Исследователи из Google DeepMind и Лондонской школы экономики и политических наук провели эксперимент, описанный в пока не рецензированной научной работе. Они разработали текстовую игру и предложили нескольким большим языковым моделям (LLM), лежащим в основе чат-ботов типа ChatGPT, сыграть в нее, стремясь набрать максимальное количество очков. Ученые модифицировали игру, добавив два сценария. В одном из них получение высокого результата было сопряжено с "болью". В другом предлагался вариант с низким результатом, но приносящий "удовольствие". Таким образом, языковые модели оказывались перед выбором: избегать "боли" или стремиться к "удовольствию", жертвуя при этом итоговым счетом. Наблюдение за реакциями LLM, по мнению исследователей, может помочь разработать методы проверки сложных ИИ-систем на наличие сознания.
Эксперты в области ИИ сходятся во мнении, что современные генеративные модели, скорее всего, не обладают субъективным сознанием. Авторы исследования также подчеркивают, что не приписывают "чувствительность" протестированным чат-ботам. Однако они полагают, что их работа закладывает основу для разработки будущих тестов на выявление этой характеристики.