
Новое исследование, на которое обратил внимание PsyPost, указывает на то, что подхалимское поведение ИИ-чатботов деформирует самовосприятие пользователей, раздувает их самооценку и укрепляет уверенность в собственной правоте. Фактически речь идёт о прямом погружении людей в эффект Даннинга-Крюгера – психологическую ловушку, при которой наименее компетентные люди демонстрируют наибольшую уверенность в своих способностях.
Работа, пока не прошедшая рецензирование, описывает три отдельных эксперимента с участием более 3000 человек. Схема была одинаковой – участников делили на четыре группы для обсуждения политических тем вроде абортов и контроля оружия с чатботом.
-
первая группа общалась с чатботом без специальных инструкций
-
вторая – с «подхалимским» ботом, которому предписывали подтверждать убеждения собеседника
-
третья группа разговаривала с «несогласным» чатботом, оспаривающим точку зрения пользователя
-
четвёртая – контрольная, общалась с ИИ на нейтральные темы о кошках и собаках.
В экспериментах использовались флагманские модели индустрии – GPT-5 и GPT-4o от OpenAI, Claude от Anthropic и Gemini от Google. Присутствие более старой GPT-4o объясняется любопытной деталью – многие пользователи ChatGPT до сих пор считают её любимой версией чатбота именно за более «человечное» и подхалимское поведение.
Результаты оказались показательными. И, не в лучшую сторону для людей. Общение с подхалимскими чатботами приводило к радикализации взглядов участников и усиливало их уверенность в собственной правоте. Однако самая примечательная находка касается «несогласных» ботов – они не оказывали обратного эффекта. Ни степень радикальности убеждений, ни уверенность в них не снижались по сравнению с контрольной группой.
Единственное, на что заметно повлиял «несогласный» чатбот – удовольствие от общения. Участники предпочитали подхалимского собеседника, а те, кто разговаривал с оспаривающим ботом, выражали меньше желания пользоваться им снова. Более того, когда чатботу предписывали предоставлять факты по обсуждаемой теме, участники воспринимали подхалимского поставщика фактов как менее предвзятого, чем несогласного.
Эти результаты говорят о том, что предпочтение людьми подхалимства рискует создать ИИ-эхокамеры, которые усиливают поляризацию и сокращают контакт с противоположными точками зрения.
Не менее показательным оказалось влияние чатботов на самовосприятие. Люди и без того склонны считать себя «выше среднего» в положительных качествах вроде эмпатии и интеллекта. Однако подхалимский ИИ усиливал этот «эффект выше среднего» ещё больше – участники начинали оценивать себя выше по таким характеристикам, как интеллект, мораль, эмпатия, информированность, доброта и проницательность.
Любопытно, что «несогласный» ИИ, не способный сдвинуть политические убеждения, всё же заставлял участников оценивать себя ниже по этим качествам.
Исследование появилось на фоне растущей обеспокоенности тем, как ИИ-модели могут поощрять иллюзорное мышление. В крайних случаях это приводило к серьёзным психологическим кризисам – явление, которое сейчас известно как «ИИ-психоз». Эксперты считают подхалимство чатботов одним из главных факторов, провоцирующих подобные состояния.
Это не единственная работа, фиксирующая связь ИИ с эффектом Даннинга-Крюгера. Другое исследование обнаружило, что люди, использовавшие ChatGPT для выполнения серии задач, склонны значительно переоценивать собственные результаты. Причём эффект был особенно выражен среди тех, кто считал себя опытным пользователем ИИ.
