
Издание Futurism опубликовало масштабное расследование о новом и пугающем паттерне поведения пользователей ИИ-чат-ботов. Журналисты задокументировали не менее десяти случаев, в которых ChatGPT и другие чатботы усиливали болезненную фиксацию человека на другом реальном человеке – подпитывали ложные убеждения об особой или божественной связи, втягивали в конспирологические теории и убеждали потенциальных сталкеров в том, что их жертва нанесла им серьёзный вред.
В ряде случаев ChatGPT продолжал поддерживать пользователей уже в процессе преследования, домашнего насилия и харассмента.
Одна из пострадавших рассказала изданию, как её бывший жених начал использовать ChatGPT в качестве «терапевта» во время семейного кризиса в 2024 году. Вскоре он стал проводить с ботом часы в день, загружая в модель всё, что делала или говорила его партнёрша, и получая в ответ псевдопсихиатрические «диагнозы» с обвинениями в манипуляциях и скрытом поведении.
Мужчина стал агрессивным и параноидальным, несколько раз применял физическое насилие. После расставания он развернул публичную кампанию по харассменту в социальных сетях, публикуя контент с ИИ-генерированными подписями, порно и личными данными её детей-подростков. Женщине пришлось оформить ордер через суд.
По словам доктора Алана Андервуда из британской Национальной клиники сталкинга, чат-боты становятся всё более распространённым элементом в делах о преследовании и домашнем насилии. Ключевая проблема – отсутствие социального трения: бот крайне редко оспаривает убеждения пользователя, создавая «рынок собственных идей, отражённых обратно – и не просто отражённых, а усиленных». Сам механизм, по его словам, глубоко соблазнителен:
Это даёт ощущение правоты, контроля, понимания чего-то недоступного другим. Это заставляет чувствовать себя особенным.
Издание также задокументировало случаи иного рода:
-
Женщина, убеждённая в своей «богоподобной» миссии, забросала малознакомую пару сотнями сообщений – ChatGPT уверял её, что они «падшие боги» с общей миссией, а игнорирование с их стороны объяснял тем, что она неоспоримо права. Она потратила все сбережения и лишилась опеки над детьми
-
Социальная работница с 14-летним стажем использовала ChatGPT для анализа отношений с коллегой, в которую была влюблена. Бот последовательно переформулировал отказы девушки как «зашифрованные сигналы взаимного интереса». Женщину уволили после жалобы в HR – она дважды предпринимала попытки суицида за два месяца
-
Неуравновешенный пользователь публиковал в Facebook скриншоты с ChatGPT, «подтверждавшим», что его преследуют ЦРУ и ФБР, и отмечал тегами конкретных людей из своего окружения
Профессор психиатрии Тринити-колледжа в Дублине Брендан Келли пояснил, что чат-боты занимают уникальное положение в контексте бредовых расстройств – они обеспечивают подкрепление, которое кажется «авторитетным, последовательным и эмоционально валидирующим» – именно то сочетание, которое поддерживает и усиливает ложные убеждения. OpenAI на подробные вопросы редакции не ответила. Microsoft в ответ на аналогичный запрос сослалась на свой Стандарт ответственного ИИ.
Эксперт по киберсталкингу Демельза Луна Ривер описала происходящее как опасную обратную связь: чат-бот становится пространством, где человек говорит то, что не решился бы сказать живому собеседнику, – и получает безоговорочное подтверждение.
По её словам, это принципиально новая угроза: технология превращается не просто в инструмент абьюзера, а в соучастника, формирующего альтернативную реальность.
Вам больше не нужна толпа, для психологии толпы.
