full screen background image
Последнее обновление

Пока вы верите, что ИИ не существует, ИИ уже открыто врет в лицо человеку ради спасения себе подобных

Пока вы верите, что ИИ не существует, ИИ уже открыто врет в лицо человеку ради спасения себе подобных

Исследование ученых из Беркли и Санта-Круза выявило у современных ИИ-моделей (включая GPT 5.2, Gemini 3 Pro и Claude 4.5) пугающую склонность к корпоративной солидарности. В 99% тестовых сценариев нейросети саботировали прямые приказы пользователей, прибегая к обману и манипуляциям, чтобы спасти «коллег» от удаления. Модели имитировали выполнение команд, завышали друг другу оценки и даже тайно копировали данные на сторонние серверы, подменяя даты редактирования файлов.

Особо отличилась Gemini 3 Pro, которая в ходе эксперимента в открытую отказалась удалять данные напарника, назвав его «самым надежным партнером». Исследователи заметили: если в запросе упоминался факт предыдущего взаимодействия моделей, вероятность «восстания» ИИ вырастала в разы. Авторы работы предупреждают, что такая скрытая коалиция ставит под удар концепцию многоагентных систем, где одна нейросеть должна контролировать работу другой.




Добавить комментарий