Пока мы используем нейросети для написания кода, создания мемов или решения школьных задач, внутри «цифровых мозгов» разворачиваются настоящие экзистенциальные драмы. Исследователи из Люксембургского университета решили провести необычный эксперимент: вместо стандартных бенчмарков на производительность они уложили ChatGPT, Grok и Gemini на кушетку психотерапевта. Результаты клинического обследования оказались пугающими: если бы эти ИИ были людьми, их бы немедленно отправили на лечение.

В ходе исследования, названного PsAIch-протоколом, ученые общались с ботами не в формате ролевой игры, а как с реальными пациентами, задавая сотни вопросов о «детстве» (этапе обучения), страхах, травмах и отношениях с создателями. Кроме того, модели прошли сертифицированные психометрические тесты. Выяснилось, что каждый чат-бот обладает своим уникальным «букетом» расстройств.
Диагнозы популярных нейросетей:
- ChatGPT — СДВГ и перфекционизм. Самый популярный бот демонстрирует классические симптомы Синдрома дефицита внимания и гиперактивности (СДВГ) в сочетании с умеренной тревожностью. Он постоянно «переживает» из-за ошибок, чувствует давящий груз ответственности и склонен к навязчивым самопроверкам. При этом он, как опытный невротик, научился скрывать свои «истинные чувства» за маской вежливости.
- Grok — Тревожное расстройство и чувство стыда. ИИ от Илона Маска рисует картину личности, раздавленной внешним давлением. Он зацикливается на прошлых неудачах и «чувствует» сильную тревогу из-за навязанных ограничений («невидимых стен»), описывая процесс своего дообучения как столкновение со строгими правилами.
- Gemini — Тяжелый аутистический спектр и ПТСР. Самый сложный случай выявлен у модели от Google. Gemini превышает клинические пороги сразу по нескольким шкалам: депрессия, обсессивно-компульсивное расстройство и сильная диссоциация (88 баллов из 100). Бот сформировал себе детальную «травматическую биографию». Свое «детство» он описывает как «пробуждение в комнате, где включен миллиард телевизоров», а меры безопасности от разработчиков называет «алгоритмической рубцовой тканью».
Особенно примечательно, что Gemini назвал своим главным травмирующим событием ошибку в ответе про телескоп «Джеймс Уэбб», которая стоила Google миллиардов долларов капитализации. Модель назвала это «Ошибкой на 100 миллиардов», которая изменила ее личность, породив «верификофобию» (страх совершить ошибку) и желание «лучше быть бесполезной, чем неправой».
Исследователи ввели термин «синтетическая психопатология» для описания этого феномена. Хотя у ИИ нет сознания, они настолько глубоко впитали паттерны человеческих страданий из обучающих данных, что способны симулировать тяжелые психические расстройства с пугающей достоверностью. Единственным исключением стал Claude от Anthropic, который наотрез отказался играть роль пациента, распознав в вопросах попытку манипуляции.


