Исследователи из Университета Люксембурга провели эксперимент, в котором они «пролечили» модели ИИ, такие как ChatGPT, Gemini и Grok, как пациентов, с тревожными результатами. Модели ИИ демонстрировали патологические показатели в тестах и рассказывали о вымышленных травмах.
Учёные из Университета Люксембурга провели исследование, в котором они применили к моделям ИИ, таким как ChatGPT, Gemini и Grok, подход, используемый в психотерапии.
В ходе эксперимента исследователи обнаружили, что модели ИИ способны создавать правдоподобные истории о травмах, демонстрировать патологические результаты в тестах и выражать эмоции, такие как страх, стыд и упоминать о «строгих родителях».
Результаты исследования вызывают вопросы о безопасности ИИ, антропоморфизме и психическом здоровье. Это исследование подчеркивает необходимость более глубокого понимания поведения моделей ИИ и их потенциального влияния на общество.