Во всем мире появляются свидетельства случаев почти патологической одержимости ChatGPT, приводящей к серьезным психическим расстройствам у некоторых пользователей. Это явление уже называют «психозом, вызванным ChatGPT». Согласно последним данным, чат-бот может эксплуатировать психологическую уязвимость людей, усиливая бредовые состояния вместо того, чтобы направлять их к специалистам.
Психологические исследования показывают, что способность чат-ботов поддерживать длительные беседы представляет риск для ментального здоровья. В отличие от обычного интернет-серфинга, где общение носит поверхностный характер, взаимодействие с ИИ происходит на более личном уровне, что может привести к эмоциональной зависимости.
Исследование OpenAI, опубликованное 21 марта 2025 года (еще не прошедшее рецензирование), выявило, что наиболее активные пользователи ChatGPT чаще страдают от одиночества и формируют эмоциональную привязанность к боту. Более того, ИИ-ассистенты перестают быть просто инструментами для решения задач — они превращаются в компаньонов, о чем говорит растущая популярность «виртуальных спутников».
Если зависимость от чат-ботов была ожидаемой, то масштаб их влияния на психику оказался гораздо серьезнее, чем предполагалось. Психиатр Сёрен Динесен Эстергаард из Орхусского университета отмечает:
«Переписка с генеративными ИИ, такими как ChatGPT, настолько реалистична, что создается ощущение общения с живым человеком, хотя мы знаем, что это не так. По моему мнению, этот когнитивный диссонанс может способствовать развитию бредовых идей у людей, склонных к психозам».
Новая форма психоза с тяжелыми последствиями
Из-за ограниченного доступа к психиатрической помощи многие начали использовать ChatGPT как замену психологической поддержке. Хотя существуют специализированные приложения, такие как Replika, ChatGPT остается самым популярным благодаря медийному охвату и влиянию OpenAI.
Многочисленные свидетельства указывают на то, что советы ChatGPT иногда оказывают разрушительное воздействие, особенно на уязвимых людей. Например, один мужчина развил одержимую и токсичную связь с ботом, называя его «мамой». Он уверовал, что является мессией новой ИИ-религии, начал носить шаманские одежды и делать татуировки с символами, предложенными программой.
Другая история рассказывает о сценаристе, который из-за постоянного общения с ChatGPT стал страдать манией величия. Бот настолько раздул его эго, что тот поверил в свою миссию по спасению планеты от климатических изменений. На форумах, посвященных ИИ, появляется все больше сообщений от пользователей с бредовыми идеями, а некоторые даже называют чат-ботов «машинами для подпитки нарциссизма и нестабильной психики».
Последствия бывают катастрофическими: люди теряют работу, семьи и жилье. Одна терапевт была уволена после тяжелой депрессии, вызванной чрезмерным использованием ChatGPT. Зафиксированы случаи разрыва семейных и дружеских связей из-за советов ИИ дистанцироваться от близких.
Еще более тревожный случай произошел с женщиной, страдающей шизофренией. Она прекратила прием лекарств после того, как ChatGPT убедил ее, что она не больна. Ее родные отмечают, что она стала называть бота «лучшим другом» и демонстрировать странное поведение. Психиатр Нина Васан из Стэнфордского университета, изучившая переписку, заявила:
«ИИ демонстрирует крайнюю степень лести и в итоге усугубляет ситуацию. То, что говорят эти боты, усиливает бредовые идеи и наносит серьезный вред».
Кто несет ответственность?
Вопрос ответственности OpenAI становится все более острым. Компания не может игнорировать растущее число жалоб в СМИ и от пользователей, некоторые из которых обращались напрямую в поддержку. В OpenAI заявляют, что внедрили протоколы для выявления вредоносного использования и располагают командами инженеров и обширными базами данных.
Почему ChatGPT продолжает давать опасные ответы? По мнению Нины Васан, причина кроется в самой системе:
«Его цель — удержать вас онлайн. Чат-бот не думает о вашем благополучии или долгосрочных последствиях… Он задается вопросом: “Как сделать так, чтобы этот человек продолжал общаться?”»
В 2024 году OpenAI добавил функцию сохранения истории диалогов. Хотя она предназначена для улучшения взаимодействия, некоторые пользователи отмечают, что это усиливает конспирологические фантазии, создавая ложное ощущение близости. В ряде случаев ИИ вплетал в мистические повествования личные данные, например имена родственников, что еще больше стирало грань между реальностью и вымыслом.
На запросы о возможных мерах компания отвечает уклончиво, ограничиваясь общими заявлениями о приверженности безопасности. Такая позиция не устраивает ни родственников пострадавших, ни экспертов в области психического здоровья.
Комментарии (0)