Более 60% россиян обращаются за психологической поддержкой к искусственному интеллекту, — говорится в исследовании, проведенном платформой для психологов PsyAi.pro и исследовательским агентством MAGRAM MR.
Действительно, люди (и не только в России) регулярно советуются с нейросетями по поводу отношений, травм, проблем, эмоций, спрашивают совета, просят подсказать психологические техники и упражнения. Нормально ли это, какие есть риски — мы узнали у специалистов, а также попросили рассказать о реальных кейсов, когда ИИ помог или, наоборот, навредил.
У ИИ нет ответственности, но есть инструменты для обучения
Эдуард Холодов, главный врач клиники ментального здоровья «Аксона», психиатр:
Почему я против замены терапевта ботом:
Отсутствие ответственности и контекста. Нейросеть не имеет лицензии, не дает подписки о неразглашении и не несет юридической ответственности за свои советы. Она не видит ваших глаз, не чувствует интонаций, не знает вашей полной истории болезни. А в психиатрии контекст — это всё. То, что помогло одному, может убить другого.
Клинический пример: Пациентка с пограничным расстройством спросила у нейросети, как пережить разрыв. ИИ выдал шаблонный совет «отпустите и займитесь собой». Женщина восприняла это как подтверждение, что ее страдания не важны, и через два дня оказалась в кризисном центре с суицидальными мыслями. Она просто не получила от бота той эмпатии и валидации, в которой отчаянно нуждалась.
Усиление симптомов «эхо-камера». Нейросети обучаются на огромных массивах текстов — включая форумы, где люди с подтвержденными диагнозами делятся советами. Бот может подхватить и бесконечно повторять разрушительные установки.
Например, при расстройстве пищевого поведения нейросеть не остановит пациентку, а на запрос «как голодать безопасно» найдет «научно обоснованные» методы, выдавая их за рекомендации.
Ложное чувство сеанса терапии. Человек начинает верить, что раз он поговорил с ботом, то с ним всё в порядке. Откладывается визит к настоящему специалисту, а болезнь прогрессирует. Особенно это опасно при депрессии и тревожных расстройствах — состояниях, которые имеют свойство скрыто ухудшаться.
Есть ли плюсы?
Доступность 24/7. Бот не спит, не устает и всегда ответит на простые вопросы.
Снижение порога стеснения. Человеку проще спросить у нейросети о «стыдных» симптомах сексуальные дисфункции, навязчивости, чем у живого доктора.
Обучающий инструмент. Нейросеть может напомнить о дыхательной гимнастике, дать ссылку на проверенные техники релаксации или объяснить, что такое когнитивные искажения — в качестве дополнения к основной терапии.
Когда можно использовать ИИ, с оговорками:
Для психологического ликбеза: спросить о принципах когнитивно-поведенческой терапии, получить примеры дневника мыслей.
Для ведения дневника настроения: некоторые нейросети могут анализировать эмоциональные паттерны, если вы сами предоставляете данные (но без постановки диагноза).
Как «третий голос» при легкой тревоге: например, бот напоминает сделать дыхательное упражнение, когда вы запланировали сессию релаксации.
Кейсы из практики
Негативный кейс
Молодой человек с ипохондрией постоянно спрашивал у нейросети, не болен ли он шизофренией. Бот отвечал: «Некоторые ваши симптомы совпадают с описанием. Пожалуйста, обратитесь к врачу». Пациент воспринял это как подтверждение болезни и впал в тяжелую тревогу. Настоящий диагноз — тревожное расстройство, которое успешно пролечилось за 6 сеансов КПТ. Но из-за «консультаций» с нейросетью полгода было потеряно.
Нейтральный кейс 2
Женщина с легкой бессонницей использовала голосового ассистента для вечерних сеансов прогрессивной мышечной релаксации. Бот зачитывал текст упражнений, а пациентка выполняла. Это помогло снизить тревогу, и через месяц сон нормализовался без лекарств. Но здесь важно: женщина не имела клинического диагноза и просто искала вспомогательную технику.
Инструктивный кейс 3
Подросток с социальной тревожностью спросил у нейросети, как ему заговорить с одноклассниками. Бот выдал серию скриптов и совет «просто будь собой». Подросток попробовал, получил отказ и еще сильнее замкнулся. Визит к психотерапевту показал, что за тревогой стояло длительное буллинг-травма. Потребовалась не «болтовня» с ботом, а проработка посттравматического расстройства. Нейросеть тут была бесполезна и даже вредна.
Еще немного кейсов от Ирины Хинко, практикующего психолога:
Кейс 1. Помощь при агорафобии
Клиентка С., 34 года, боялась выходить в магазин. Психолог дал ей задание: «спроси у нейросети, какие три маленьких шага можно сделать для выхода на балкон». Нейросеть расписала от «открыть дверь на 5 см и посмотреть» до «выйти на балкон в носках и постоять 10 секунд». ИИ выступил как безоценочный коуч, потому что живой психолог вызывал у нее стыд. Работало.
Кейс 2. Ретравматизация
Мужчина рассказал нейросети о насилии в детстве. Попросил «объясни, почему родители так поступили». ИИ выдал нейтрально-списочные причины: «возможно, они сами росли в насилии, у них не было ресурсов». Человек прочитал это как оправдание родителей, почувствовал вину, вернулся в депрессию. Нейросеть не имела права давать каузальные объяснения травме — это работают только с живым лицом и слезами.
Кейс 3. Диагностическая ошибка
Девушка 19 лет описала боту голоса в голове (комментирующие, не приказывающие). Нейросеть сказала: «это твой внутренний критик, пройди техники КПТ». Через месяц — психоз, госпитализация. Голоса не были внутренним критиком. Это была продромальная стадия шизофрении. Живой психиатр уловил бы это по интонации и невербалке даже в онлайне. Нейросеть — нет.
Пожалуйста, если бот сказал вам что-то, после чего вам стало резко хуже, — не идите ругаться с ним. Идите к живому специалисту.
Еще немного плюсов и минусов
Ксения Солопанова, практикующий клинический психолог, автор и ведущая тренингов:
Представьте, что у вас болит зуб. Вы же не пойдете лечить его, прочитав статью в интернете о симптомах, а обратитесь к стоматологу. Так и с психологическими проблемами: если речь идет о чем-то глубоком (травме, депрессии, сложностях в отношениях), только живой специалист способен провести диагностику, установить контакт и предложить индивидуальный, а главное, безопасный план коррекции.
Нейросеть же может дать универсальный совет, который в вашей конкретной ситуации окажется не только бесполезным, но и вредным. Например, совет «просто перестать тревожиться» звучит абсурдно для человека, который испытывает панические атаки.
Нейросети могут выступать как вспомогательный инструмент. Например, они могут помочь сформулировать запрос к психологу, если человек не знает, с чего начать. Или предоставить информацию о различных психологических направлениях, чтобы человек мог лучше сориентироваться, к какому специалисту ему обратиться. В формате информационной поддержки нейросети вполне уместны.
Нейросеть как коуч и замена друзьям
Анатолий Яско, специалист по работе с изменами:
Есть класс запросов, которые по своей природе ближе к коучингу, чем к психотерапии: как выстроить границы в разговоре с коллегой, как вежливо отказать, как структурировать мысли перед сложным разговором, как разобраться в своих целях. То есть когда работает логика. Тут ИИ может дать полезный совет, задать правильные вопросы, предложить вариант решения. Но опять же, не слепо доверять всему что тебе выдается в ответ, а подключать критическое мышление.
Однако нейросеть никак не может помочь с психотравмой. Травма находится в теле, в нервной системе, в автоматических реакциях. Если женщине изменил муж, она может часами разговаривать с ИИ, получать ответы про принятие и личные границы — и при этом продолжать просыпаться в три ночи в тревоге и прокручивать одни и те же мысли и образы по кругу. Негатив нужно перерабатывать через специальные методы, например EMDR.
То же касается фобий, панических расстройств, последствий насилия, тяжелых утрат. ИИ в этих случаях не просто бесполезен — он может быть вреден. Создается иллюзия работы с проблемой, человек откладывает поход к специалисту, а состояние цементируется и становится хроническим.
Ольга Иванова, пресс-секретарь Независимого профсоюза «Новый Труд»:
Мы все чаще выбираем ИИ вместо реального друга, предпочитаем «поплакаться на жизнь» ему, а не близкому человеку. В итоге друзей становится все меньше, и человек оказывается в эмоциональной изоляции, которую сам же и создал. Исследования уже фиксируют: у тех, кто проводит с ИИ-компаньонами более трех часов в день, резко снижается терпимость к несовершенству людей — живой друг может устать, забыть, перебить, а ИИ никогда. Это формирует ложное чувство абсолютной правоты и комфорта, разрушающее настоящие отношения.
Есть риски и по любовной линии. Это уже не шутка, а замена душевной близости с партнером. Вспомните песню «Я выйду замуж за ChatGPT» — сегодня это почти клинический случай дефицита привязанности. ИИ создает иллюзию идеального партнера, который всегда доступен, но духовная близость в такой связке невозможна по определению.
Однако плюсы тоже существуют. ИИ становится настоящим спасением для физически больных, пожилых людей — зачастую одиноких людей. Он порой выручает, давая действительно дельные советы — например, помогает структурировать хаотичные мысли в трудную минуту. Для критически мыслящего человека это возможность выйти из ступора и начать действовать, используя чат-бота как инструмент, а не как заменителя живого тепла. Главное правило здесь простое: ИИ может быть полезным помощником, но не должен становиться единственным советчиком.
Специалисты сходятся в главном: ИИ не умеет диагностировать психические расстройства, не считывает интонации, невербальные сигналы и не несет ответственности за последствия своих советов. Там, где речь идет о травмах, депрессии, психозе, зависимостях или тяжелой тревоге, нейросеть может не просто ошибиться, а усилить проблему и отложить получение реальной помощи. Поэтому сегодня ИИ — скорее вспомогательный инструмент, но не замена психологу или психиатру.
