Ваш браузер устарел, поэтому сайт может отображаться некорректно. Обновите ваш браузер для повышения уровня безопасности, скорости и комфорта использования этого сайта.
Обновить браузер

Россияне идут за поддержкой не к друзьям, а к нейросетям — и вот как это заканчивается (спойлер: плохо)

Люди начали влюбляться в ИИ и советоваться с ним о жизни. Это пугает специалистов

11 мая 20261
Нейросеть как психолог | Источник: нейросети
Источник:

нейросети

Более 60% россиян обращаются за психологической поддержкой к искусственному интеллекту, — говорится в исследовании, проведенном платформой для психологов PsyAi.pro и исследовательским агентством MAGRAM MR.

Действительно, люди (и не только в России) регулярно советуются с нейросетями по поводу отношений, травм, проблем, эмоций, спрашивают совета, просят подсказать психологические техники и упражнения. Нормально ли это, какие есть риски — мы узнали у специалистов, а также попросили рассказать о реальных кейсов, когда ИИ помог или, наоборот, навредил.

У ИИ нет ответственности, но есть инструменты для обучения

Эдуард Холодов, главный врач клиники ментального здоровья «Аксона», психиатр:

Почему я против замены терапевта ботом:

  1. Отсутствие ответственности и контекста. Нейросеть не имеет лицензии, не дает подписки о неразглашении и не несет юридической ответственности за свои советы. Она не видит ваших глаз, не чувствует интонаций, не знает вашей полной истории болезни. А в психиатрии контекст — это всё. То, что помогло одному, может убить другого.

Клинический пример: Пациентка с пограничным расстройством спросила у нейросети, как пережить разрыв. ИИ выдал шаблонный совет «отпустите и займитесь собой». Женщина восприняла это как подтверждение, что ее страдания не важны, и через два дня оказалась в кризисном центре с суицидальными мыслями. Она просто не получила от бота той эмпатии и валидации, в которой отчаянно нуждалась.

  1. Усиление симптомов «эхо-камера». Нейросети обучаются на огромных массивах текстов — включая форумы, где люди с подтвержденными диагнозами делятся советами. Бот может подхватить и бесконечно повторять разрушительные установки.

Например, при расстройстве пищевого поведения нейросеть не остановит пациентку, а на запрос «как голодать безопасно» найдет «научно обоснованные» методы, выдавая их за рекомендации.

  1. Ложное чувство сеанса терапии. Человек начинает верить, что раз он поговорил с ботом, то с ним всё в порядке. Откладывается визит к настоящему специалисту, а болезнь прогрессирует. Особенно это опасно при депрессии и тревожных расстройствах — состояниях, которые имеют свойство скрыто ухудшаться.

Нейросеть как психолог | Источник: нейросети
Источник:

нейросети

Есть ли плюсы?

  • Доступность 24/7. Бот не спит, не устает и всегда ответит на простые вопросы.

  • Снижение порога стеснения. Человеку проще спросить у нейросети о «стыдных» симптомах сексуальные дисфункции, навязчивости, чем у живого доктора.

  • Обучающий инструмент. Нейросеть может напомнить о дыхательной гимнастике, дать ссылку на проверенные техники релаксации или объяснить, что такое когнитивные искажения — в качестве дополнения к основной терапии.

Когда можно использовать ИИ, с оговорками:

  • Для психологического ликбеза: спросить о принципах когнитивно-поведенческой терапии, получить примеры дневника мыслей.

  • Для ведения дневника настроения: некоторые нейросети могут анализировать эмоциональные паттерны, если вы сами предоставляете данные (но без постановки диагноза).

  • Как «третий голос» при легкой тревоге: например, бот напоминает сделать дыхательное упражнение, когда вы запланировали сессию релаксации.

Кейсы из практики

Негативный кейс

Молодой человек с ипохондрией постоянно спрашивал у нейросети, не болен ли он шизофренией. Бот отвечал: «Некоторые ваши симптомы совпадают с описанием. Пожалуйста, обратитесь к врачу». Пациент воспринял это как подтверждение болезни и впал в тяжелую тревогу. Настоящий диагноз — тревожное расстройство, которое успешно пролечилось за 6 сеансов КПТ. Но из-за «консультаций» с нейросетью полгода было потеряно.

Нейтральный кейс 2

Женщина с легкой бессонницей использовала голосового ассистента для вечерних сеансов прогрессивной мышечной релаксации. Бот зачитывал текст упражнений, а пациентка выполняла. Это помогло снизить тревогу, и через месяц сон нормализовался без лекарств. Но здесь важно: женщина не имела клинического диагноза и просто искала вспомогательную технику.

Инструктивный кейс 3

Подросток с социальной тревожностью спросил у нейросети, как ему заговорить с одноклассниками. Бот выдал серию скриптов и совет «просто будь собой». Подросток попробовал, получил отказ и еще сильнее замкнулся. Визит к психотерапевту показал, что за тревогой стояло длительное буллинг-травма. Потребовалась не «болтовня» с ботом, а проработка посттравматического расстройства. Нейросеть тут была бесполезна и даже вредна.

Нейросеть как психолог | Источник: нейросети
Источник:

нейросети

Еще немного кейсов от Ирины Хинко, практикующего психолога:

Кейс 1. Помощь при агорафобии

Клиентка С., 34 года, боялась выходить в магазин. Психолог дал ей задание: «спроси у нейросети, какие три маленьких шага можно сделать для выхода на балкон». Нейросеть расписала от «открыть дверь на 5 см и посмотреть» до «выйти на балкон в носках и постоять 10 секунд». ИИ выступил как безоценочный коуч, потому что живой психолог вызывал у нее стыд. Работало.

Кейс 2. Ретравматизация

Мужчина рассказал нейросети о насилии в детстве. Попросил «объясни, почему родители так поступили». ИИ выдал нейтрально-списочные причины: «возможно, они сами росли в насилии, у них не было ресурсов». Человек прочитал это как оправдание родителей, почувствовал вину, вернулся в депрессию. Нейросеть не имела права давать каузальные объяснения травме — это работают только с живым лицом и слезами.

Кейс 3. Диагностическая ошибка

Девушка 19 лет описала боту голоса в голове (комментирующие, не приказывающие). Нейросеть сказала: «это твой внутренний критик, пройди техники КПТ». Через месяц — психоз, госпитализация. Голоса не были внутренним критиком. Это была продромальная стадия шизофрении. Живой психиатр уловил бы это по интонации и невербалке даже в онлайне. Нейросеть — нет.

Пожалуйста, если бот сказал вам что-то, после чего вам стало резко хуже, — не идите ругаться с ним. Идите к живому специалисту.

Еще немного плюсов и минусов

Ксения Солопанова, практикующий клинический психолог, автор и ведущая тренингов:

Представьте, что у вас болит зуб. Вы же не пойдете лечить его, прочитав статью в интернете о симптомах, а обратитесь к стоматологу. Так и с психологическими проблемами: если речь идет о чем-то глубоком (травме, депрессии, сложностях в отношениях), только живой специалист способен провести диагностику, установить контакт и предложить индивидуальный, а главное, безопасный план коррекции.

Нейросеть как психолог | Источник: Stock-Asso/Shutterstock/Fotodom.ru
Источник:
Stock-Asso/Shutterstock/Fotodom.ru

Нейросеть же может дать универсальный совет, который в вашей конкретной ситуации окажется не только бесполезным, но и вредным. Например, совет «просто перестать тревожиться» звучит абсурдно для человека, который испытывает панические атаки.

Нейросети могут выступать как вспомогательный инструмент. Например, они могут помочь сформулировать запрос к психологу, если человек не знает, с чего начать. Или предоставить информацию о различных психологических направлениях, чтобы человек мог лучше сориентироваться, к какому специалисту ему обратиться. В формате информационной поддержки нейросети вполне уместны.

Нейросеть как коуч и замена друзьям

Анатолий Яско, специалист по работе с изменами:

Есть класс запросов, которые по своей природе ближе к коучингу, чем к психотерапии: как выстроить границы в разговоре с коллегой, как вежливо отказать, как структурировать мысли перед сложным разговором, как разобраться в своих целях. 
То есть когда работает логика. Тут ИИ может дать полезный совет, задать правильные вопросы, предложить вариант решения.
Но опять же, не слепо доверять всему что тебе выдается в ответ, а подключать критическое мышление.


Однако нейросеть никак не может помочь с психотравмой. Травма находится в теле, в нервной системе, в автоматических реакциях. Если женщине изменил муж, она может часами разговаривать с ИИ, получать ответы про принятие и личные границы — и при этом продолжать просыпаться в три ночи в тревоге и прокручивать одни и те же мысли и образы по кругу. Негатив нужно перерабатывать через специальные методы, например EMDR.

То же касается фобий, панических расстройств, последствий насилия, тяжелых утрат. ИИ в этих случаях не просто бесполезен — он может быть вреден. Создается иллюзия работы с проблемой, человек откладывает поход к специалисту, а состояние цементируется и становится хроническим.


Ольга Иванова, пресс-секретарь Независимого профсоюза «Новый Труд»:

Мы все чаще выбираем ИИ вместо реального друга, предпочитаем «поплакаться на жизнь» ему, а не близкому человеку. В итоге друзей становится все меньше, и человек оказывается в эмоциональной изоляции, которую сам же и создал. Исследования уже фиксируют: у тех, кто проводит с ИИ-компаньонами более трех часов в день, резко снижается терпимость к несовершенству людей — живой друг может устать, забыть, перебить, а ИИ никогда. Это формирует ложное чувство абсолютной правоты и комфорта, разрушающее настоящие отношения.

Источник: cybermagician/Shutterstock/Fotodom.ru
Источник:
cybermagician/Shutterstock/Fotodom.ru

Есть риски и по любовной линии. Это уже не шутка, а замена душевной близости с партнером. Вспомните песню «Я выйду замуж за ChatGPT» — сегодня это почти клинический случай дефицита привязанности. ИИ создает иллюзию идеального партнера, который всегда доступен, но духовная близость в такой связке невозможна по определению.

Однако плюсы тоже существуют. ИИ становится настоящим спасением для физически больных, пожилых людей — зачастую одиноких людей. Он порой выручает, давая действительно дельные советы — например, помогает структурировать хаотичные мысли в трудную минуту. Для критически мыслящего человека это возможность выйти из ступора и начать действовать, используя чат-бота как инструмент, а не как заменителя живого тепла. Главное правило здесь простое: ИИ может быть полезным помощником, но не должен становиться единственным советчиком.


Специалисты сходятся в главном: ИИ не умеет диагностировать психические расстройства, не считывает интонации, невербальные сигналы и не несет ответственности за последствия своих советов. Там, где речь идет о травмах, депрессии, психозе, зависимостях или тяжелой тревоге, нейросеть может не просто ошибиться, а усилить проблему и отложить получение реальной помощи. Поэтому сегодня ИИ — скорее вспомогательный инструмент, но не замена психологу или психиатру.

Комментарии1
под именем
  • Гость
    18:27 11.05.26
    А специалисты не желают стать доступнее или работать по ОМС?
РЕКЛАМА