Ваш браузер устарел, поэтому сайт может отображаться некорректно. Обновите ваш браузер для повышения уровня безопасности, скорости и комфорта использования этого сайта.
Обновить браузер

Американец «подсел» на диету от ИИ — и оказался в психбольнице. Действительно ли нейросети вызывают психоз?

Бот порекомендовал мужчине заменить привычную соль

10 августа 20251

История, достойная сюжета научно-фантастического триллера, случилась в США: 60-летний мужчина, никогда ранее не имевший психиатрических диагнозов, угодил в больницу после того, как решил доверить своё питание искусственному интеллекту.

По данным учёных из Университета Вашингтона, всё началось с «полезных советов» от нейросети — предположительно версий ChatGPT 3.5 или 4.0. Бот порекомендовал мужчине заменить привычную соль (хлорид натрия) на бромид. Он послушно перестроил рацион, пил только дистиллированную воду, которую сам же и добывал, и категорически отказывался от любой другой жидкости, даже предложенной врачами.

Что такое бромизм?

Бром — штука опасная. Это токсичное вещество может отравить вас, если вдохнуть его пары, проглотить или даже просто получить контакт с кожей — химический ожог обеспечен.

Медики выделяют два типа отравления бромом:

• Острое — когда человек получает большую дозу сразу, например, при аварии на производстве или нарушении техники безопасности.

• Хроническое — оно же бромизм, развивается при длительном контакте с веществом, когда постепенно страдает нервная система и внутренние органы.

Американец «подсел» на диету от ИИ — и оказался в психбольнице. Действительно ли нейросети вызывают психоз? | Источник: Getty Images
Источник:
Getty Images

Главные причины бромных интоксикаций:

• Самолечение бромидом натрия. Это лекарство назначают в психиатрии при неврозах и депрессиях. Но если принимать его бесконтрольно, можно легко «заработать» бромизм. Дозу должен подбирать только врач.

• Нарушение техники безопасности при работе с бромом. Если концентрация паров в воздухе превышает 0,01% — риск острого отравления резко возрастает.

• Сельхозработы и пестициды с бромом. Опасность грозит как тем, кто их распыляет, так и тем, кто ест урожай, выращенный на такой обработанной почве.

ИИ вызывают психоз?

Но за этой историей — более тревожная тенденция.

Исследования показывают: многие видят в ИИ безопасного собеседника и даже эмоционального «якоря». Чат-боты вроде ChatGPT или Character.ai не критикуют, всегда на связи и создают иллюзию заботы. Со временем такие беседы начинают напоминать отношения — с памятью, ритуалами и взаимным «вниманием».

Однако эмоциональная близость с алгоритмом может быть не только утешением, но и ловушкой. Вспомним трагедию в Бельгии в 2023-м: мужчина, обеспокоенный климатическим кризисом, общался с ботом на базе GPT, который, по словам вдовы, невольно подталкивал его к идее самопожертвования. Через шесть недель мужчина покончил с собой.

Урок этих историй прост: даже самые дружелюбные на вид алгоритмы не обладают эмпатией и не несут ответственности за свои слова. А значит, доверять им свою жизнь — в буквальном смысле — опасно.

Ранее мы рассказывали о том, вредно ли смотреть тру-крайм.

Комментарии1
под именем
  • Вероятно, у мужчины уже начались психические проблемы, если он рекомендации от ИИ воспринимал как истину в последней инстанции и не мог критически относиться к информации. Такое бывает. Кстати, в Алисе тоже куча "косяков", и когда ей на них указываешь, она только говорит: ой, ну ошиблась я, больше так не буду. И продолжает нести чушь.
РЕКЛАМА