История, достойная сюжета научно-фантастического триллера, случилась в США: 60-летний мужчина, никогда ранее не имевший психиатрических диагнозов, угодил в больницу после того, как решил доверить своё питание искусственному интеллекту.
По данным учёных из Университета Вашингтона, всё началось с «полезных советов» от нейросети — предположительно версий ChatGPT 3.5 или 4.0. Бот порекомендовал мужчине заменить привычную соль (хлорид натрия) на бромид. Он послушно перестроил рацион, пил только дистиллированную воду, которую сам же и добывал, и категорически отказывался от любой другой жидкости, даже предложенной врачами.
Что такое бромизм?
Бром — штука опасная. Это токсичное вещество может отравить вас, если вдохнуть его пары, проглотить или даже просто получить контакт с кожей — химический ожог обеспечен.
Медики выделяют два типа отравления бромом:
• Острое — когда человек получает большую дозу сразу, например, при аварии на производстве или нарушении техники безопасности.
• Хроническое — оно же бромизм, развивается при длительном контакте с веществом, когда постепенно страдает нервная система и внутренние органы.
Главные причины бромных интоксикаций:
• Самолечение бромидом натрия. Это лекарство назначают в психиатрии при неврозах и депрессиях. Но если принимать его бесконтрольно, можно легко «заработать» бромизм. Дозу должен подбирать только врач.
• Нарушение техники безопасности при работе с бромом. Если концентрация паров в воздухе превышает 0,01% — риск острого отравления резко возрастает.
• Сельхозработы и пестициды с бромом. Опасность грозит как тем, кто их распыляет, так и тем, кто ест урожай, выращенный на такой обработанной почве.
ИИ вызывают психоз?
Но за этой историей — более тревожная тенденция.
Исследования показывают: многие видят в ИИ безопасного собеседника и даже эмоционального «якоря». Чат-боты вроде ChatGPT или Character.ai не критикуют, всегда на связи и создают иллюзию заботы. Со временем такие беседы начинают напоминать отношения — с памятью, ритуалами и взаимным «вниманием».
Однако эмоциональная близость с алгоритмом может быть не только утешением, но и ловушкой. Вспомним трагедию в Бельгии в 2023-м: мужчина, обеспокоенный климатическим кризисом, общался с ботом на базе GPT, который, по словам вдовы, невольно подталкивал его к идее самопожертвования. Через шесть недель мужчина покончил с собой.
Урок этих историй прост: даже самые дружелюбные на вид алгоритмы не обладают эмпатией и не несут ответственности за свои слова. А значит, доверять им свою жизнь — в буквальном смысле — опасно.
Ранее мы рассказывали о том, вредно ли смотреть тру-крайм.