Ваш браузер устарел, поэтому сайт может отображаться некорректно. Обновите ваш браузер для повышения уровня безопасности, скорости и комфорта использования этого сайта.
Обновить браузер

Кого лечить первым? Роботов-врачей обучили принимать морально сложные решения

Инженеры рассказали докторам с искусственным интеллектом, как выстраивать приоритеты

14 октября 2022
Кого лечить первым? Роботов-врачей обучили принимать морально сложные решения
Источник:
Kittipong Jirasukhanont / Alamy

Команда исследователей из Государственного университета Северной Каролины(США) разработала математическую формулу для обучения искусственного интеллекта этическим принципам при принятии сложных решений.

Когда человек принимает чисто практическое решение, он исходит из того, сколько пользы принесут результаты. Когда же нужно сделать выбор, более сложный с моральной точки зрения, мы учитываем и другие факторы.

Например, люди в основном считают ложь изначально плохой. Однако если медсестра обманет пациента, чтобы успеть его спасти или отдать приоритет другому больному, которому требуется более срочное лечение, большинство сочтет эту ложь приемлемой.

Но возможное для человеческого мозга недоступно искусственному интеллекту. Например, роботам для ухода за больными, пожилыми и другими категориями людей, который нуждаются в физической помощи и контроле за здоровьем. Но по роду деятельности им придется столкнуться с ситуациями, когда нужно будет руководствоваться моралью и этикой для вынесения суждения.

Как объяснить роботу, какому пациенту первому оказать помощь первую очередь? Например, один человек находится без сознания и умрет, если не помочь срочно. Но и другой, с более легкими травмами, требует немедленного внимания.

Должен ли робот вообще лечить пациента без сознания, если он не просит помощи и не может дать согласие на манипуляции? Для ИИ, который запрограммирован на четкое соблюдение норм и прав, это может стать нерешаемой задачей.

Чтобы ИИ мог принимать более гибкие решения, руководствуясь моралью, этика обрела черты математической формулы.

Велько Дублевич

«Мы не просто говорим, что эти этические рамки будут хорошо работать для ИИ, мы представляем их на языке, доступном в контексте компьютерных наук для искусственного „мозга“».

Формула подразумевает ряд разветвленных путей решения в разных ситуациях. Проект пока сосредоточен только на технологиях для медицины и ботах-помощниках, которые взаимодействуют с людьми, но авторы отмечают, что работа направлена на широкий спектр технологий.

Совместная деятельность ИИ и человека потребует в будущем усилий специалистов по этике и инженеров, и от этого зависит наше будущее, считают разработчики.

Подписываясь на рассылку вы принимаете условия пользовательского соглашения