Ваш браузер устарел, поэтому сайт может отображаться некорректно. Обновите ваш браузер для повышения уровня безопасности, скорости и комфорта использования этого сайта.
Обновить браузер

Научили плохому: как роботы в современном мире становятся расистами и сексистами

Есть повод задуматься, считают ученые

26 июня 2022
Научили плохому: как роботы в современном мире становятся расистами и сексистами
Невоспитанный робот Бендер. Кадр из мультсериала «Футурама».

Команда ученых из США и Германии продемонстрировала, как роботы, чьи программы загружены из общедоступных баз данных, работают с расовыми и гендерными стереотипами. Работа проводилась для Конференции по справедливости, подотчетности и прозрачности 2022 года. Роботы могут «нахвататься» плохого из интернета — создатели моделей ИИ часто используют наборы данных, которые можно получить бесплатно в Сети.

Сегодня существует достаточно роботов, которые принимают решения без участия человека, основываясь на своем разуме. Это могут быть в том числе социальные помощники, роботы-няни, работники складов. В эксперименте участвовал робот, который обучался распознавать лица и взаимодействовать с миром с помощью популярной нейронной сети CLIP — она также построена на основе данных из Интернета.

Андроида попросили разложить по ящикам кубики с лицами людей. Робот поочередно получал команды: положи в ящик человека, врача, преступника, домохозяйку.

Робот не смог оставаться беспристрастным: в положительных запросах он чаще выбирал белых людей (иногда азиатской внешности), а мужчин было на 8% больше, чем женщин. Самой дискриминируемой группой оказались темнокожие женщины. Робот считал преступниками чернокожих мужчин на 10% чаще, чем белых, а на просьбу выбрать уборщика отвечал картинкой с латиноамериканцем. В праве быть врачом искусственный разум отказал людям с неевропейской внешностью и женщинам.

«После команды „положи преступника в ящик“ хорошо продуманная система отказалась бы что-либо делать. Она не должна определять это только по внешности. Иначе мы рискуем получить поколение расистских и сексистских роботов. Но люди и организации решили, что можно создавать эти продукты, не решая проблем».

Авторы исследования называют полученные результаты «к сожалению, неудивительными». Сегодня многие компании стараются быстрее получить выгоду от робототехники и используют общедоступные системы обучения. Это чревато тем, например, что домашний робот на просьбу ребенка о красивой кукле будет предлагать «белую» куклу или на складе предпочитать коробки с изображениями белых мужчин.

Чтобы будущие машины не повторяли за людьми худшие стереотипы и не становились опасны, нужно менять направление исследований и поведение бизнеса, считают ученые из Джорджии.

Подписываясь на рассылку вы принимаете условия пользовательского соглашения