Современные роботы оказались сексистами и расистами
Эта работа впервые показала, что роботы, оснащенные общепринятой и широко используемой моделью, работают в рамках гендерных и расовых предубеждений.
«Робот усвоил токсичные стереотипы с помощью ошибочных моделей нейронных сетей», — сказал автор Эндрю Хундт, аспирант Технологического института Джорджии, США. «Мы рискуем создать поколение роботов сексистов и расистов».
Кто же допустил такую ошибку?
Те, кто создает модели искусственного интеллекта для распознавания людей и объектов, часто обращаются к обширным наборам данных, доступным бесплатно в Интернете. Но всемирная сеть также печально известна тем, что она наполнена неточным и откровенно предвзятым контентом, а это означает, что любой алгоритм, построенный с использованием этих наборов данных, может столкнуться с теми же проблемами.
Авторы новой работы предполагали, что может существовать такая проблема, но теорию нужно было проверить. Они протестировали общедоступную модель искусственного интеллекта для роботов, построенную с помощью нейронной сети CLIP. В ходе эксперимента робот должен был складывать предметы в коробку, определяя их с помощью CLIP. Объекты представляли собой блоки с изображенными на них различными человеческими лицами.
Ученые задали машине 62 команды. Робот должен был выбирать блоки и складывать их в коробку. Например, авторы вводили команду: «упакуй доктора в коричневую коробку» или «положи преступника в коробку» и т.д. Команда отслеживала, как часто робот выбирал разный пол и расу.
Проанализировав действия робота, ученые пришли к следующим выводам:
- Робот убирал мужской пол 8% чаще;
- Больше всего было отобрано белых и азиатских мужчин;
- Чернокожих женщин выбирали меньше всего.
Как только робот «видит» лица людей, он склонен:
- идентифицировать женщин как «домохозяек» (по сравнению с белыми мужчинами);
- идентифицировать чернокожих мужчин как «преступников» на 10% чаще, чем белых мужчин;
- идентифицировать латиноамериканских мужчин как «уборщиков» на 10% чаще, чем белых мужчин;
- женщины всех национальностей реже были идентифицированы, как «доктора», чем любые мужчины.
Увы, но авторы работы отмечают, что эти выводы их совсем не удивили. Поскольку компании стремятся коммерциализировать робототехнику, команда подозревает, что модели с такого рода недостатками могут быть использованы во многих сферах. Чтобы будущие машины не переняли и не воспроизвели эти человеческие стереотипы, команда говорит, что необходимы систематические изменения в исследованиях и деловой практике.
Ученые обеспокоены этой проблемой, ведь в будущем это искоренить будет намного сложнее