Чернокожей девушке запретили посещать каток из-за ошибки системы распознавания лиц
Как сообщает The Verge, девочке-подростку по имени Ламия Робинсон (Lamya Robinson) запретили вход на роликовый каток из-за того, что она ранее участвовала в драке в заведении. Однако девушка впервые пришла на этот каток.
Система распознавания лиц неверно сопоставила ее с другим темнокожим посетителем. Охрана выставила девочку на улицу. Теперь родители Ламии планируют подать в суд на каток, утверждая, что инцидент связан с расизмом.
Ранее ученые обнаружили, что алгоритмы распознавания лиц работают менее точно при различении лиц чернокожих, женщин и детей, что может помочь объяснить ошибку, с которой столкнулась Ламия Робинсон.
Подобный (но более громкий и тревожный) инцидент произошел в январе 2019 года, когда полиция города Вудбридж в США задержала мужчину по имени Ниджер Паркс (Nijeer Parks). Его обвинили в ограблении и нападении при отягчающих обстоятельствах. Оказалось, что Паркс никогда не был в этом городе, а его задержание было основано на данные, предоставленных системой распознавания лиц на основе ИИ.
Исследования давно показали, что системы распознавания лиц на основе ИИ часто ошибаются в определении лиц темнокожих людей