В частности, качество распознавания зависит и от того, какой именно человек оказался перед системами машинного зрения. В исследовании Королевского колледжа в Лондоне (его результаты опубликованы на сайте вуза) ученые протестировали 8 серийных систем на 8000 фотографий. Обнаружилось, что:
Беспилотные автомобили дискриминируют детей и чернокожих, обнаружили исследователи

- точность распознавания изображений детей была на 20% ниже,
- пешеходов с темной кожей системы в среднем распознавали на 7,5% хуже, чем со светлой.
Причем в темное время суток разница увеличивалась.
Ранее уже было известно, что подобные недостатки свойственны системам биометрического допуска по лицу – такая работает, например, в метро Москвы, – и системам оценки кандидатов на работу, основанным на технологиях искусственного интеллекта. Все они отдают предпочтение белым людям.
«Тренируйся на черных»
Дискриминация вряд ли является преднамеренной. Настоящая причина кроется в фотобанках, которые разработчики систем распознавания пешеходов используют для тренировки нейросетей – в них, как правило представлены по большей части фотографии взрослых людей европеоидного типа.

Искусственный интеллект все больше проникает в нашу обычную жизнь, поэтому вопрос социального равенства в технологиях будет становиться все острее, считает ведущий автор исследования, доктор Дзи Джанг, профессор факультета информатики колледжа.
К сожалению, ученые не имеют доступа к информации о том, как на самом деле разработчики систем искусственного интеллекта тестируют свои продукты. Чтобы исправить проблему, власти должны изменить техническое регулирование, добавив требование, чтобы компании были более открытыми и учитывали вопросы социальной справедливости, заключает он.