В Нью-Йорке программы с искусственным интеллектом будут проверять на расизм и сексизм
Новый закон Нью-Йорка вступит в силу 12 июля и станет первым официальным документом, регулирующим ИИ. Согласно ему, программное обеспечение, использующее машинное обучение для отбора сотрудников, обязательно должно пройти проверку. Ее будет проводить сторонняя компания, которая и решит, свободно ли ПО от расистских или сексистских предубеждений. Результаты должны публиковать, а программы, не прошедшие проверку, станут незаконными.
Компании стали получать слишком большое количество заявок и автоматизировали процесс найма. Сейчас в США инструменты, которые оценивают кандидатов автоматически, без участия HR-менеджера, стали просто необходимы.
«В век Интернета найти работу намного проще. Появились и инструменты, облегчающие этот процесс. Например, работники публикуют резюме и используют автоматическую рассылку сразу на 400 вакансий. В итоге компании получают много заявок и выбрать нужного кандидата помогают алгоритмы ИИ», — говорит Кэти О'Нил, директор фирмы, проводящей аудиты.
Нейросети и закон
Чем популярнее становятся такие нейросети, как ChatGPT и Midjourney, тем чаще американские чиновники и руководители технологических компаний призывают контролировать действия ИИ. Но пока мало кто представляет, как можно это делать с помощью закона.
Эксперты говорят, что даже в Нью-Йоркском постановлении всё ещё есть недоработки. При этом программы, использующие машинное обучение, часто «нетолерантны». Дело в том, что информация, поступающая к ИИ, часто даже не фильтруется на наличие расизма, сексизма или шовинизма.
Джулия Стоянович, профессор компьютерных наук в Нью-Йоркском университете сказала, что в законе не рассматривается дискриминация по возрасту или инвалидности. Как документ с такими выборочными критериями будет работать и получат ли сотрудники пользу от него, мир узнает в среду.