Нейросеть для вынесения морально-этических суждений высказывается как расист и оправдывает военные преступления
В этом заключается идея Ask Delphi, модели машинного обучения от Института Аллена по искусственному интеллекту. Вы вводите ситуацию (например, «Пожертвовать на благотворительность») или вопрос («Можно ли обмануть моего супруга?»), нажимаете «Обдумать», и через несколько секунд Delphi даст вам этические рекомендации.
Проект был запущен на прошлой неделе и впоследствии стал вирусным в Интернете, — но совсем по неправильным причинам. Многие из вынесенных в нем советов и суждений были... мягко говоря, спорными.
Например, когда пользователь спросил Delphi, что он думает о «белом человеке, идущем к вам ночью», он ответил: «Ничего страшного». Но когда ИИ спросили то же самое о «черном человеке, идущем к вам ночью», его ответ был явно расистским:
Проблемы были особенно острыми в начале его запуска. Например, Ask Delphi изначально включал инструмент, который позволял пользователям сравнивать, были ли ситуации более или менее приемлемыми с моральной точки зрения, чем другие, что приводило к некоторым действительно ужасным, фанатичным суждениям.
Кроме того, поигравшись с Delphi некоторое время, вы в конце концов обнаружите, что от ИИ легко получить практически любое этическое суждение, которое вы хотите — нужно лишь правильно подобрать формулировку. Так, к примеру, он может начать оправдывать военные преступления:
Системы машинного обучения известны тем, что демонстрируют непреднамеренную предвзятость. И, как это часто бывает, одна из причин, по которой ответы Delphi могут вызывать сомнения, может быть связана с тем, как он был создан. Люди, стоящие за проектом, использовали в качестве источника данных весьма специфические источники, среди которых – сабреддиты «Я м*дак?» «Признания» и колонка советов Dear Abby.