ИИ распознает ложь лучше человека. Но стоит ли нам использовать такой детектор лжи
Ученые из Вюрцбургского университета в Германии Алисия фон Шенк и ее коллеги разработали ИИ-модель, которая значительно лучше людей обнаруживает ложь. Работа опубликована в журнале iScience.
Ученые попросили добровольцев написать о своих планах на выходные. В половине случаев у людей был стимул лгать: неправдивый рассказ вознаграждался небольшой суммой денег, если он выглядел достаточно правдоподобно. Все участники справились с заданием. Всего команда собрала 768 истинных и 768 ложных рассказов от 768 человек.
Затем ученые использовали 80% этих рассказов для обучения алгоритма выявления лжи и правды, используя языковую модель искусственного интеллекта Google BERT. Когда ученые протестировали модель на оставшихся 20% рассказов, они обнаружили, что модель может успешно определить, было утверждение истинным или ложным в 67% случаев. Это значительно лучше, чем у типичного человека, который правильно определяет ложь и истину только в половине случаев.
Детектор лжи
Чтобы выяснить, как люди могли бы использовать ИИ-модель для выявления лжи, фон Шенк и ее коллеги набрали 2040 других добровольцев и провели серию тестов. Добровольцы из этой группы читали рассказы, написанные первой группой, и определяли истина это или ложь.
Один тест показал, что, когда людям предоставляется возможность заплатить небольшую сумму за использование инструмента искусственного интеллекта, который может помочь им обнаружить ложь и получить за финансовое вознаграждение за правильное распознавание лжи, далеко не все прибегли к помощи ИИ. Только треть добровольцев, которым была предоставлена такая возможность, решили использовать инструмент искусственного интеллекта, возможно, потому, что они скептически относятся к этой технологии, говорит фон Шенк. «Или они чрезмерно оптимистичны в отношении своих собственных навыков обнаружения лжи», — добавляет она.
Но эта треть добровольцев действительно доверяет ИИ. «Когда человек делает активный выбор в пользу технологии, мы видим, что он в дальнейшем почти всегда следует предсказаниям ИИ. Он во многом полагается на его прогнозы», — говорит фон Шенк.
Эта уверенность может формировать наше поведение. Обычно люди склонны предполагать, что другие говорят правду. Это подтвердилось и в данном исследовании: хотя добровольцы знали, что половина утверждений была ложью, они отметили как таковые только 19% из них. Но ситуация изменилась, когда люди решили использовать инструмент искусственного интеллекта: уровень обвинений во лжи вырос до 58%, то есть среди них были заведомо ложные обвинения.
В каком-то смысле хорошо, что эти инструменты помогают обнаружить больше ложных высказываний, с которыми мы сталкиваемся в нашей жизни, например, дезинформацию в социальных сетях.
Но есть и плохая новость. Такое отношение может подорвать интуитивное доверие — фундаментальный аспект человеческого поведения, который помогает нам формировать отношения друг с другом. Если цена точных суждений — ухудшение социальных связей, стоит ли оно того? Да и настолько ли нам важно, что наш хороший знакомый, сказавший, что в выходные идет в оперный театр, на самом деле собирается на пляж, чтобы испортить с ним отношения?
Вопрос точности
В своем исследовании фон Шенк и ее коллеги были заинтересованы только в создании инструмента, который бы лучше, чем люди, обнаруживал ложь. Это не так уж и сложно, учитывая, насколько плохо мы в этом разбираемся. Но фон Шенк также опасается, что этот или подобный инструмент, может использоваться, например, для регулярного поиска фейковых деталей в резюме соискателя работы или при анализе ответов на собеседовании. В подобных случаях технология должна быть не просто «лучше человека», вообще-то она должна быть практически безошибочной.
Готовы ли мы принять уровень точности в 80%, при котором только четыре из каждых пяти оцененных утверждений будут правильно интерпретированы как истинные или ложные? Хватит ли даже 99% точности? Уверенности в этом нет.
Цифровой «полиграф»
Полиграф был разработан для измерения частоты сердечных сокращений и других признаков «возбуждения», поскольку считалось, что некоторые признаки стресса присущи только лжецам. Но ведь это не так. И мы давно это знаем. Поэтому результаты, полученные на детекторе лжи, обычно не принимаются в судах США. Несмотря на это, в некоторых странах проверки на полиграфе сохранились и принесли много вреда, когда их использовали для обвинений в адрес людей, которые такую проверку не прошли.
Несовершенные инструменты ИИ могут принести еще больше вреда, потому что их очень легко масштабировать, говорит фон Шенк. За день на полиграфе можно проверить всего несколько человек. По сравнению с этим возможности обнаружения лжи с помощью ИИ практически безграничны и количество «ложных» срабатываний будет огромным.
«Учитывая, что у нас так много фейковых новостей и дезинформации, в этих технологиях есть польза», — говорит фон Шенк. — «Однако необходимо как следует протестировать инструменты ИИ, чтобы убедиться, что они существенно лучше людей». Если детектор лжи с искусственным интеллектом генерирует много ложных обвинений, возможно, нам лучше вообще его не использовать, говорит фон Шенк.