ИИ думает как человек, повторяя наши предвзятости и ошибки

Исследователи показали, что ChatGPT от OpenAI, одна из самых продвинутых и популярных моделей ИИ, в некоторых ситуациях допускает те же ошибки при принятии решений, что и люди.
Владимир Губайловский
Владимир Губайловский
ИИ думает как человек, повторяя наши предвзятости и ошибки
Unsplash
Можем ли мы действительно доверять ИИ? Новое исследование говорит, что не всегда. Если задача трудная, но у нее есть четкий и однозначный ответ, ИИ его найдет лучше, чем человек. А если задача простая, но ответ у нее неопределенный, ИИ будет блуждать и ошибаться, как и мы.

Исследователи показали, что ChatGPT от OpenAI, одна из самых продвинутых и популярных моделей ИИ, в некоторых ситуациях допускает те же ошибки при принятии решений, что и люди, проявляя предубеждения. Работа опубликована в журнале Manufacturing & Service Operations Management.

РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ

Исследование показывает, что ChatGPT не просто обрабатывает цифры, он «думает», способами пугающе похожими на человеческие, включая ментальные сокращения и слепые зоны. Эти предубеждения остаются довольно стабильными в различных деловых ситуациях, но могут меняться по мере развития ИИ от одной версии к другой.

ИИ: умный помощник с человеческими недостатками

Unsplash
РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ
РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ

В исследовании ChatGPT прошел 18 различных тестов на предвзятость. «Поскольку ИИ учится на человеческих данных, он может также мыслить как человек — со всеми предубеждениями», — говорит Ян Чэнь, соавтор работы. — «Наше исследование показывает, что когда ИИ используется для принятия решений, он иногда использует те же самые ментальные сокращения, что и люди». Исследование показало следующие особенности и способности ChatGPT.

ИИ хорош в математике, но испытывает трудности с принятием решений. Он преуспевает в логических и вероятностных задачах, но спотыкается, когда решения требуют субъективного обоснования.

Unsplash
РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ

ИИ предпочитает играть наверняка и избегает риска, даже если более рискованный выбор может дать лучшие результаты. ИИ склонен себя переоценивать и предполагает, что он более точен, чем есть на самом деле. ИИ предпочитает искать подтверждение, а не опровергать пользователя. ИИ избегает двусмысленности и предпочитает альтернативы с четко определенной информацией.

«Когда решение имеет четкий правильный ответ, ИИ попадает в точку — он лучше находит правильную формулу, чем большинство людей», — говорит Антон Овчинников из Университета Квинс. — «Но когда речь идет о неопределенном суждении, ИИ может попасть в те же когнитивные ловушки, что и люди».

Авторы исследования рекомендуют проводить регулярные проверки решений, принимаемых ИИ, и совершенствовать системы ИИ для снижения предвзятости. С ростом влияния ИИ ключевым моментом станет обеспечение того, чтобы он улучшал процесс принятия решений, а не просто копировал человеческие ошибки.