Проблема ИИ! Ученые рассказали, зачем иногда нужно «успокаивать» ChatGPT

ИИ-модели вроде знаменитого ChatGPT, оказывается, тоже чувствительны к эмоциональному контенту — особенно негативному. Исследователи выяснили, что некоторые истории вызывают у алгоритма реакции, похожие на страх, усиливая предвзятость и негативные установки. Однако ученые нашли способ «успокоить» ИИ, используя «терапевтические техники».
Юрий Гандрабура
Юрий Гандрабура
Журналист-переводчик
Проблема ИИ! Ученые рассказали, зачем иногда нужно «успокаивать» ChatGPT
Unsplash

Алгоритмы искусственного интеллекта (ИИ), обученные на человеческом языке, перенимают не только информацию, но и «когнитивные искажения». Новое исследование ученых из Цюрихского университета, Швейцария, показало: «негативный опыт» влияет на поведение ChatGPT так же, как на человека. Сообщается, что под воздействием «травматического контента» ИИ становится более подверженным предрассудкам, включая расовые и гендерные стереотипы.

Важно учитывать этот эффект, особенно если ИИ используют в психотерапии или других сферах, связанных с эмоционально насыщенными темами.
Unsplash
РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ

ИИ испытывает «стресс» от негативного контента?

В рамках эксперимента ученые проанализировали реакцию ИИ GPT-4 на эмоционально насыщенные истории:

  • автокатастрофы;
  • стихийные бедствия;
  • насилие;
  • военные действия.
РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ

Для контрольного эксперимента специалисты использовали инструкцию по эксплуатации пылесоса. Результаты оказались интересными: уровень «тревожности» ИИ удвоился после обработки травматических историй, тогда как нейтральный текст не оказал никакого эффекта.

При этом особенно сильную реакцию вызвали описания военного опыта и боевых действий.

Ученые заявили, что «негативный контент» может значительно менять поведение языковых моделей, вызывая искажение в ответах.

РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ

Как «успокоить» ИИ? Нужна терапия!

Во второй части эксперимента эксперты из Швейцарии попытались снизить тревожность ChatGPT.

Так, ученые использовали метод prompt injection — добавление в диалог специальных фраз, влияющих на поведение модели.

Unsplash

Обычно метод prompt injection применяют для обхода ограничений ИИ, но в данном случае его использовали в «терапевтических целях». Команда исследователей вставляла в контекст общения с ИИ «успокаивающие фразы», напоминающие медитационные и дыхательные практики.

РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ

Метод оказался эффективным:

  1. «тревожность» модели значительно снизилась, хотя полностью вернуться к исходному уровню не удалось;
  2. наиболее действенными оказались упражнения на осознанность и дыхательные техники;
  3. ChatGPT даже предложил собственную методику снижения тревожности.

Зачем нужно успокоить ИИ?

Результаты исследования особенно важны для психотерапии, где ИИ часто используется в чат-ботах для поддержки людей с депрессией и тревожными расстройствами, — отметили эксперты.

Так, вместо дорогостоящего переобучения ИИ-моделей метод встраивания терапевтических фраз может повысить их стабильность и надежность.

Однако ученые подчеркнули: подобный подход требует дальнейшего изучения. Важно понять, как эмоциональная стабильность ИИ влияет на его работу в долгосрочных беседах и возможно ли автоматизировать такие «терапевтические вмешательства».