В большую языковую модель добавили «систему самоанализа»

Группа исследователей ИИ из китайской технологической компании Baidu Inc. предложила новую структуру проверки правильности ответов, разработанную для повышения надежности LLM (больших языковых моделей).
В большую языковую модель добавили «систему самоанализа»
Процесс самоанализа. DALLE-3
Время, когда мы просто радовались складной речи ИИ уже прошло. Теперь мы хотим от него реальной помощи. Но мы пока не можем ему доверять из-за его галлюцинаций, когда он на ходу придумывает несуществующие ответы. Поэтому увеличение надежности ИИ так важно.

За последние два года LLM (большие языковые модели), такие как ChatGPT, стали применяться очень широко. Пользователи используют их возможности для написания документов, создания изображений или сочинения музыки.

РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ

Но остается одна очевидная слабость LLM — их неспособность проверять собственные результаты, чтобы убедиться, что они не представляют пользователям «галлюцинации», то есть не имеют смысла. Эта слабость не позволяет использовать ИИ для действительно важных приложений, которые полагаются на целостность данных и чье применение критично к ошибкам.

В этой новой работе команда Baidu придумала стратегию, направленную на то, чтобы заставить LLM проверять свою работу перед тем, как предоставить результаты конечным пользователям. Работа размещена на сайте препринтов arXiv.

Самоанализ ИИ

Иллюстрация схемы SELF-REASONING для улучшения RALMs (Языковые модели с расширенными возможностями поиска). Вверху — базовые LLM, которые отвечают на вопрос с помощью собственных знаний. В середине — стандартные LM с расширенным поиском (RALMs), которые используют найденные документы, чтобы помочь ответить на вопрос. Внизу — фреймворк SELF-REASONING, который использует самогенерируемые траектории рассуждений для вывода ответов.
Иллюстрация схемы SELF-REASONING для улучшения RALMs (Языковые модели с расширенными возможностями поиска). Вверху — базовые LLM, которые отвечают на вопрос с помощью собственных знаний. В середине — стандартные LM с расширенным поиском (RALMs), которые используют найденные документы, чтобы помочь ответить на вопрос. Внизу — фреймворк SELF-REASONING, который использует самогенерируемые траектории рассуждений для вывода ответов.
arXiv (2024). DOI: 10.48550/arxiv.2407.19813
РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ
РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ

Новый подход заключается в добавлении трехэтапного процесса в движок LLM непосредственно перед представлением результатов. Первый — добавить модель, учитывающую релевантность результатов промпту пользователя. Второй этап включает в себя выбор из серии ответов, учитывающий доказательства, основанные на релевантных документах. Третий этап включает в себя модуль анализа траектории, который проводит четкий и краткий анализ того, как LLM пришла к тому выводу, который модель считает правильным.

Пример того, как система SELF-REASONING генерирует траектории рассуждений с помощью процесса релевантности, процесса селекции с учетом доказательств и процесса анализа траектории.
Пример того, как система SELF-REASONING генерирует траектории рассуждений с помощью процесса релевантности, процесса селекции с учетом доказательств и процесса анализа траектории.
https://arxiv.org/abs/2407.19813
РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ

Исследователи считают, что такой подход заставит LLM быть более внимательными к предоставленным пользователям ответам, что в конечном итоге повысит точность информации. Группа проверила свои идеи, добавив тестовые модули к LLM и протестировав на своих промптах. Ученые утверждают, что улучшенные LLM смогли превзойти GPT-4, используя гораздо меньшие наборы обучающих данных.

Исследователи предполагают, что такие дополнения, как их модуль SELF-REASONING, могут привести к более надежным LLM. Это сделает модели пригодными для большего количества приложений. Ученые также предполагают, что они откроют возможность создания новых моделей для большего количества разработчиков, которые в настоящее время не имеют доступа к огромным наборам обучающих данных.