Ученые научили ИИ искусству забывать. Теперь он сможет учиться постоянно
Группа исследователей ИИ из Университета Альберты, Канада показала, что современные искусственные нейросети, постепенно теряют способность к обучению, если не остановиться вовремя и продолжать подавать им все и новые данные. Ученые предложили решение, которое позволяет нейросети учиться непрерывно, как это делает человек: она должна забывать часть того, что узнала. Исследование опубликовано в журнале Nature.
За последние несколько лет системы ИИ стали мейнстримом. Среди них есть большие языковые модели (LLM), которые выдают, казалось бы, разумные ответы чат-ботов. Но им всем не хватает одного — способности продолжать обучение по мере использования. Это не позволяет ИИ-моделям становиться точнее, например, разговаривая с пользователем.
Искусственные нейронные сети, методы глубокого обучения и алгоритм обратного распространения ошибки формируют основу современного машинного обучения и искусственного интеллекта.
Эти методы почти всегда используются в два этапа: один, на котором веса сети обновляются, и другой — при котором веса остаются постоянными, пока сеть используется. Это совсем не похоже на то, как учится человек, ведь он учится непрерывно, на тех данных которые он получает.
До сих пор было неясно, работают ли методы глубокого обучения, если поставить их в такие «человеческие» условия, то есть обучать их не поэтапно, а непрерывно.Ученые показали, что в этом случае при стандартных методах глубокого обучения модели постепенно теряют пластичность. И возможности падают и ответы вырождаются, наступает так называемое «переобучение». Ученые показали такую потерю пластичности, используя классический набор картинок на сайте ImageNet.
Но ученые предложили неожиданное решение. Пластичность (то есть способность к обучению) сохраняется теми алгоритмами, которые постоянно вносят разнообразие в сеть.
Ученые назвали свой метод — алгоритм непрерывного обратного распространения. В этом случае небольшая часть наименее используемых параметров постоянно, случайным образом инициализируется, то есть нейросеть забывает значения части весов. Ученые считают, что подход, который фактически основан на постоянном забывании части накопленной информации, позволяет модели учиться непрерывно и не вырождаться.