ChatGPT не может писать хорошие научные статьи... пока что

Созданная исследователями компьютерная модель может обнаруживать текст, сгенерированный ChatGPT, более чем в 99% случаев, показывает новое исследование.
Никита Шевцев
Никита Шевцев
ChatGPT не может писать хорошие научные статьи... пока что
Shutterstock
Пока что обмануть редакторов научных журналов любителям ChatGPT не удастся.

ChatGPT может быть достойной заменой людей в некоторых областях, но научные исследования не входят в их число. Это убедительно показало новое исследование, в котором использовалась компьютерная программа для выявления частей текста, сгенерированных чат-ботом.

РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ

Что такое ChatGPT

Кстати, с момента появления на сцене в ноябре 2022 года ChatGPT стал чрезвычайно популярным инструментом для написания отчетов, отправки электронных писем, заполнения документов, перевода и написания компьютерного кода.

Но чат-бот также подвергся критике за плагиат и недостаточную точность, а также вызвал опасения, что он может помочь распространять «фальшивые новости» и заменить представителей некоторых профессий.

ChatGPT и научные статьи

В новом исследовании, опубликованном в журнале Cell Reports Physical Science, исследователи создали новую программу, которая может отличать настоящие научные статьи от «подделок», написанных ChatGPT.

Ученые обучили программу выявлять ключевые различия между 64 реальными исследованиями, опубликованными в журнале Science, и 128 статьями, созданными ChatGPT, используя те же 64 статьи в качестве подсказки.

РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ

Затем команда проверила, насколько хорошо их модель может различать разные подмножества реальных и сгенерированных ChatGPT статей, которые включали 60 реальных статей из журнала Science и 120 подделок, сгенерированных искусственным интеллектом.

Программа отмечала статьи, написанные искусственным интеллектом, более чем в 99% случаев и могла правильно определить разницу между абзацами, написанными человеком, и абзацами, написанными чат-ботом, в 92% случаев.