ChatGPT может быть достойной заменой людей в некоторых областях, но научные исследования не входят в их число. Это убедительно показало новое исследование, в котором использовалась компьютерная программа для выявления частей текста, сгенерированных чат-ботом.
ChatGPT не может писать хорошие научные статьи... пока что

Что такое ChatGPT
Кстати, с момента появления на сцене в ноябре 2022 года ChatGPT стал чрезвычайно популярным инструментом для написания отчетов, отправки электронных писем, заполнения документов, перевода и написания компьютерного кода.
Но чат-бот также подвергся критике за плагиат и недостаточную точность, а также вызвал опасения, что он может помочь распространять «фальшивые новости» и заменить представителей некоторых профессий.
ChatGPT и научные статьи
В новом исследовании, опубликованном в журнале Cell Reports Physical Science, исследователи создали новую программу, которая может отличать настоящие научные статьи от «подделок», написанных ChatGPT.
Ученые обучили программу выявлять ключевые различия между 64 реальными исследованиями, опубликованными в журнале Science, и 128 статьями, созданными ChatGPT, используя те же 64 статьи в качестве подсказки.
Затем команда проверила, насколько хорошо их модель может различать разные подмножества реальных и сгенерированных ChatGPT статей, которые включали 60 реальных статей из журнала Science и 120 подделок, сгенерированных искусственным интеллектом.
Программа отмечала статьи, написанные искусственным интеллектом, более чем в 99% случаев и могла правильно определить разницу между абзацами, написанными человеком, и абзацами, написанными чат-ботом, в 92% случаев.