Леонид Колдунов, кандидат физико-математических наук, преподаватель МФТИ, эксперт по работе со школьниками, разобрал задачи из разных разделов технических наук: физики, механики, оптики, термодинамики, электричеству и кинематике. По его словам, ошибки нейросети в решении и объяснении задач касались как финальных расчетов, так и использования терминов в решении и понимании физики процесса.
Искусственный интеллект не смог бы поступить в институт: физики проверили знания ChatGPT и ужаснулись

«Успешные решения GPT ограничиваются простыми задачами, требующими формального подхода. Он не способен анализировать процессы или явления, требующие фантазии или более сложных объяснений. Также он не способен интерпретировать условия. Например, он не смог решить задачу, в которой сказано, что длина волны изменится в два раза, но не указано, увеличится она или уменьшится. Здесь нейросеть не смогла выполнить анализ, только описать формулы и ими оперировать. Безусловно, с таким уровнем знаний нейросеть не смогла бы поступить в институт», – рассказал Леонид Колдунов.
Эксперимент решения задач с помощью Chat GPT-4 также удалось оценить главному аналитику Центра искусственного интеллекта МФТИ, директору одной из ведущих конференций по ИИ в России OpenTalks.AI Игорю Пивоварову. Как заметил эксперт, несмотря на допущенные ошибки и невозможность творческого подхода в решении задач, модели генеративного интеллекта можно обучить.

«Меня в целом не удивляет, что система не решает сложно составленные задачи, так как у всех этих систем, в частности, у Chat GPT, есть проблемы с математикой и с логикой, с цепью рассуждений. Люди, для того чтобы повысить точность модели, дают ей определенные промты и контекст, которые сильно повышают качество. Когда нейросеть начинает рассуждать по шагам, качество ответа сильно вырастает», – отметил Игорь Пивоваров.
Специалисты сходятся во мнении: пока у всего класса подобных систем ИИ есть проблемы с цепью логических рассуждений, несмотря на то, что в отдельных примерах они демонстрируют приемлемый уровень.
Параметр последовательной логики у ИИ пока на порядок ниже, чем у человека, поэтому, увы, при решении сложных, требующих нетривиальных ходов, математических задач генеративные модели допускают ошибки.