5 вещей, которые не может делать ChatGPT
Предлагаем посмотреть на пять функций, которые ChatGPT не может выполнить! По крайней мере, так считают эксперты.
Не может «вспомнить» свое собственное название
Удивительно, какие вещи может творить ChatGPT. Но чего чего он не может, так это вспомнить собственное название. Упомяните ChatGPT в беседе с ИИ, и он начнет говорить, что «ничего не знает о ChatGPT».
Вероятно, это связано с тем, что, когда он был создан, его авторы еще не придумали для него названия. Тем не менее, кажется немного странным, что нечто столь разумное не знает своего собственного имени.
Предоставлять информацию о будущем после 2021 года
Данные, на которых обучался ChatGPT, были актуальны до 2021 года. Это означает, что бот совершенно не осведомлен о текущих событиях, тенденциях или о чем-либо, что произошло после.
Таким образом, несмотря на то, что ИИ обучен работать с большим объемом текстовых данных, чтобы генерировать человекоподобные ответы, он ничего не знает о том, каким был мир последние два года, потому что он не подключен к Интернету.
Об этом стоит помнить, задавая ему определенные вопросы. Например, ему не известно ни о каких мировых лидерах, пришедших к власти с 2021 года. А также он не знает о последних достижениях науки и медицины.
Играть в Wordle
Учитывая, что ChatGPT — это языковая модель, можно подумать, что Wordle будет для него простой игрой (нужно угадать слово из пяти букв за несколько попыток).
Однако на самом деле ИИ не знает, как играть в популярную онлайн-игру, и не имеет представления о ее предпосылках или правилах.
Это связано с тем, что популярность Wordle резко возросла после 2021 года, ChatGPT просто не успел узнать о ней!
Писать точные новостные статьи
ИИ способен сдавать юридические экзамены, писать целые статьи и даже кодировать полноценные веб-сайты. Возможно, однажды он сделает журналистов бесполезными, однако пока он не умеет проверять факты.
Бот может довольно неплохо писать вступления, но ему не хватает нюансов и глубины, чтобы создавать сложные статьи. Тесты показали, что многие истории бота содержат ошибки. Это происходит потому, что он склонен фабриковать знания, если он понимает, что ему их недостает. Именно поэтому, пока что ИИ сложно доверить написание новостей.
Давать советы по лекарствам
Недавно ChatGPT вызвал споры в медицинском сообществе после того, как было установлено, что он способен сдать экзамен «золотого стандарта», необходимый для врачебной практики в США. Это повышает вероятность того, что однажды он сможет заменить врачей-людей.
Однако не стоит доверять боту в выборе лекарств (например, БАДов). К счастью, что касается медикаментов, отпускаемых по рецепту, ИИ посоветует обратиться к врачу.