OpenAI представила GPT-4o: премиальные функции GPT-4 станут бесплатными

Языковая модель GPT-4o стала новым шагом к гораздо более естественному взаимодействию человека и компьютера. Она позволит использовать все функции GPT абсолютно бесплатно.
OpenAI представила GPT-4o: премиальные функции GPT-4 станут бесплатными
Unsplash
Новая языковая модель GPT-4o лучше понимает речь, а скорость ее реакции теперь сравнима с человеческой.

Компания OpenAI представила новую языковую модель GPT-4o. Буква «o» в ее названии означает omni (всесторонний), и это в полной мере описывает ее универсальность и действительно широкие возможности по восприятию речи.

РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ

Более эффективная языковая модель

Разработчики уверены, что GPT-4o станет новым шагом «к гораздо более естественному взаимодействию человека и компьютера». Новая модель может обрабатывать текст, изображения и аудио и на их основе помогать своим пользователям. Голосовой режим нейросети работает более плавно, обеспечивая более быструю реакцию и лучшее восприятие речи.

Премиальные функции GPT-4 бесплатно
https://www.gizmochina.com
Раньше в голосовом режиме одновременно использовались три различные модели для транскрипции, интеллектуального анализа и преобразования текста в речь. Это приводило к неизбежным неточностям и к задержкам в ответе. Новая языковая модель справляется с этими функциями самостоятельно.
Нажми и смотри

GPT-4o может реагировать на голосовые запросы всего за 232 миллисекунды, что примерно соответствует обычному времени реакции человека. По сравнению с GPT-4 Turbo, она быстрее и лучше понимает неанглоязычную речь и без проблем может выступать, например, в качестве переводчика. При этом для GPT-4o будет доступен API, благодаря которому сторонние разработчики смогут использовать возможности языковой модели в своих приложениях.

GPT-4o окажется бесплатной языковой моделью

Пользователи GPT-4o смогут использовать все премиальные функции языковой модели абсолютно бесплатно. Однако премиум-пользователям будет разрешено использовать в пять раз больше ресурсов. А, говоря простым языком, они смогут оперировать в 5 раз большим числом запросов к нейросети.