Модели умеют самостоятельно обращаться к интернету, анализировать изображения и документы — и делают меньше ошибок.
OpenAI представила новые ИИ-модели — o3 и компактную o4-mini.
Обе работают внутри ChatGPT и умеют подключать встроенные функции: веб-поиск, генерацию изображений, чтение и анализ документов.
Это первые версии, которые могут использовать картинки не просто как иллюстрации, а как часть логической цепочки — «визуальное мышление» встроено в алгоритм.
Модель o3 стала сильнее в кодировании, математике, науке и задачах, где нужно понимать неочевидную информацию.
По данным OpenAI, она делает на 20% меньше ошибок по сравнению с предыдущей моделью o1. Версия o4-mini показала 99,5% на бенчмарке AIME — это тест на понимание инструкций. Она легче, быстрее и дешевле, что позволяет разработчикам задавать больше запросов без ограничений.
Тарифы следующие: o3 стоит $10 за миллион входных токенов и $40 за миллион выходных. o4-mini — $1,1 и $4,4 соответственно. Токен — это фрагмент текста, которым нейросеть оперирует при генерации. Один токен — примерно 4 символа.
Модели уже доступны подписчикам ChatGPT Plus, Pro и Team, где они заменили прежние версии o1, o3-mini и o3-mini-high.
В ближайшие дни они появятся и у пользователей корпоративных и учебных тарифов.
Также модели можно подключить через API — интерфейсы Chat Completions и Responses. В ближайшие недели выйдет ещё одна версия — o3-pro, с полной поддержкой всех инструментов. Подписчикам Pro также оставили доступ к старой версии o1-pro.