OpenAI научила ИИ «думать» с помощью картинок — вышли o3 и o4-mini

o3 и o4-mini
o3 и o4-mini

Модели умеют самостоятельно обращаться к интернету, анализировать изображения и документы — и делают меньше ошибок.

OpenAI представила новые ИИ-модели — o3 и компактную o4-mini.

Обе работают внутри ChatGPT и умеют подключать встроенные функции: веб-поиск, генерацию изображений, чтение и анализ документов.

Это первые версии, которые могут использовать картинки не просто как иллюстрации, а как часть логической цепочки — «визуальное мышление» встроено в алгоритм.

Модель o3 стала сильнее в кодировании, математике, науке и задачах, где нужно понимать неочевидную информацию.

По данным OpenAI, она делает на 20% меньше ошибок по сравнению с предыдущей моделью o1. Версия o4-mini показала 99,5% на бенчмарке AIME — это тест на понимание инструкций. Она легче, быстрее и дешевле, что позволяет разработчикам задавать больше запросов без ограничений.

Тарифы следующие: o3 стоит $10 за миллион входных токенов и $40 за миллион выходных. o4-mini — $1,1 и $4,4 соответственно. Токен — это фрагмент текста, которым нейросеть оперирует при генерации. Один токен — примерно 4 символа.

Модели уже доступны подписчикам ChatGPT Plus, Pro и Team, где они заменили прежние версии o1, o3-mini и o3-mini-high.

В ближайшие дни они появятся и у пользователей корпоративных и учебных тарифов.

Также модели можно подключить через API — интерфейсы Chat Completions и Responses. В ближайшие недели выйдет ещё одна версия — o3-pro, с полной поддержкой всех инструментов. Подписчикам Pro также оставили доступ к старой версии o1-pro.