Skip to main content

Команда разработчиков OpenAI представила новую модель ИИ для программирования GPT-5.3-Codex-Spark. Эта модель способна генерировать более 1000 токенов в секунду и функционирует не на GPU, а на специализированном чипе Cerebras Wafer Scale Engine 3. Это первый результат совместной работы OpenAI и Cerebras.

Spark дополняет старшую модель GPT-5.3-Codex, которая предназначена для выполнения длительных автономных задач, позволяя агенту работать в течение часов и дней. Spark, в свою очередь, оптимизирована для быстрого интерактивного цикла: внесение точечных правок, рефакторинг логики, итерации над интерфейсом с мгновенной обратной связью. Согласно данным OpenAI, скорость генерации текста увеличена в 15 раз, время до первого токена уменьшено на 50%, а задержка на каждый запрос – на 80%.

Однако высокая скорость имеет свою цену в виде точности. На SWE-Bench Pro – бенчмарке реальных инженерных задач на четырех языках – Spark показывает около 52% за 2-3 минуты, в то время как старшая модель GPT-5.3-Codex достигает примерно 57%, но затрачивает на ту же задачу до 16 минут. На Terminal-Bench 2.0 разница более заметна: 58,4% у Spark по сравнению с 77,3% у флагмана. При этом Spark значительно опережает предыдущую мини-модель GPT-5.1-Codex-mini (46,1% на том же бенчмарке).

В настоящее время Codex-Spark доступна в режиме исследовательского превью для подписчиков ChatGPT Pro – в приложении Codex, CLI и расширении для VS Code. Контекстное окно составляет 128 тыс. токенов, пока доступен только текст, без изображений. OpenAI также предоставила доступ к модели через API для ограниченного числа партнеров.

Ранее стало известно, что OpenAI намерена запустить собственную социальную сеть с биометрической проверкой пользователей. В компании надеются, что такой подход поможет предотвратить появление ботов на онлайн-платформе.

Вас может заинтересовать: 

OpenAI столкнется с убытками в размере $143 млрд 

Close Menu
Новости интернет маркетинга, сайтов, новости нейросетей и технологий