OpenAI ускорила генерацию кода в 15 раз — без чипов Nvidia

[unable to retrieve full-text content]

OpenAI представила первую производственную ИИ-модель, работающую не на чипах Nvidia. Новая модель GPT-5.3-Codex-Spark развёрнута на чипах Cerebras и обеспечивает генерацию кода со скоростью более 1000 токенов в секунду. Это примерно в 15 раз быстрее, чем у её предшественника. Для сравнения, Claude Opus 4.6 от Anthropic в быстром режиме достигает примерно 2,5-кратного увеличения стандартной скорости в 68,2 токена в секунду, хотя это более крупная и функциональная модель, чем Spark.

Codex-Spark — это предварительная версия, доступная подписчикам ChatGPT Pro ($200 в месяц) через приложение Codex, интерфейс командной строки и расширение VS Code. OpenAI предоставляет доступ к API избранным партнерам по разработке. Модель поставляется с контекстным окном в 128 000 токенов и на момент запуска обрабатывает только текст.

converted - 2026-02-17T190247.459_large. Изображение сгенерировано: Grok

Релиз основан на полной модели GPT-5.3-Codex, которую OpenAI выпустила ранее в этом месяце. Если полная модель справляется с ресурсоёмкими задачами, то Spark настроена на скорость, а не на глубину знаний. OpenAI создала её как текстовую модель, специально настроенную для создания кода, а не для общих задач, с которыми справляется более крупная версия GPT-5.3.

По данным OpenAI, Spark превосходит более старую GPT-5.1-Codex-mini на SWE-Bench Pro и Terminal-Bench 2.0, двух бенчмарках для оценки способностей в области разработки программного обеспечения, при этом выполняя задачи за меньшее время. Компания не предоставила независимой проверки этих цифр.

Ранее скорость Codex была слабым местом. В декабре издание Ars Technica протестировало четыре ИИ-агента. Codex потребовалось примерно вдвое больше времени, чем Claude Code от Anthropic, для создания работающей игры.

Для сравнения, скорость GPT-5.3-Codex-Spark в 1000 токенов в секунду представляет собой довольно резкий скачок по сравнению со всем, что OpenAI ранее предоставляла через свою собственную инфраструктуру. Согласно независимым тестам Artificial Analysis, самые быстрые модели OpenAI на оборудовании Nvidia достигают значительно меньших показателей: GPT-4o выдает примерно 147 токенов в секунду, o3-mini — около 167, а GPT-4o mini — около 52.

©  iXBT