Mistral AI опубликовал Devstral, большую языковую модель для работы с кодом
Компания Mistral AI представила большую языковую модель Devstral, оптимизированную для решения реальных проблем, возникающих в процессе разработки ПО. В отличие от типовых AI-моделей, Mistral AI выходит за рамки написания отдельных функций и дополнения кода, и предоставляет возможности, позволяющие анализировать и контекстуализировать (определять назначение и логику работы) большие кодовые базы, определять связи между компонентами и выявлять трудноопределяемые ошибки в запутанных функциях.
Devstral охватывает 23.6 миллиардов параметров, учитывает контекст в 128 тысяч токенов и опубликована под лицензией Apache 2.0. Модель занимает 47 ГБ и пригодна для использования на локальных системах — для выполнения достаточно одного ПК с видеокартой NVIDIA GeForce RTX 4090 и 32 ГБ ОЗУ. Модель можно использовать в инструментариях SWE-agent и OpenHands для автоматизации исправления ошибок, анализа кода и внесения изменений.
Модель Devstral обучена для решения конкретных проблем (issue) на GitHub и заметно опережает другие системы в тестовом наборе SWE-Bench Verified, проверяющем корректность решения типовых проблем в коде, основанных на 500 реальных сообщений об ошибках на GitHub. В данном тесте модель Devstral набрала 46.8%, в то время как модель Claude 3.5 Haiku получила 40.6%, SWE-smith-LM 32B — 40.2% и GPT-4.1-mini — 23.6%. Среди прочего Devstral опередила такие крупные модели, как Deepseek-V3–0324 671B (38.8%) и Qwen3 232B-A22B (34.4%), охватывающие сотни миллиардов параметров.
Источник: http://www.opennet.ru/opennews/art.shtml? num=63286
© OpenNet
