Сбер открыл исходные веса GigaChat 3.1 Ultra и GigaChat 3.1 Lightning под лицензией MIT. Речь идет о двух моделях нового поколения, которые компания позиционирует как собственную разработку, обученную с нуля без инициализации зарубежными весами.
В основе релиза — архитектурный стек, который сейчас считается актуальным для крупных современных моделей: Mixture-of-Experts, Multi-Token Prediction и Multi-head Latent Attention. Кроме самих весов, разработчики сразу заявили совместимость с привычной экосистемой инференса, включая Hugging Face, llama.cpp, vLLM и SGLang.
Флагманская GigaChat 3.1 Ultra — это крупная instruct-модель с 702 миллиардами общих параметров и 36 миллиардами активных. Она ориентирована на сложные сценарии: агентные задачи, рассуждение, код, работу с инструментами и развёртывание на серьезной инфраструктуре. Параллельно доступна и более легкая версия Lightning.
В описании релиза команда делает акцент не только на публикации весов, но и на проделанной инженерной работе. Среди ключевых улучшений названы доработанный function calling, повышение устойчивости к зацикливанию, DPO в нативном FP8 и оптимизации посттренинга для длинного контекста и MoE-архитектуры. Отдельно разработчики упоминают, что нашли и зарепортили баг в SGLang при dp > 1.
По опубликованным бенчмаркам GigaChat 3.1 Ultra показывает сильные результаты на ряде задач и заметно прибавляет относительно preview-версии. При этом в самой подаче релиза ставка сделана не только на сухие цифры, но и на практическую пригодность модели для production-сценариев, где важны стабильность, предсказуемость и совместимость с существующими inference-движками.
Релиз выглядит заметным по двум причинам. Во-первых, под MIT выложили не маленькую исследовательскую модель, а крупный флагманский стек. Во-вторых, команда явно пытается показать, что может строить и выпускать такие модели на собственной инженерной базе, а не только адаптировать чужие решения.