Promt-Hub

GigaChat 3.1 Ultra и GigaChat 3.1 Lightning в опенсорс

08.04.2026 · 2 минуты на чтение
GigaChat 3.1 Ultra и GigaChat 3.1 Lightning в опенсорс

Сбер открыл исходные веса GigaChat 3.1 Ultra и GigaChat 3.1 Lightning под лицензией MIT. Речь идет о двух моделях нового поколения, которые компания позиционирует как собственную разработку, обученную с нуля без инициализации зарубежными весами.

В основе релиза — архитектурный стек, который сейчас считается актуальным для крупных современных моделей: Mixture-of-Experts, Multi-Token Prediction и Multi-head Latent Attention. Кроме самих весов, разработчики сразу заявили совместимость с привычной экосистемой инференса, включая Hugging Face, llama.cpp, vLLM и SGLang.

Флагманская GigaChat 3.1 Ultra — это крупная instruct-модель с 702 миллиардами общих параметров и 36 миллиардами активных. Она ориентирована на сложные сценарии: агентные задачи, рассуждение, код, работу с инструментами и развёртывание на серьезной инфраструктуре. Параллельно доступна и более легкая версия Lightning.

В описании релиза команда делает акцент не только на публикации весов, но и на проделанной инженерной работе. Среди ключевых улучшений названы доработанный function calling, повышение устойчивости к зацикливанию, DPO в нативном FP8 и оптимизации посттренинга для длинного контекста и MoE-архитектуры. Отдельно разработчики упоминают, что нашли и зарепортили баг в SGLang при dp > 1.

По опубликованным бенчмаркам GigaChat 3.1 Ultra показывает сильные результаты на ряде задач и заметно прибавляет относительно preview-версии. При этом в самой подаче релиза ставка сделана не только на сухие цифры, но и на практическую пригодность модели для production-сценариев, где важны стабильность, предсказуемость и совместимость с существующими inference-движками.

Релиз выглядит заметным по двум причинам. Во-первых, под MIT выложили не маленькую исследовательскую модель, а крупный флагманский стек. Во-вторых, команда явно пытается показать, что может строить и выпускать такие модели на собственной инженерной базе, а не только адаптировать чужие решения.

Был ли материал полезен?

Комментарии

0 комментариев

Хотите принять участие в обсуждении, оставить комментарий или поделиться своим мнением? Зарегистрируйтесь или войдите в аккаунт.

Пока никто не оставил комментарий. Будьте первым.

Что почитать дальше

Другие материалы от promt-hub.ru

Все материалы