ПозитивнаImpact 6/10🚀 Early Adoption👤 Для всіх

GigaChat 3.1 Ultra та GigaChat 3.1 Lightning стали опенсорсними під ліцензією MIT

Департамент вайб-кодингаблизько 6 годин тому0 переглядів

Вийшли GigaChat 3.1 Ultra та Lightning – дві нові мовні моделі, що стали опенсорсними під ліцензією MIT. Моделі навчені з нуля, без використання іноземних ваг, сумісні з HuggingFace та іншими платформами, та пропонують покращену якість, узгодженість і стабільність.

ВердиктПозитивнаImpact 6/10

🚀 Перспективи локалізації. Відкритий код дозволяє адаптувати модель під специфічні потреби, але потрібна команда для розгортання.

🟢 МОЖЛИВОСТІ

  • Локальне розгортання без залежності від API великих гравців
  • Безкоштовна ліцензія Apache 2.0 для комерційного використання
  • Можливість адаптації під специфічні потреби бізнесу

🔴 ЗАГРОЗИ

  • Потребує команди IT для розгортання та підтримки
  • Якість може поступатися GPT-4o у складних задачах
  • Необхідність GPU з великим об'ємом VRAM для великих моделей

🎯 Чи підходить це вашому бізнесу?

Заповніть профіль компанії — і ми автоматично покажемо, чи варто вам це впроваджувати.

Заповнити профіль · 30 секунд
Детальний розбір ↓

TL;DR

  • GigaChat 3.1 Ultra та Lightning доступні під ліцензією MIT.
  • Моделі навчені з нуля, без використання іноземних ваг.
  • Сумісні з HuggingFace, llama.cpp, vLLM та SGLang.
  • Доступні різні розміри моделей: 2B, 7B, 12B, 27B.
  • Код та ваги доступні на платформі GitVerse.

Як це змінить ваш ринок?

Для компаній, що працюють з чутливими даними, можливість локального розгортання GigaChat знімає блокер щодо використання AI в фінансах та медицині.

Локальне розгортання — запуск та використання програмного забезпечення на власних серверах або інфраструктурі, а не через хмарні сервіси.

Для кого це і за яких умов

7B модель може працювати на MacBook з 16GB RAM, не потребує IT-команди, розгортання займає 15 хвилин. 27B потребує GPU $2,000+ або хмару ~$0.5/год, потрібен IT-спеціаліст, розгортання 1-2 дні.

Альтернативи

GigaChatGPT-4oClaude 3 Opus
ЦінаБезкоштовно (Apache 2.0)$15/1M токенівЦіна не оголошена
Де працюєЛокально, хмараAPIAPI
Мін. вимогиMacBook 16GB (для 7B)Будь-який пристрій з інтернетомБудь-який пристрій з інтернетом
Ключова різницяЛокальне розгортання, відкритий кодНайкраща якість, простота використанняВисока якість, великий контекст

💬 Часті запитання

7B працює на MacBook 16GB. Для 27B потрібна GPU або хмара ~$0.5/год.

Такий розбір щоранку о 08:00

Персональний AI-дайджест для вашої галузі — щодня у Telegram

7 днів безкоштовно
GigaChatopensourcelanguagemodelLLMMITlicense

Навчіть вашу команду будувати такі AI-автоматизації

За 5 днів кожен співробітник побудує автоматизацію для своєї ділянки роботи.

Дізнатись більше → aiupskill.live