ПозитивнаImpact 6/10🚀 Early Adoption🏢 Від 50 людей🏦 Фінанси і Банкінг🏥 Медицина і Фармацевтика

Alibaba відкрила код Qwen3.6-35B-A3B — MoE модель на 35B параметрів

Shir-man Trendingблизько 3 годин тому0 переглядів

Alibaba випустила у відкритий доступ Qwen3.6-35B-A3B, MoE модель з 35 мільярдами параметрів, з яких 3 мільярди активні. Це дозволить компаніям використовувати потужну AI-модель без прив'язки до пропрієтарних API.

ВердиктПозитивнаImpact 6/10

🚀 Початок конкуренції офлайн. Альтернатива платним API для тих, кому важлива конфіденційність і контроль над моделлю.

🟢 МОЖЛИВОСТІ

  • Зниження витрат на AI-інфраструктуру для компаній з великими обсягами даних
  • Можливість кастомізації моделі під специфічні потреби бізнесу
  • Посилення контролю над даними та забезпечення конфіденційності

🔴 ЗАГРОЗИ

  • Високі вимоги до обчислювальних ресурсів (GPU, пам'ять)
  • Необхідність IT-експертизи для розгортання та підтримки
  • Ризик витоку даних при неправильній конфігурації

🎯 Чи підходить це вашому бізнесу?

Заповніть профіль компанії — і ми автоматично покажемо, чи варто вам це впроваджувати.

Заповнити профіль · 30 секунд
Детальний розбір ↓

TL;DR

  • 35 мільярдів параметрів, з яких 3 мільярди активні
  • MoE (Mixture-of-Experts) архітектура
  • Відкритий код (open-source)
  • Потребує значних обчислювальних ресурсів
  • Apache 2.0 ліцензія

Як це змінить ваш ринок?

Фінансові установи зможуть обробляти великі обсяги даних локально, не передаючи їх в хмару, що знімає регуляторні обмеження та підвищує безпеку.

MoE (Mixture-of-Experts) — архітектура нейронної мережі, яка використовує кілька експертних підмереж для обробки різних частин вхідних даних.

Для кого це і за яких умов

Для компаній з великими обсягами даних та потребою в локальній обробці. Потрібна IT-команда з досвідом розгортання та підтримки AI-моделей. 7B може працювати на сервері з 64GB RAM, для 35B потрібні GPU.

Альтернативи

Qwen3.6-35B-A3BLlama 3 70BGPT-4o
ЦінаБезкоштовноБезкоштовно$30/1M
Де працюєЛокальноЛокальноAPI
Мін. вимогиGPUGPUAPI
Ключова різницяКонтроль над данимиСкладність розгортанняПростота використання

💬 Часті запитання

Для 7B моделі достатньо сервера з 64GB RAM, для 35B потрібні GPU з великим обсягом пам'яті.

Такий розбір щоранку о 08:00

Персональний AI-дайджест для вашої галузі — щодня у Telegram

7 днів безкоштовно
QwenMoEOpenSourceAlibabaLLM

Навчіть вашу команду будувати такі AI-автоматизації

За 5 днів кожен співробітник побудує автоматизацію для своєї ділянки роботи.

Дізнатись більше → aiupskill.live