标签:DBRX

开源大模型王座再易主,1320亿参数DBRX上线,基础、微调模型都有

Databricks公司发布了一款1320亿参数的混合专家模型(MoE)DBRX,超越了其他大模型如Llama 2、Mistral和Grok-1。DBRX在语言理解、编程、数学和逻辑等方面的性...

1320亿参数,性能超LLaMA2、Grok-1!开源大模型DBRX

Databricks开源了一款名为DBRX的1320亿参数大模型,该模型基于专家混合模型(MoE)架构,具备文本生成、代码编写和数学推理等能力。DBRX的性能在多个测试中超...