
全球最大开源模型再刷爆纪录!4800亿参数MoE击败Llama 3、Mixtral
全球最大开源模型再刷爆纪录!4800亿参数MoE击败Llama 3、Mixtral就在刚刚,拥有128位专家和4800亿参数的Arctic,成功登上了迄今最大开源MoE模型的宝座。
来自主题: AI技术研报
10401 点击 2024-04-25 19:53
就在刚刚,拥有128位专家和4800亿参数的Arctic,成功登上了迄今最大开源MoE模型的宝座。
Snowflake 发布高「企业智能」模型 Arctic,专注于企业内部应用。
一条磁力链,Mistral AI又来闷声不响搞事情。
“只需”10万美元,训练Llama-2级别的大模型。尺寸更小但性能不减的MoE模型来了:它叫JetMoE,来自MIT、普林斯顿等研究机构。性能妥妥超过同等规模的Llama-2。
一年一度的CVPR 2024录用结果出炉了。今年,共有2719篇论文被接收,录用率为23.6%。
混合专家(MoE)架构已支持多模态大模型,开发者终于不用卷参数量了!北大联合中山大学、腾讯等机构推出的新模型MoE-LLaVA,登上了GitHub热榜。
「高端」的开源,往往采用最朴素的发布方式。昨天,Mistral AI 在 X 平台甩出一条磁力链接,宣布了新的开源动作。