
微软连发3款Phi-3.5模型:128K上下文,首用MoE架构,部分性能超GPT-4o mini
微软连发3款Phi-3.5模型:128K上下文,首用MoE架构,部分性能超GPT-4o mini轻量级模型的春天要来了吗?
来自主题: AI资讯
7005 点击 2024-08-22 09:29
轻量级模型的春天要来了吗?
前几天,普林斯顿大学联合Meta在arXiv上发表了他们最新的研究成果——Lory模型,论文提出构建完全可微的MoE模型,是一种预训练自回归语言模型的新方法。
今年以来,苹果显然已经加大了对生成式人工智能(GenAI)的重视和投入。此前在 2024 苹果股东大会上,苹果 CEO 蒂姆・库克表示,今年将在 GenAI 领域实现重大进展。此外,苹果宣布放弃 10 年之久的造车项目之后,一部分造车团队成员也开始转向 GenAI。
AI大模型并非越大越好?过去一个月,关于大模型变小的研究成为亮点,通过模型合并,采用MoE架构都能实现小模型高性能。
「天工AI」国内首个MoE架构免费向C端用户开放的大语言模型应用全新问世。