AI资讯新闻榜单内容搜索-MOE模型

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
搜索: MOE模型
已节省数百万GPU小时!字节再砍MoE训练成本,核心代码全开源

已节省数百万GPU小时!字节再砍MoE训练成本,核心代码全开源

已节省数百万GPU小时!字节再砍MoE训练成本,核心代码全开源

字节对MoE模型训练成本再砍一刀,成本可节省40%! 刚刚,豆包大模型团队在GitHub上开源了叫做COMET的MoE优化技术。

来自主题: AI技术研报
5833 点击    2025-03-10 21:57
阿里云通义大模型新技术:MoE模型训练专家平衡的关键细节

阿里云通义大模型新技术:MoE模型训练专家平衡的关键细节

阿里云通义大模型新技术:MoE模型训练专家平衡的关键细节

本周,在阿里云通义千问 Qwen 团队提交的一篇论文中,研究人员发现了目前最热门的 MoE(混合专家模型)训练中存在的一个普遍关键问题,并提出一种全新的方法——通过轻量的通信将局部均衡放松为全局均衡,使得 MoE 模型的性能和专家特异性都得到了显著的提升。

来自主题: AI技术研报
2860 点击    2025-01-26 11:12
中国最大开源MoE模型,255B参数无条件免费商用,元象发布

中国最大开源MoE模型,255B参数无条件免费商用,元象发布

中国最大开源MoE模型,255B参数无条件免费商用,元象发布

元象XVERSE发布中国最大MoE开源模型:XVERSE-MoE-A36B,该模型总参数255B,激活参数36B,达到100B模型性能的「跨级」跃升。

来自主题: AI资讯
4239 点击    2024-09-14 14:58
150B token从头训练,普林斯顿Meta发布完全可微MoE架构Lory

150B token从头训练,普林斯顿Meta发布完全可微MoE架构Lory

150B token从头训练,普林斯顿Meta发布完全可微MoE架构Lory

前几天,普林斯顿大学联合Meta在arXiv上发表了他们最新的研究成果——Lory模型,论文提出构建完全可微的MoE模型,是一种预训练自回归语言模型的新方法。

来自主题: AI技术研报
9539 点击    2024-05-20 16:10
仅需Llama3 1/17的训练成本,Snowflake开源128x3B MoE模型

仅需Llama3 1/17的训练成本,Snowflake开源128x3B MoE模型

仅需Llama3 1/17的训练成本,Snowflake开源128x3B MoE模型

Snowflake 发布高「企业智能」模型 Arctic,专注于企业内部应用。

来自主题: AI技术研报
7217 点击    2024-04-25 19:28