AI资讯新闻榜单内容搜索-moe

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
AITNT-国内领先的一站式人工智能新闻资讯网站 搜索
搜索: moe
Jurgen、曼宁等大佬新作:MoE重塑6年前的Universal Transformer,高效升级

Jurgen、曼宁等大佬新作:MoE重塑6年前的Universal Transformer,高效升级

Jurgen、曼宁等大佬新作:MoE重塑6年前的Universal Transformer,高效升级

7 年前,谷歌在论文《Attention is All You Need》中提出了 Transformer。就在 Transformer 提出的第二年,谷歌又发布了 Universal Transformer(UT)。它的核心特征是通过跨层共享参数来实现深度循环,从而重新引入了 RNN 具有的循环表达能力。

来自主题: AI技术研报
8690 点击    2024-10-19 14:29
中国最大开源MoE模型,255B参数无条件免费商用,元象发布

中国最大开源MoE模型,255B参数无条件免费商用,元象发布

中国最大开源MoE模型,255B参数无条件免费商用,元象发布

元象XVERSE发布中国最大MoE开源模型:XVERSE-MoE-A36B,该模型总参数255B,激活参数36B,达到100B模型性能的「跨级」跃升。

来自主题: AI资讯
4212 点击    2024-09-14 14:58
腾讯最新万亿参数异构MoE上线,技术细节首次曝光!权威评测国内第一,直逼GPT-4o

腾讯最新万亿参数异构MoE上线,技术细节首次曝光!权威评测国内第一,直逼GPT-4o

腾讯最新万亿参数异构MoE上线,技术细节首次曝光!权威评测国内第一,直逼GPT-4o

鹅厂新一代旗舰大模型混元Turbo技术报告首次曝光。模型采用全新分层异构的MoE架构,总参数达万亿级别,性能仅次于GPT-4o,位列国内第一梯队。

来自主题: AI资讯
8511 点击    2024-09-12 20:48
第一个100%开源的MoE大模型,7B的参数,1B的推理成本

第一个100%开源的MoE大模型,7B的参数,1B的推理成本

第一个100%开源的MoE大模型,7B的参数,1B的推理成本

训练代码、中间 checkpoint、训练日志和训练数据都已经开源。

来自主题: AI技术研报
8149 点击    2024-09-05 22:02
MoE再下一城!港大提出AnyGraph:首次开启「图大模型」Scaling Law之路

MoE再下一城!港大提出AnyGraph:首次开启「图大模型」Scaling Law之路

MoE再下一城!港大提出AnyGraph:首次开启「图大模型」Scaling Law之路

AnyGraph聚焦于解决图数据的核心难题,跨越多种场景、特征和数据集进行预训练。其采用混合专家模型和特征统一方法处理结构和特征异质性,通过轻量化路由机制和高效设计提升快速适应能力,且在泛化能力上符合Scaling Law。

来自主题: AI技术研报
8134 点击    2024-09-02 16:35
从ACL 2024录用论文看混合专家模型(MoE)最新研究进展

从ACL 2024录用论文看混合专家模型(MoE)最新研究进展

从ACL 2024录用论文看混合专家模型(MoE)最新研究进展

最近 ACL 2024 论文放榜,扫了下,SMoE(稀疏混合专家)的论文不算多,这里就仔细梳理一下,包括动机、方法、有趣的发现,方便大家不看论文也能了解的七七八八,剩下只需要感兴趣再看就好。

来自主题: AI技术研报
9438 点击    2024-08-25 11:48
国内首个自研MoE多模态大模型,揭秘腾讯混元多模态理解

国内首个自研MoE多模态大模型,揭秘腾讯混元多模态理解

国内首个自研MoE多模态大模型,揭秘腾讯混元多模态理解

以 GPT 为代表的大型语言模型预示着数字认知空间中通用人工智能的曙光。这些模型通过处理和生成自然语言,展示了强大的理解和推理能力,已经在多个领域展现出广泛的应用前景。无论是在内容生成、自动化客服、生产力工具、AI 搜索、还是在教育和医疗等领域,大型语言模型都在不断推动技术的进步和应用的普及。

来自主题: AI资讯
9208 点击    2024-08-23 17:27
腾讯混元大模型负责人王迪:揭秘万亿 MoE 系统工程之道|智者访谈

腾讯混元大模型负责人王迪:揭秘万亿 MoE 系统工程之道|智者访谈

腾讯混元大模型负责人王迪:揭秘万亿 MoE 系统工程之道|智者访谈

人工智能正经历一场由大模型引发的革命。这些拥有数十亿甚至万亿参数的庞然大物,正在重塑我们对 AI 能力的认知,也构筑起充满挑战与机遇的技术迷宫——从计算集群高速互联网络的搭建,到训练过程中模型稳定性和鲁棒性的提升,再到探索更快更优的压缩与加速方法,每一步都是对创新者的考验。

来自主题: AI资讯
9620 点击    2024-08-21 14:13
从ACL 2024录用论文看混合专家模型(MoE)最新研究进展

从ACL 2024录用论文看混合专家模型(MoE)最新研究进展

从ACL 2024录用论文看混合专家模型(MoE)最新研究进展

最近ACL 2024 论文放榜,扫了下,SMoE(稀疏混合专家)的论文不算多,这里就仔细梳理一下,包括动机、方法、有趣的发现,方便大家不看论文也能了解的七七八八,剩下只需要感兴趣再看就好。

来自主题: AI技术研报
2771 点击    2024-08-15 10:17