AI资讯新闻榜单内容搜索-moe

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
AITNT-国内领先的一站式人工智能新闻资讯网站 搜索
搜索: moe
大模型的中场战事:CoE or MoE?

大模型的中场战事:CoE or MoE?

大模型的中场战事:CoE or MoE?

残暴的欢愉,终将以残暴结束。 当盛宴开启之时,没人想到,大模型的淘汰赛,会来的如此之快。 火药味首先表现在创投市场。PitchBook 最新报告披露,相比2023年一季度,全球2024年一季度大模型融资额,从216.9亿美元增长到了258.7亿美元,但涉及的交易数量,却从 1909 笔下滑至1545笔——产业格局正迅速向强者收拢。

来自主题: AI资讯
8151 点击    2024-08-03 15:09
算法、系统和应用,三个视角全面读懂混合专家(MoE)

算法、系统和应用,三个视角全面读懂混合专家(MoE)

算法、系统和应用,三个视角全面读懂混合专家(MoE)

LLM 很强,而为了实现 LLM 的可持续扩展,有必要找到并实现能提升其效率的方法,混合专家(MoE)就是这类方法的一大重要成员。

来自主题: AI技术研报
4977 点击    2024-07-26 17:57
华为GTS LocMoE+:高可扩展性亲和度 MoE 架构,低开销实现主动路由

华为GTS LocMoE+:高可扩展性亲和度 MoE 架构,低开销实现主动路由

华为GTS LocMoE+:高可扩展性亲和度 MoE 架构,低开销实现主动路由

MoE 因其在训推流程中低销高效的特点,近两年在大语言模型领域大放异彩。作为 MoE 的灵魂,专家如何能够发挥出最大的学习潜能,相关的研究与讨论层出不穷。此前,华为 GTS AI 计算 Lab 的研究团队提出了 LocMoE ,包括新颖的路由网络结构、辅助降低通信开销的本地性 loss 等,引发了广泛关注。

来自主题: AI技术研报
4308 点击    2024-07-19 16:16
MoE也有Scaling Law,「百万专家」利用率近100%!DeepMind华人挑战MoE极限

MoE也有Scaling Law,「百万专家」利用率近100%!DeepMind华人挑战MoE极限

MoE也有Scaling Law,「百万专家」利用率近100%!DeepMind华人挑战MoE极限

MoE已然成为AI界的主流架构,不论是开源Grok,还是闭源GPT-4,皆是其拥趸。然而,这些模型的专家,最大数量仅有32个。最近,谷歌DeepMind提出了全新的策略PEER,可将MoE扩展到百万个专家,还不会增加计算成本。

来自主题: AI技术研报
8376 点击    2024-07-15 20:01
阶跃星辰官宣 Step 系列大模型全面升级,万亿+多模齐发

阶跃星辰官宣 Step 系列大模型全面升级,万亿+多模齐发

阶跃星辰官宣 Step 系列大模型全面升级,万亿+多模齐发

在今天揭幕的 2024 世界人工智能大会暨人工智能全球治理高级别会议(简称“WAIC 2024”)上,阶跃星辰首发了三款 Step 系列通用大模型新品:Step-2 万亿参数语言大模型正式版、Step-1.5V 多模态大模型、Step-1X 图像生成大模型。

来自主题: AI资讯
6694 点击    2024-07-05 00:39
揭秘:阶跃星辰万亿MoE+多模态大模型矩阵亮相

揭秘:阶跃星辰万亿MoE+多模态大模型矩阵亮相

揭秘:阶跃星辰万亿MoE+多模态大模型矩阵亮相

在 2024 年世界人工智能大会的现场,很多人在一个展台前排队,只为让 AI 大模型给自己在天庭「安排」一个差事。

来自主题: AI资讯
6376 点击    2024-07-05 00:08
单个4090可推理,2000亿稀疏大模型「天工MoE」开源

单个4090可推理,2000亿稀疏大模型「天工MoE」开源

单个4090可推理,2000亿稀疏大模型「天工MoE」开源

在大模型浪潮中,训练和部署最先进的密集 LLM 在计算需求和相关成本上带来了巨大挑战,尤其是在数百亿或数千亿参数的规模上。为了应对这些挑战,稀疏模型,如专家混合模型(MoE),已经变得越来越重要。这些模型通过将计算分配给各种专门的子模型或「专家」,提供了一种经济上更可行的替代方案,有可能以极低的资源需求达到甚至超过密集型模型的性能。

来自主题: AI技术研报
8602 点击    2024-06-04 17:59
马斯克烧60亿美元难题,国内大厂有解?开源MoE模算效率黑马登场,3.7B参数单挑Llama 3-70B

马斯克烧60亿美元难题,国内大厂有解?开源MoE模算效率黑马登场,3.7B参数单挑Llama 3-70B

马斯克烧60亿美元难题,国内大厂有解?开源MoE模算效率黑马登场,3.7B参数单挑Llama 3-70B

马斯克最近哭穷表示,xAI需要部署10万个H100才能训出Grok 3,影响全球的大模型算力荒怎么解?昨天开源的这款MoE大模型,只用了1/19算力、1/19激活参数,性能就直接全面对标Llama 3-70B!

来自主题: AI技术研报
7420 点击    2024-05-29 15:14