AI资讯新闻榜单内容搜索-训练

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
搜索: 训练
妈妈再也不用担心延迟了!斯坦福手搓Llama超级内核,推理仅需0.00068秒

妈妈再也不用担心延迟了!斯坦福手搓Llama超级内核,推理仅需0.00068秒

妈妈再也不用担心延迟了!斯坦福手搓Llama超级内核,推理仅需0.00068秒

斯坦福Hazy实验室推出新一代低延迟推理引擎「Megakernel」,将Llama-1B模型前向传播完整融合进单一GPU内核,实现推理时间低于1毫秒。在B200上每次推理仅需680微秒,比vLLM快3.5倍。

来自主题: AI技术研报
7952 点击    2025-05-30 12:36
谷歌之后,英伟达入局扩散大语言模型,Fast-dLLM推理速度狂飙27.6倍

谷歌之后,英伟达入局扩散大语言模型,Fast-dLLM推理速度狂飙27.6倍

谷歌之后,英伟达入局扩散大语言模型,Fast-dLLM推理速度狂飙27.6倍

近日,NVIDIA 联合香港大学、MIT 等机构重磅推出 Fast-dLLM,以无需训练的即插即用加速方案,实现了推理速度的突破!通过创新的技术组合,在不依赖重新训练模型的前提下,该工作为扩散模型的推理加速带来了突破性进展。本文将结合具体技术细节与实验数据,解析其核心优势。

来自主题: AI技术研报
7448 点击    2025-05-30 12:08
自进化零监督多Agent框架: MAS-ZERO,让AI因地制宜动态适应

自进化零监督多Agent框架: MAS-ZERO,让AI因地制宜动态适应

自进化零监督多Agent框架: MAS-ZERO,让AI因地制宜动态适应

主席在《矛盾论》中强调"具体问题具体分析,是Marxism的活的灵魂"。而在AI领域,我们终于有了一个能够践行这一哲学思想的技术框架——MAS-ZERO,帮我们构建能够因地制宜、因时制宜的智能系统。

来自主题: AI技术研报
6043 点击    2025-05-30 12:03
Linear-MoE:线性注意力遇上混合专家的开源实践

Linear-MoE:线性注意力遇上混合专家的开源实践

Linear-MoE:线性注意力遇上混合专家的开源实践

来自上海人工智能实验室团队的最新成果 Linear-MoE,首次系统性地实现了线性序列建模与 MoE 的高效结合,并开源了完整的技术框架,包括 Modeling 和 Training 两大部分,并支持层间混合架构。为下一代基础模型架构的研发提供了有价值的工具和经验。

来自主题: AI技术研报
7395 点击    2025-05-30 12:03
还得是华为!Pangu Ultra MoE架构:不用GPU,你也可以这样训练准万亿MoE大模型

还得是华为!Pangu Ultra MoE架构:不用GPU,你也可以这样训练准万亿MoE大模型

还得是华为!Pangu Ultra MoE架构:不用GPU,你也可以这样训练准万亿MoE大模型

Pangu Ultra MoE 是一个全流程在昇腾 NPU 上训练的准万亿 MoE 模型,此前发布了英文技术报告[1]。最近华为盘古团队发布了 Pangu Ultra MoE 模型架构与训练方法的中文技术报告,进一步披露了这个模型的细节。

来自主题: AI技术研报
7919 点击    2025-05-29 16:47
RSS 2025|从说明书学习复杂机器人操作任务:NUS邵林团队提出全新机器人装配技能学习框架Manual2Skill

RSS 2025|从说明书学习复杂机器人操作任务:NUS邵林团队提出全新机器人装配技能学习框架Manual2Skill

RSS 2025|从说明书学习复杂机器人操作任务:NUS邵林团队提出全新机器人装配技能学习框架Manual2Skill

视觉语言模型(Vision-Language Models, VLMs),为真实环境中的机器人操作任务提供了极具潜力的解决方案。

来自主题: AI技术研报
8309 点击    2025-05-29 16:33
市盈率超 500 倍,AI 巨头 Palantir 的璀璨与迷思

市盈率超 500 倍,AI 巨头 Palantir 的璀璨与迷思

市盈率超 500 倍,AI 巨头 Palantir 的璀璨与迷思

全球最贵估值科技公司,AI 巨头 Palantir 如何合理定价?

来自主题: AI技术研报
9104 点击    2025-05-29 15:18