AI资讯新闻榜单内容搜索-Nemotron

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
搜索: Nemotron
英伟达再出手!新型混合架构模型问世,两大创新实现53.6倍吞吐提速

英伟达再出手!新型混合架构模型问世,两大创新实现53.6倍吞吐提速

英伟达再出手!新型混合架构模型问世,两大创新实现53.6倍吞吐提速

Transformer 架构对计算和内存的巨大需求使得大模型效率的提升成为一大难题。为应对这一挑战,研究者们投入了大量精力来设计更高效的 LM 架构。

来自主题: AI技术研报
6337 点击    2025-08-27 11:46
刚刚,英伟达新模型上线!4B推理狂飙53倍,全新注意力架构超越Mamba 2

刚刚,英伟达新模型上线!4B推理狂飙53倍,全新注意力架构超越Mamba 2

刚刚,英伟达新模型上线!4B推理狂飙53倍,全新注意力架构超越Mamba 2

Jet-Nemotron是英伟达最新推出的小模型系列(2B/4B),由全华人团队打造。其核心创新在于提出后神经架构搜索(PostNAS)与新型线性注意力模块JetBlock,实现了从预训练Transformer出发的高效架构优化。

来自主题: AI技术研报
6617 点击    2025-08-26 19:34
英伟达韩松团队新作:具有后神经架构搜索的高效语言模型

英伟达韩松团队新作:具有后神经架构搜索的高效语言模型

英伟达韩松团队新作:具有后神经架构搜索的高效语言模型

英伟达开源又放大招了! 韩松团队推出了一款全新的基于后神经架构搜索的高效语言模型——Jet-Nemotron。

来自主题: AI资讯
6310 点击    2025-08-26 19:00
Meta没做的,英伟达做了!全新架构吞吐量狂飙6倍,20万亿Token训练

Meta没做的,英伟达做了!全新架构吞吐量狂飙6倍,20万亿Token训练

Meta没做的,英伟达做了!全新架构吞吐量狂飙6倍,20万亿Token训练

英伟达发布全新架构9B模型,以Mamba-Transformer混合架构实现推理吞吐量最高提升6倍,对标Qwen3-8B并在数学、代码、推理与长上下文任务中表现持平或更优。

来自主题: AI资讯
6849 点击    2025-08-19 11:35
「DeepSeek二代」来袭!数学暴击o3,英伟达开源LLM登顶

「DeepSeek二代」来袭!数学暴击o3,英伟达开源LLM登顶

「DeepSeek二代」来袭!数学暴击o3,英伟达开源LLM登顶

基于Qwen2.5架构,采用DeepSeek-R1-0528生成数据,英伟达推出的OpenReasoning-Nemotron模型,以超强推理能力突破数学、科学、代码任务,在多个基准测试中创下新纪录!数学上,更是超越了o3!

来自主题: AI资讯
8175 点击    2025-07-20 23:43
刚刚,英伟达任命新首席研究科学家!95后,本科来自清华

刚刚,英伟达任命新首席研究科学家!95后,本科来自清华

刚刚,英伟达任命新首席研究科学家!95后,本科来自清华

老黄惊喜现身,与95后清华校友合影曝光,确认Banghua Zhu加入Star Nemotron团队,专注企业级智能体研发。同时Jiantao Jiao官宣入职英伟达。两人曾联合创办Nexusflow。

来自主题: AI资讯
6085 点击    2025-06-29 13:22
超越DeepSeek-R1,英伟达开源新王登顶!14万H100小时训练细节全曝光

超越DeepSeek-R1,英伟达开源新王登顶!14万H100小时训练细节全曝光

超越DeepSeek-R1,英伟达开源新王登顶!14万H100小时训练细节全曝光

超越DeepSeek-R1的英伟达开源新王Llama-Nemotron,是怎么训练出来的?刚刚放出的论文,把一切细节毫无保留地全部揭秘了!

来自主题: AI技术研报
7695 点击    2025-05-06 17:08
英伟达AI奥赛夺冠,1.5B数学碾压DeepSeek-R1!代码全系开源,陶哲轩点赞

英伟达AI奥赛夺冠,1.5B数学碾压DeepSeek-R1!代码全系开源,陶哲轩点赞

英伟达AI奥赛夺冠,1.5B数学碾压DeepSeek-R1!代码全系开源,陶哲轩点赞

AIMO2冠军「答卷」公布了!英伟达团队NemoSkills拔得头筹,开源了OpenMath-Nemotron系列AI模型,1.5B小模型击败14B-DeepSeek「推理大模型」!

来自主题: AI技术研报
6564 点击    2025-04-26 17:17
Transformer+Mamba黄金组合!长文推理性能飙升3倍,性能还更强

Transformer+Mamba黄金组合!长文推理性能飙升3倍,性能还更强

Transformer+Mamba黄金组合!长文推理性能飙升3倍,性能还更强

Nemotron-H模型混合了Transformer和Mamba架构,使长文本推理速度提升3倍,同时还能保持高性能,开源版本包括8B和56B尺寸。训练过程采用FP8训练和压缩技术,进一步提高了20%推理速度

来自主题: AI产品测评
7201 点击    2025-04-20 20:47