AI资讯新闻榜单内容搜索-Qwen3

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
搜索: Qwen3
Meta开源MobileLLM-R1模型,不到1B参数,用1/10的训练就超越了Qwen3

Meta开源MobileLLM-R1模型,不到1B参数,用1/10的训练就超越了Qwen3

Meta开源MobileLLM-R1模型,不到1B参数,用1/10的训练就超越了Qwen3

本周五,Meta AI 团队正式发布了 MobileLLM-R1。 这是 MobileLLM 的全新高效推理模型系列,包含两类模型:基础模型 MobileLLM-R1-140M-base、MobileLLM-R1-360M-base、MobileLLM-R1-950M-base 和它们相应的最终模型版。

来自主题: AI技术研报
7299 点击    2025-09-14 11:16
实测!Qwen下一代基础架构突袭!秒解AIME数学竞赛题,提速10倍+性价比提升10倍

实测!Qwen下一代基础架构突袭!秒解AIME数学竞赛题,提速10倍+性价比提升10倍

实测!Qwen下一代基础架构突袭!秒解AIME数学竞赛题,提速10倍+性价比提升10倍

Qwen下一代模型架构,抢先来袭! Qwen3-Next发布,Qwen团队负责人林俊旸说,这就是Qwen3.5的抢先预览版。 基于Qwen3-Next,团队先开源了Qwen3-Next-80B-A3B-Base。

来自主题: AI资讯
9271 点击    2025-09-12 17:21
全新MoE架构!阿里开源Qwen3-Next,训练成本直降9成

全新MoE架构!阿里开源Qwen3-Next,训练成本直降9成

全新MoE架构!阿里开源Qwen3-Next,训练成本直降9成

训练、推理性价比创新高。 大语言模型(LLM),正在进入 Next Level。 周五凌晨,阿里通义团队正式发布、开源了下一代基础模型架构 Qwen3-Next。总参数 80B 的模型仅激活 3B ,性能就可媲美千问 3 旗舰版 235B 模型,也超越了 Gemini-2.5-Flash-Thinking,实现了模型计算效率的重大突破。

来自主题: AI资讯
9492 点击    2025-09-12 10:10
拜拜Claude!阿里最强万亿模型编程秒了Opus4,实测在此

拜拜Claude!阿里最强万亿模型编程秒了Opus4,实测在此

拜拜Claude!阿里最强万亿模型编程秒了Opus4,实测在此

总参数达到1万亿,阿里迄今为止最大的模型来了! 没错,就是前几日大家期待已久的Qwen3-Max-Preview (Instruct)。

来自主题: AI产品测评
7043 点击    2025-09-07 12:30
刚刚,阿里首个超万亿参数新王登基!Qwen3-Max屠榜全SOTA,碾压DeepSeek V3.1

刚刚,阿里首个超万亿参数新王登基!Qwen3-Max屠榜全SOTA,碾压DeepSeek V3.1

刚刚,阿里首个超万亿参数新王登基!Qwen3-Max屠榜全SOTA,碾压DeepSeek V3.1

阿里迄今为止,参数最大的模型诞生了!昨夜,Qwen3-Max-Preview(Instruct)官宣上线,超1万亿参数性能爆表。在全球主流权威基准测试中,Qwen3-Max-Preview狂揽非推理模型「C」位,直接碾压Claude-Opus 4(Non-Thinking)、Kimi-K2、DeepSeek-V3.1。

来自主题: AI资讯
9203 点击    2025-09-06 10:16
AI也邪修!Qwen3改Bug测试直接搜GitHub,太拟人了

AI也邪修!Qwen3改Bug测试直接搜GitHub,太拟人了

AI也邪修!Qwen3改Bug测试直接搜GitHub,太拟人了

大模型也会玩信息差了。 Qwen3在基准测试中居然学会了钻空子。

来自主题: AI资讯
6363 点击    2025-09-04 15:26
Meta没做的,英伟达做了!全新架构吞吐量狂飙6倍,20万亿Token训练

Meta没做的,英伟达做了!全新架构吞吐量狂飙6倍,20万亿Token训练

Meta没做的,英伟达做了!全新架构吞吐量狂飙6倍,20万亿Token训练

英伟达发布全新架构9B模型,以Mamba-Transformer混合架构实现推理吞吐量最高提升6倍,对标Qwen3-8B并在数学、代码、推理与长上下文任务中表现持平或更优。

来自主题: AI资讯
6759 点击    2025-08-19 11:35
硬核拆解!从GPT-2到gpt-oss,揭秘大模型进化关键密码

硬核拆解!从GPT-2到gpt-oss,揭秘大模型进化关键密码

硬核拆解!从GPT-2到gpt-oss,揭秘大模型进化关键密码

自GPT-2以来,大模型的整体架构虽然未有大的变化,但从未停止演化的脚步。借OpenAI开源gpt-oss(120B/20B),Sebastian Raschka博士将我们带回硬核拆机现场,回溯了从GPT-2到gpt-oss的大模型演进之路,并将gpt-oss与Qwen3进行了详细对比。

来自主题: AI技术研报
7133 点击    2025-08-18 11:13
史上最大高质量科学推理后训练数据集开源,快速让Qwen3等变“科学家”

史上最大高质量科学推理后训练数据集开源,快速让Qwen3等变“科学家”

史上最大高质量科学推理后训练数据集开源,快速让Qwen3等变“科学家”

有史规模最大的开源科学推理后训练数据集来了! 上海创智学院、上海交通大学(GAIR Lab)发布MegaScience。该数据集包含约125万条问答对及其参考答案,广泛覆盖生物学、化学、计算机科学、经济学、数学、医学、物理学等多个学科领域,旨在为通用人工智能系统的科学推理能力训练与评估提供坚实的数据。

来自主题: AI技术研报
5763 点击    2025-08-09 15:52
DeepSeek的GRPO会导致模型崩溃?看下Qwen3新范式GSPO

DeepSeek的GRPO会导致模型崩溃?看下Qwen3新范式GSPO

DeepSeek的GRPO会导致模型崩溃?看下Qwen3新范式GSPO

众所周知,大型语言模型的训练通常分为两个阶段。第一阶段是「预训练」,开发者利用大规模文本数据集训练模型,让它学会预测句子中的下一个词。第二阶段是「后训练」,旨在教会模型如何更好地理解和执行人类指令。

来自主题: AI技术研报
7626 点击    2025-08-08 11:22