
Hugging Face发布开放权重模型贡献榜:中国团队Qwen与DeepSeek跻身TOP15
Hugging Face发布开放权重模型贡献榜:中国团队Qwen与DeepSeek跻身TOP15全球知名开源AI平台Hugging Face近日发布开放权重模型贡献榜,中国团队Qwen和DeepSeek成功入围前15名,彰显了中国在全球开源AI领域的技术实力与影响力。该榜单表彰为开源社区提供高质量模型权重的团队,其模型广泛应用于学术与产业创新。
全球知名开源AI平台Hugging Face近日发布开放权重模型贡献榜,中国团队Qwen和DeepSeek成功入围前15名,彰显了中国在全球开源AI领域的技术实力与影响力。该榜单表彰为开源社区提供高质量模型权重的团队,其模型广泛应用于学术与产业创新。
“欧洲的OpenAI”Mistral AI终于发布了首款推理模型——Magistral。 然而再一次遭到网友质疑:怎么又不跟最新版Qwen和DeepSeek R1 0528对比?
translate.js(https://github.com/xnx3/translate)是面向开发者打造的一个简单而强大的前端国际化工具,专注于提供极简高效的多语言切换能力。项目完全开源并允许商业使用。
当前,强化学习(RL)在提升大语言模型(LLM)推理能力方面展现出巨大潜力。DeepSeek R1、Kimi K1.5 和 Qwen 3 等模型充分证明了 RL 在增强 LLM 复杂推理能力方面的有效性。
6 月 6 日,小红书 hi lab(Humane Intelligence Lab,人文智能实验室)团队首次开源了文本大模型 dots.llm1,采用 MIT 许可证。
近期arxiv最热门论文,Qwen&清华LeapLab团队最新成果: 在强化学习训练大模型推理能力时,仅仅20%的高熵token就能撑起整个训练效果,甚至比用全部token训练还要好。
Hi,我是银海。 你身边的AI产品经理,陪你解决每一个真实问题。
一项新的强化学习方法,直接让Qwen性能大增,GPT-4o被赶超!
即使RLVR(可验证奖励强化学习)使用错误的奖励信号,Qwen性能也能得到显著提升?
大语言模型遇上加密数据,即使是最新Qwen3也直冒冷汗!