开源Qwen一周连刷三冠,暴击闭源模型!基础模型推理编程均SOTA
开源Qwen一周连刷三冠,暴击闭源模型!基础模型推理编程均SOTA卷疯了,通义千问真的卷疯了。
卷疯了,通义千问真的卷疯了。
开源大模型正在进入中国时间。 Kimi K2风头正盛,然而不到一周,Qwen3就迎来最新升级,235B总参数量仅占Kimi K2 1T规模的四分之一。 基准测试性能上却超越了Kimi K2。
昨晚凌晨,通义千问团队宣布,已对其旗舰模型 Qwen3 进行升级,并推出非思考模式(Non-thinking)的更新版本:Qwen3-235B-A22B-Instruct-2507-FP8。此次更新旨在提升模型的综合能力
7月11日晚间,阿里通义千问团队宣布,对其人工智能聊天产品Qwen Chat进行重大更新,在优化用户交互体验的同时,还新增了多项实用功能。7月11日晚间,阿里通义千问团队宣布,对其人工智能聊天产品Qwen Chat进行重大更新,在优化用户交互体验的同时,还新增了多项实用功能。
华为 Pangu 员工自曝盘古模型并非如内部宣称的是“从旧的135B参数继承改造而来”,而是直接套用阿里千问 1.5 110B 模型进行续训(通过加层、扩增FFN维度、添加PI机制凑参数)。作者指出:
每次更换语言模型就要重新优化提示词?资源浪费且效率低下!本文介绍MetaSPO框架,首个专注模型迁移系统提示优化的元学习方法,让一次优化的提示可跨模型通用。我在儿童教育场景的实验验证了效果:框架自动生成了五种不同教育范式的系统提示,最优的"苏格拉底式"提示成功由DeepSeek-V3迁移到通义千问模型,评分从0.3920提升至0.4362。
数字生命最靠谱的项目底座。就在这几天一个项目火了,就是叫做weclone。总的来说基于微信聊天记录来生成你的数字分身,现在开源了整个项目的技术是使用python来完成的,并且支持阿里同义千问2.5,现在已经有8.7K收藏了。
2025年4月29日凌晨,距离通义千问Qwen3正式发布还有5小时,X和GitHub上的开发者们已经搬好小板凳蹲守发布。开源社区的技术爱好者们熬夜刷新,等待第一时间测试和体验这款备受期待的中国大模型新作。
一觉醒来,全球开源的王座更替了,不是 R2。好消息是,中国用户依然是最大的受益者。
Qwen 3还未发布,但已发布的Qwen系列含金量还在上升。2个月前,李飞飞团队基于Qwen2.5-32B-Instruct 模型,以不到50美元的成本训练出新模型 S1-32B,取得了与 OpenAI 的 o1 和 DeepSeek 的 R1 等尖端推理模型数学及编码能力相当的效果。如今,他们的视线再次投向了这个国产模型。