
又是王冠:27M小模型超越o3-mini!拒绝马斯克的00后果然不同
又是王冠:27M小模型超越o3-mini!拒绝马斯克的00后果然不同27M小模型超越o3-mini-high和DeepSeek-R1!推理还不靠思维链。 开发者是那位拒绝了马斯克、还要挑战Transformer的00后清华校友,Sapient Intelligence的创始人王冠。
27M小模型超越o3-mini-high和DeepSeek-R1!推理还不靠思维链。 开发者是那位拒绝了马斯克、还要挑战Transformer的00后清华校友,Sapient Intelligence的创始人王冠。
AIGC时代最火的创作者是谁?是不是第一时间也想不到某个具体的名字或者账号。这就是如今AI创作圈的真实现状——模型越做越强,工具越来越多,但真正凭AI创作出圈的人,依然寥寥无几。
现过去几个月,我把 Claude Code 当“外包程序员”用,爽是爽,但也踩了三大坑:容易跑偏、交付不稳定、成本不可控。直到我换了思路——别把它当单体 AI,而是按角色拆分、按流程固化、按能力外接、按体验提效。
不会使用AI的工程师就会落后。一位工程师小哥科尔顿·沃奇,说看到这类观点引发了自己巨大的精神焦虑。幸好他是一个持怀疑态度的人,测试完一堆AI开发工具后,发现也就那么回事。
一句话概括,本文探索了语言模型的终极内卷模式:不再依赖人类投喂,通过“自问自答”的左右互搏,硬生生把自己逼成了学霸。AlphaGo下棋我懂,这大模型自己给自己出数学题做就有点离谱了,堪称AI界的“闭关修炼”,出关即无敌。
OpenAI在短短两个月内,让AI从挣扎于小学数学题跃升至国际数学奥林匹克(IMO)金牌水平,背后是通用AI技术的突破。
在可验证强化学习(RLVR)的推动下,大语言模型在单轮推理任务中已展现出不俗表现。然而在真实推理场景中,LLM 往往需要结合外部工具进行多轮交互,现有 RL 算法在平衡模型的长程推理与多轮工具交互能力方面仍存在不足。
爱在西元前的歌词里唱到:「当古文明只剩下难解的语言,传说就成了永垂不朽的诗篇。」如今借助DeepMind推出的生成式AI工具Aeneas,考古学家面对古代碑文不再抓瞎了。
日前有网友发现沉浸式翻译扩展程序的部分用户数据暴露在互联网上,这些数据包含部分敏感内容例如加密货币钱包私钥甚至是企业 / 机构的商业合同等。严格来说此次问题并非安全漏洞而是沉浸式翻译提供的功能存在缺陷,即没有对快照链接进行保护导致搜索引擎爬虫可以直接抓取内容并将其放置互联网上公开索引。
厌倦了在Google News、X等平台间切换导致的信息茧房,我发现Particle News通过AI将碎片化新闻整合为“故事拼盘”,并加入多视角分析、即时问答和政治光谱可视化功能,有望打破信息茧房束缚。