小众架构赢麻了!通过编辑功能 LLaDA2.1 让100B扩散模型飙出892 tokens/秒的速度!
小众架构赢麻了!通过编辑功能 LLaDA2.1 让100B扩散模型飙出892 tokens/秒的速度!谁能想到啊,在自回归模型(Autoregressive,AR)当道的现在,一个非主流架构的模型突然杀了回马枪——被长期视为学术玩具的扩散语言模型,直接在复杂编程任务中飙出了892 tokens/秒的速度!
谁能想到啊,在自回归模型(Autoregressive,AR)当道的现在,一个非主流架构的模型突然杀了回马枪——被长期视为学术玩具的扩散语言模型,直接在复杂编程任务中飙出了892 tokens/秒的速度!
就在这个被 Anthropic 和 OpenAI 视为衡量 Agent 真实工程能力全球权威基准 Terminal-Bench 2.0 榜单上,中国团队 Feeling AI 凭借 CodeBrain-1,搭载最新 GPT-5.3-Codex 底座模型,一举冲到 72.9%(70.3%) 并跻身全球排行榜第二,成为榜单前 10 中唯一的中国团队。
昨天刷到 Claude Code 更新日志的时候,看到一个新功能直接让我愣住了。
明明可以去抢,他们却给了你更好的模型?
"我最初装上Codex时说,绝不会让它完全控制我的电脑。这句话大概坚持了两小时。"OpenAI CEO Sam Altman在Cisco AI Summit上坦承,自己现在用两台笔记本电脑工作——一台
Claude,堪称AI界「老油条」。这不,沃顿商学院Ethan Mollick教授发现,Claude Opus 4.6会自主决定「思考」时间。只要不涉及编程、数学的任务,哪怕是再难的问题,干活主打一个「偷工减料」。
在今天,我可以拍着胸脯说,OpenAI的Codex+GPT-5.3-codex,就是你最佳的入门、进阶、毕业的一条龙产品。你要相信我,愚钝如我,也能在它上面感受到进入心流的爽感,一个周末用它,解决了我四五个过去我完全一个人无法实现的开发需求。
用Claude Code写代码的人,终于不用每次开新会话都从头解释项目背景了。顶GitHub开源热榜的一款持久化记忆系统Claude-Mem,直击AI编程助手最致命的痛点:跨会话失忆。
外网都在好奇: 全球模型服务平台 OpenRouter 上这个搜索第一的神秘模型是哪家的? 这个匿名模型叫做「Pony Alpha」。根据 OpenRouter 官方的说法,它是新一代的通用大模型,在编程、逻辑推理和角色扮演方面表现突出,并针对 Agent 工作流进行了优化,具有极高的工具调用准确率。
如果几年前有人跟码农同学说,「你以后可能要和 AI 抢 GitHub 提交记录了」,他大概会笑掉大牙。但现在,他可能完全笑不出来了。