arXiv创始人亲测:水论文这一块,Grok最强,Claude最不配合
arXiv创始人亲测:水论文这一块,Grok最强,Claude最不配合刚刚,Nature报道了一项关于AI“水论文”的新研究,牵头人之一,正是arXiv创始人Paul Ginsparg。老板亲自下场的原因很简单,就是这几年arXiv投稿量激增,导致系统不堪重负,而罪魁祸首很可能就是AI。
刚刚,Nature报道了一项关于AI“水论文”的新研究,牵头人之一,正是arXiv创始人Paul Ginsparg。老板亲自下场的原因很简单,就是这几年arXiv投稿量激增,导致系统不堪重负,而罪魁祸首很可能就是AI。
近期,大连理工与快手可灵团队推出了 MultiShotMaster—— 一个高度可控的多镜头视频生成框架,该论文向研究社区展示了即使在 1B 左右的小参数量级模型上,也可以实现导演级的镜头调度和连贯叙事,且支持多图参考、主体运动控制。
昨天,Thinking Maching Lab 研究者、斯坦福大学博士生 Zitong Yang 正式完成了他的博士论文答辩,课题为「持续自我提升式 AI」(Continually self-improving AI),并且他在答辩完成后很快就放出了自己的答辩视频,从中我们可以看到他对未来 AI 发展路径的系统性探索。
近年来,视觉大模型在自动驾驶、智慧医疗等场景中得到广泛应用,但在真实业务环境中,“大而全”的通用模型往往并不是最优选择。
过去,科学家观察研究细胞的工具很有限。
OpenAI的人才地震还在继续!刚刚,前研究副总裁Max Schwarzer宣布离职,这位亲手主导o1、o3和整个GPT-5系列post-training的核心人物,选择加入Anthropic,重返一线RL研究。
大家好,我是最近疯狂研究OpenClaw的袋鼠帝。
来自中国人民大学与阿里巴巴通义实验室的研究团队提出了 IterResearch,一种全新的迭代式深度研究范式。通过马尔可夫式的工作空间重构,IterResearch 让 Agent 在仅 40K 上下文长度下完成了 2048 次工具交互且性能不衰减,在 BrowseComp 上从 3.5% 一路攀升至 42.5%。
为了松绑参数与计算量,MoE 曾被寄予厚望 。它靠着稀疏激活的专家子网络,在一定程度上实现了模型容量与计算量的解耦 。然而,近期的研究表明,这并非没有代价的免费午餐 :稀疏模型通常具有更低的样本效率 ;随着稀疏度增大,路由负载均衡变得更加困难 ,且巨大的显存开销和通信压力导致其推理吞吐量往往远低于同等激活参数量的 dense 模型 。
不卖关子,它正是由上海科学智能研究院(上智院)联合复旦大学最新发布的超级科研合伙人——大圣。是一个系统级的、面向科学探索的高能动性智能体,致力于持续推动科研范式变革。