北大、清华、UvA、CMU等联合发布:大模型逻辑推理能力最新综述
北大、清华、UvA、CMU等联合发布:大模型逻辑推理能力最新综述当前大模型研究正逐步从依赖扩展定律(Scaling Law)的预训练,转向聚焦推理能力的后训练。鉴于符号逻辑推理的有效性与普遍性,提升大模型的逻辑推理能力成为解决幻觉问题的关键途径。
当前大模型研究正逐步从依赖扩展定律(Scaling Law)的预训练,转向聚焦推理能力的后训练。鉴于符号逻辑推理的有效性与普遍性,提升大模型的逻辑推理能力成为解决幻觉问题的关键途径。
据内部人士透露,由 OpenAI 前训练后研究副总裁利亚姆·费杜斯创立的初创公司 Periodic Labs,已向潜在投资者表示希望以至少 10 亿美元的估值筹集数亿美元资金。这对于仅成立两个月的初创企业来说是一个相当高的估值。
2000多年未解之谜被AI破解!2025年,研究人员首次非侵入性地读取到仍卷着的赫库兰尼姆古卷标题。这一突破来自维苏威挑战赛,获奖团队赢得6万美元,更为沉睡两千年的古代智慧开启了解读新纪元。
你信任的AI排行榜,可能只是一场精心策划的骗局!震惊业界的Cohere Labs最新研究彻底撕破了Chatbot Arena这一所谓"黄金标准"的华丽面纱,揭露了科技巨头们如何肆无忌惮地操控评估系统、掠夺社区资源、扼杀开源创新。
研究揭示早融合架构在低计算预算下表现更优,训练效率更高。混合专家(MoE)技术让模型动态适应不同模态,显著提升性能,堪称多模态模型的秘密武器。
科幻中AI自我复制失控场景,正成为现实世界严肃的研究课题。英国AISI推出RepliBench基准,分解并评估AI自主复制所需的四大核心能力。测试显示,当前AI尚不具备完全自主复制能力,但在获取资源等子任务上已展现显著进展。
本文深入梳理了围绕DeepSeek-R1展开的多项复现研究,系统解析了监督微调(SFT)、强化学习(RL)以及奖励机制、数据构建等关键技术细节。
该研究对 LLM 常见的失败模式贪婪性、频率偏差和知 - 行差距,进行了深入研究。
在这场通往AGI的竞赛中,人类或许正在逐渐走向失控。MIT最新研究指出:即使采用最理想的监督机制,人类成功控制超级智能的概率也仅为52%,而全面失控的风险可能超过90%。
AI也会偷偷努力了?Letta和UC伯克利的研究者提出「睡眠时计算」技术,能让LLM在空闲时间提前思考,大幅提升推理效率。