AI资讯新闻榜单内容搜索-CoT

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
搜索: CoT
ACL 2025 | 基于Token预算感知的大模型高效推理技术

ACL 2025 | 基于Token预算感知的大模型高效推理技术

ACL 2025 | 基于Token预算感知的大模型高效推理技术

随着大型语言模型(LLM)技术的不断发展,Chain-of-Thought(CoT) 等推理增强方法被提出,以期提升模型在数学题解、逻辑问答等复杂任务中的表现,并通过引导模型逐步思考,有效提高了模型准确率。

来自主题: AI技术研报
5549 点击    2025-06-05 16:14
低Token高精度!字节复旦推出自适应推理框架CAR

低Token高精度!字节复旦推出自适应推理框架CAR

低Token高精度!字节复旦推出自适应推理框架CAR

过度依赖CoT思维链推理会降低模型性能,有新解了! 来自字节、复旦大学的研究人员提出自适应推理框架CAR,能根据模型困惑度动态选择短回答或详细的长文本推理,最终实现了准确性与效率的最佳平衡。

来自主题: AI技术研报
5260 点击    2025-05-28 16:36
翁荔最新万字长文:Why We Think

翁荔最新万字长文:Why We Think

翁荔最新万字长文:Why We Think

《Why We Think》。 这就是北大校友、前OpenAI华人VP翁荔所发布的最新万字长文—— 围绕“测试时计算”(Test-time Compute)和“思维链”(Chain-of-Thought,CoT),讨论了如何通过这些技术显著提升模型性能。

来自主题: AI资讯
6999 点击    2025-05-19 13:15
首个多模态统一CoT奖励模型来了,模型、数据集、训练脚本全开源

首个多模态统一CoT奖励模型来了,模型、数据集、训练脚本全开源

首个多模态统一CoT奖励模型来了,模型、数据集、训练脚本全开源

在多模态大模型快速发展的当下,如何精准评估其生成内容的质量,正成为多模态大模型与人类偏好对齐的核心挑战。然而,当前主流多模态奖励模型往往只能直接给出评分决策,或仅具备浅层推理能力,缺乏对复杂奖励任务的深入理解与解释能力,在高复杂度场景中常出现 “失真失准”。

来自主题: AI技术研报
8884 点击    2025-05-14 11:01
RL训练总崩溃?R1-Reward稳定解锁奖励模型Long-Cot推理能力

RL训练总崩溃?R1-Reward稳定解锁奖励模型Long-Cot推理能力

RL训练总崩溃?R1-Reward稳定解锁奖励模型Long-Cot推理能力

多模态奖励模型(MRMs)在提升多模态大语言模型(MLLMs)的表现中起着至关重要的作用,在训练阶段可以提供稳定的 reward,评估阶段可以选择更好的 sample 结果,甚至单独作为 evaluator。

来自主题: AI技术研报
7136 点击    2025-05-12 14:51
字节Seed团队PHD-Transformer突破预训练长度扩展!破解KV缓存膨胀难题

字节Seed团队PHD-Transformer突破预训练长度扩展!破解KV缓存膨胀难题

字节Seed团队PHD-Transformer突破预训练长度扩展!破解KV缓存膨胀难题

最近,DeepSeek-R1 和 OpenAI o1/03 等推理大模型在后训练阶段探索了长度扩展(length scaling),通过强化学习(比如 PPO、GPRO)训练模型生成很长的推理链(CoT),并在奥数等高难度推理任务上取得了显著的效果提升。

来自主题: AI技术研报
5494 点击    2025-04-28 14:09