AI资讯新闻榜单内容搜索-CoT

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
搜索: CoT
为什么你用AI编程总拿不到想要的结果?北航研究揭秘:50%问题来自CoT和你自己

为什么你用AI编程总拿不到想要的结果?北航研究揭秘:50%问题来自CoT和你自己

为什么你用AI编程总拿不到想要的结果?北航研究揭秘:50%问题来自CoT和你自己

现在几乎所有主流的代码生成工具都在用CoT。但问题来了:这些"思考步骤"真的可靠吗?来自北京航空航天大学的研究者们发现,虽然CoT提升了性能,但关于这些中间推理步骤的质量,学术界竟然没有系统性的研究!

来自主题: AI技术研报
6304 点击    2025-07-16 10:13
Bengio亲手戳穿CoT神话!LLM推理是假象,25%顶会论文遭打脸

Bengio亲手戳穿CoT神话!LLM推理是假象,25%顶会论文遭打脸

Bengio亲手戳穿CoT神话!LLM推理是假象,25%顶会论文遭打脸

原来,CoT推理竟是假象!Bengio带队最新论文戳穿了CoT神话——我们所看到的推理步骤,并非是真实的。不仅如此,LLM在推理时会悄然纠正错误,却在CoT中只字未提。

来自主题: AI技术研报
8537 点击    2025-07-03 11:09
只用2700万参数,这个推理模型超越了DeepSeek和Claude

只用2700万参数,这个推理模型超越了DeepSeek和Claude

只用2700万参数,这个推理模型超越了DeepSeek和Claude

像人一样推理。 大模型的架构,到了需要变革的时候? 在对复杂任务的推理工作上,当前的大语言模型(LLM)主要采用思维链(CoT)技术,但这些技术存在任务分解复杂、数据需求大以及高延迟等问题。

来自主题: AI技术研报
6430 点击    2025-07-01 10:26
知识储备≠模型能力!DeepMind强化学习微调:大幅缩小「知行差距」

知识储备≠模型能力!DeepMind强化学习微调:大幅缩小「知行差距」

知识储备≠模型能力!DeepMind强化学习微调:大幅缩小「知行差距」

大语言模型(LLMs)在决策场景中常因贪婪性、频率偏差和知行差距表现欠佳。研究者提出强化学习微调(RLFT),通过自我生成的推理链(CoT)优化模型,提升决策能力。实验表明,RLFT可增加模型探索性,缩小知行差距,但探索策略仍有改进空间。

来自主题: AI技术研报
6582 点击    2025-06-22 11:34
DPO与GRPO谁更胜一筹?港中文、北大等联合发布首个系统性对比研究

DPO与GRPO谁更胜一筹?港中文、北大等联合发布首个系统性对比研究

DPO与GRPO谁更胜一筹?港中文、北大等联合发布首个系统性对比研究

近年来,强化学习 (RL) 在提升大型语言模型 (LLM) 的链式思考 (CoT) 推理能力方面展现出巨大潜力,其中直接偏好优化 (DPO) 和组相对策略优化 (GRPO) 是两大主流算法。

来自主题: AI技术研报
7677 点击    2025-06-20 10:53
Cognition 创始人 Scott Wu:AI 是人类史上最大生产杠杆,不仅仅是改写软件行业,而是一场结构性转移

Cognition 创始人 Scott Wu:AI 是人类史上最大生产杠杆,不仅仅是改写软件行业,而是一场结构性转移

Cognition 创始人 Scott Wu:AI 是人类史上最大生产杠杆,不仅仅是改写软件行业,而是一场结构性转移

在生成式 AI 迅猛演进的时代浪潮中,Cognition AI 正成为硅谷最受瞩目的技术公司之一。而其背后,是一位横跨数学竞赛、工程实践与系统构建的 90 后创始人——Scott Wu。

来自主题: AI资讯
6148 点击    2025-06-18 15:43
细粒度视觉推理链引入数学领域,准确率暴涨32%,港中文MMLab打破多模态数学推理瓶颈

细粒度视觉推理链引入数学领域,准确率暴涨32%,港中文MMLab打破多模态数学推理瓶颈

细粒度视觉推理链引入数学领域,准确率暴涨32%,港中文MMLab打破多模态数学推理瓶颈

思维链(Chain of Thought, CoT)推理方法已被证明能够显著提升大语言模型(LLMs)在复杂任务中的表现。而在多模态大语言模型(MLLMs)中,CoT 同样展现出了巨大潜力。

来自主题: AI技术研报
8636 点击    2025-06-17 10:21
ACL 2025 | 基于Token预算感知的大模型高效推理技术

ACL 2025 | 基于Token预算感知的大模型高效推理技术

ACL 2025 | 基于Token预算感知的大模型高效推理技术

随着大型语言模型(LLM)技术的不断发展,Chain-of-Thought(CoT) 等推理增强方法被提出,以期提升模型在数学题解、逻辑问答等复杂任务中的表现,并通过引导模型逐步思考,有效提高了模型准确率。

来自主题: AI技术研报
6017 点击    2025-06-05 16:14