AI技术研报-这里有最前沿的人工智能技术解读

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
长思维链里的推理步骤,哪些最关键?三招锁定LLM的「命门句子」

长思维链里的推理步骤,哪些最关键?三招锁定LLM的「命门句子」

长思维链里的推理步骤,哪些最关键?三招锁定LLM的「命门句子」

思维链里的步骤很重要,但有些步骤比其他步骤更重要,尤其是在一些比较长的思维链中。 找出这些步骤,我们就可以更深入地理解 LLM 的内部推理机制,从而提高模型的可解释性、可调试性和安全性。

来自主题: AI技术研报
6406 点击    2025-07-09 10:51
多模态模型学会“按需搜索”,少搜30%还更准!字节&NTU新研究优化多模态模型搜索策略

多模态模型学会“按需搜索”,少搜30%还更准!字节&NTU新研究优化多模态模型搜索策略

多模态模型学会“按需搜索”,少搜30%还更准!字节&NTU新研究优化多模态模型搜索策略

多模态模型学会“按需搜索”!字节&NTU最新研究,优化多模态模型搜索策略——通过搭建网络搜索工具、构建多模态搜索数据集以及涉及简单有效的奖励机制,首次尝试基于端到端强化学习的多模态模型自主搜索训练。

来自主题: AI技术研报
7166 点击    2025-07-09 10:35
清华第三代Sage注意力发布!提速5倍,精度不降,训推都能用

清华第三代Sage注意力发布!提速5倍,精度不降,训推都能用

清华第三代Sage注意力发布!提速5倍,精度不降,训推都能用

清华大学朱军教授团队提出SageAttention3,利用FP4量化实现推理加速,比FlashAttention快5倍,同时探索了8比特注意力用于训练任务的可行性,在微调中实现了无损性能。

来自主题: AI技术研报
7304 点击    2025-07-08 12:08
Context Engineering不是造新词,IBM揭示LLM推理的认知秘密

Context Engineering不是造新词,IBM揭示LLM推理的认知秘密

Context Engineering不是造新词,IBM揭示LLM推理的认知秘密

当LangChain在6月23日发布那篇著名的Context Engineering博客时,IBM Research的研究者们早在10天前就已经用严格的学术实验证明了这套方法的有效性。

来自主题: AI技术研报
9367 点击    2025-07-08 12:07
Meta新注意力机制突破Transformer上限,还用上了OpenAI的开源技术

Meta新注意力机制突破Transformer上限,还用上了OpenAI的开源技术

Meta新注意力机制突破Transformer上限,还用上了OpenAI的开源技术

Meta挖走OpenAI大批员工后,又用OpenAI的技术搞出新突破。新架构名为2-Simplicial Transformer,重点是通过修改标准注意力,让Transformer能更高效地利用训练数据,以突破当前大模型发展的数据瓶颈。

来自主题: AI技术研报
6996 点击    2025-07-08 12:01
上交研究登Nature大子刊!可微分物理首次突破端到端无人机高速避障

上交研究登Nature大子刊!可微分物理首次突破端到端无人机高速避障

上交研究登Nature大子刊!可微分物理首次突破端到端无人机高速避障

上海交通大学研究团队提出了一种融合无人机物理建模与深度学习的端到端方法,该研究首次将可微分物理训练的策略成功部署到现实机器人中,实现了无人机集群自主导航,并在鲁棒性、机动性上大幅领先现有的方案。

来自主题: AI技术研报
7531 点击    2025-07-08 11:54
AI视频生成革命!MIT领衔豪华天团让生成效率暴涨370%,成本直降4.4倍

AI视频生成革命!MIT领衔豪华天团让生成效率暴涨370%,成本直降4.4倍

AI视频生成革命!MIT领衔豪华天团让生成效率暴涨370%,成本直降4.4倍

刷到1分钟AI短视频别只顾着点赞,背后的算力成本让人惊叹。MIT和英伟达等提出的径向注意力技术让长视频生成成本暴降4.4倍,速度飙升3.7倍,AI视频的未来已来!

来自主题: AI技术研报
7374 点击    2025-07-08 11:40
RoboTwin系列新作:开源大规模域随机化双臂操作数据合成器与评测基准集

RoboTwin系列新作:开源大规模域随机化双臂操作数据合成器与评测基准集

RoboTwin系列新作:开源大规模域随机化双臂操作数据合成器与评测基准集

最近,上海交通大学 ScaleLab 与香港大学 MMLab@HKU 领衔发布 RoboTwin 系列新作 RoboTwin 2.0 以及基于 RoboTwin 仿真平台在 CVPR 上举办的双臂协作竞赛 Technical Report。

来自主题: AI技术研报
7225 点击    2025-07-08 11:18
为什么 DeepSeek 大规模部署很便宜,本地很贵

为什么 DeepSeek 大规模部署很便宜,本地很贵

为什么 DeepSeek 大规模部署很便宜,本地很贵

为什么 DeepSeek-V3 据说在大规模服务时快速且便宜,但本地运行时却太慢且昂贵?为什么有些 AI 模型响应很慢,但一旦开始运行就变得很快?

来自主题: AI技术研报
8728 点击    2025-07-08 11:14
刷新复杂Agent推理记录!阿里通义开源网络智能体超越DeepSeek R1,Grok-3

刷新复杂Agent推理记录!阿里通义开源网络智能体超越DeepSeek R1,Grok-3

刷新复杂Agent推理记录!阿里通义开源网络智能体超越DeepSeek R1,Grok-3

在互联网信息检索任务中,即使是很强的LLM,有时也会陷入“信息迷雾”之中:当问题简单、路径明确时,模型往往能利用记忆或一两次搜索就找到答案;但面对高度不确定、线索模糊的问题,模型就很难做对。

来自主题: AI技术研报
7312 点击    2025-07-08 11:05
伯克利最强代码Agent屠榜SWE-Bench!用Scaling RL打造,配方全公开

伯克利最强代码Agent屠榜SWE-Bench!用Scaling RL打造,配方全公开

伯克利最强代码Agent屠榜SWE-Bench!用Scaling RL打造,配方全公开

新晋AI编程冠军DeepSWE来了!仅通过纯强化学习拿下基准测试59%的准确率,凭啥?7大算法细节首次全公开。

来自主题: AI技术研报
7673 点击    2025-07-07 15:46
用子模优化法为DeepResearch生成多样性查询

用子模优化法为DeepResearch生成多样性查询

用子模优化法为DeepResearch生成多样性查询

在开发DeepResearch时,生成多样化的查询 (query) 是一个关键细节。我们在开发时会在至少两处遇到这个问题。

来自主题: AI技术研报
9171 点击    2025-07-07 15:25
重塑AI记忆边界:MemOS开源!时序推理较OpenAI提升159%

重塑AI记忆边界:MemOS开源!时序推理较OpenAI提升159%

重塑AI记忆边界:MemOS开源!时序推理较OpenAI提升159%

大模型记忆管理和优化框架是当前各大厂商争相优化的热点方向,MemOS 相比现有 OpenAI 的全局记忆在大模型记忆评测集上呈现出显著的提升,平均准确性提升超过 38.97%,Tokens 的开销进一步降低 60.95%,一举登顶记忆管理的 SOTA 框架,特别是在考验框架时序建模与检索能力的时序推理任务上,提升比例更是达到了 159%,相当震撼!

来自主题: AI技术研报
8416 点击    2025-07-07 14:44
复杂空间指令也能秒懂?RoboRefer 让机器人理解推理空间,开放世界也能精准行动!

复杂空间指令也能秒懂?RoboRefer 让机器人理解推理空间,开放世界也能精准行动!

复杂空间指令也能秒懂?RoboRefer 让机器人理解推理空间,开放世界也能精准行动!

机器人走出实验室、进入真实世界真正可用,远比想象中更复杂。现实环境常常杂乱无序、物体种类繁多、灵活多变,远不像实验室那样干净、单一、可控。

来自主题: AI技术研报
9261 点击    2025-07-07 11:46
AI智能体开发指南(2025版)

AI智能体开发指南(2025版)

AI智能体开发指南(2025版)

一位肉身行为体对人工智能体的独家指南

来自主题: AI技术研报
7503 点击    2025-07-07 11:35
750城市+5000小时第一人称视频,上海AI Lab开源面向世界探索高质量视频数据集

750城市+5000小时第一人称视频,上海AI Lab开源面向世界探索高质量视频数据集

750城市+5000小时第一人称视频,上海AI Lab开源面向世界探索高质量视频数据集

现在,国内研究机构就从数据基石的角度出发,拿出了还原真实动态世界的新进展:上海人工智能实验室、北京理工大学、上海创智学院、东京大学等机构聚焦世界生成的第一步——世界探索,联合推出一个持续迭代的高质量视频数据集项目——Sekai(日语意为“世界”),服务于交互式视频生成、视觉导航、视频理解等任务,旨在利用图像、文本或视频构建一个动态且真实的世界,可供用户不受限制进行交互探索。

来自主题: AI技术研报
7100 点击    2025-07-07 11:22
Test Time Scaling Law远未达到上限! o4-mini仅15.8%通过率,华为诺亚提出代码HLCE终极基准

Test Time Scaling Law远未达到上限! o4-mini仅15.8%通过率,华为诺亚提出代码HLCE终极基准

Test Time Scaling Law远未达到上限! o4-mini仅15.8%通过率,华为诺亚提出代码HLCE终极基准

大语言模型(LLM)在标准编程基准测试(如 HumanEval,Livecodebench)上已经接近 “毕业”,但这是否意味着它们已经掌握了人类顶尖水平的复杂推理和编程能力?

来自主题: AI技术研报
7036 点击    2025-07-07 10:39
集成20+先进算法,优于GPT-4o,自主因果分析智能体来了

集成20+先进算法,优于GPT-4o,自主因果分析智能体来了

集成20+先进算法,优于GPT-4o,自主因果分析智能体来了

想象这样一个场景:你是一位生物学家,手握基因表达数据,直觉告诉你某些基因之间存在调控关系,但如何科学地验证这种关系?你听说过 "因果发现" 这个词,但对于具体算法如 PC、GES 就连名字都非常陌生。

来自主题: AI技术研报
8011 点击    2025-07-07 10:22
Diffusion约2倍无损加速!训练-推理协同的缓存学习框架来了| HKUST&北航&商汤

Diffusion约2倍无损加速!训练-推理协同的缓存学习框架来了| HKUST&北航&商汤

Diffusion约2倍无损加速!训练-推理协同的缓存学习框架来了| HKUST&北航&商汤

面对扩散模型推理速度慢、成本高的问题,HKUST&北航&商汤提出了全新缓存加速方案——HarmoniCa:训练-推理协同的特征缓存加速框架,突破DiT架构在部署端的速度瓶颈,成功实现高性能无损加速。

来自主题: AI技术研报
7608 点击    2025-07-06 15:05
原来Scaling Law还能被优化?Meta这招省token又提效

原来Scaling Law还能被优化?Meta这招省token又提效

原来Scaling Law还能被优化?Meta这招省token又提效

2017 年,一篇《Attention Is All You Need》论文成为 AI 发展的一个重要分水岭,其中提出的 Transformer 依然是现今主流语言模型的基础范式。尤其是在基于 Transformer 的语言模型的 Scaling Law 得到实验验证后,AI 领域的发展更是进入了快车道。

来自主题: AI技术研报
6798 点击    2025-07-06 14:56
OAI/谷歌/DeepSeek首次合体「AI梦之队」!战力飙升30%,碾压一切单模型

OAI/谷歌/DeepSeek首次合体「AI梦之队」!战力飙升30%,碾压一切单模型

OAI/谷歌/DeepSeek首次合体「AI梦之队」!战力飙升30%,碾压一切单模型

三个前沿AI能融合成AGI吗?Sakana AI提出Multi-LLM AB-MCTS方法,整合o4-mini、Gemini-2.5-Pro与DeepSeek-R1-0528模型,在推理过程中动态协作,通过试错优化生成过程,有效融合群体AI智慧。

来自主题: AI技术研报
8279 点击    2025-07-06 13:06
华为多路径推理破解大模型数学瓶颈,准确率超97%|ICML 2025

华为多路径推理破解大模型数学瓶颈,准确率超97%|ICML 2025

华为多路径推理破解大模型数学瓶颈,准确率超97%|ICML 2025

大模型越来越大,通用能力越来越强,但一遇到数学、科学、逻辑这类复杂问题,还是常“翻车”。为破解这一痛点,华为诺亚方舟实验室提出全新高阶推理框架 ——思维森林(Forest-of-Thought,FoT)。

来自主题: AI技术研报
7399 点击    2025-07-06 11:54
LeCun团队揭示LLM语义压缩本质:极致统计压缩牺牲细节

LeCun团队揭示LLM语义压缩本质:极致统计压缩牺牲细节

LeCun团队揭示LLM语义压缩本质:极致统计压缩牺牲细节

那问题来了:大型语言模型(LLM)虽然语言能力惊人,但它们在语义压缩方面能做出和人类一样的权衡吗?为探讨这一问题,图灵奖得主LeCun团队,提出了一种全新的信息论框架。该框架通过对比人类与LLM在语义压缩中的策略,揭示了两者在压缩效率与语义保真之间的根本差异:LLM偏向极致的统计压缩,而人类更重细节与语境。

来自主题: AI技术研报
6130 点击    2025-07-06 11:17
GitHub上5.4k+Star爆火,构建生产级Agent 的12因素

GitHub上5.4k+Star爆火,构建生产级Agent 的12因素

GitHub上5.4k+Star爆火,构建生产级Agent 的12因素

这是一篇在GitHub上获得5.3k+星标的重要技术文档,其中蕴含的洞察值得每一位AI产品开发者深度思考。

来自主题: AI技术研报
7055 点击    2025-07-06 11:04