AI技术研报-这里有最前沿的人工智能技术解读

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
大模型「越用越快」!SpeedupLLM首次验证,大降56%推理预算

大模型「越用越快」!SpeedupLLM首次验证,大降56%推理预算

大模型「越用越快」!SpeedupLLM首次验证,大降56%推理预算

LLM用得越久,速度越快!Emory大学提出SpeedupLLM框架,利用动态计算资源分配和记忆机制,使LLM在处理相似任务时推理成本降低56%,准确率提升,为AI模型发展提供新思路。

来自主题: AI技术研报
5816 点击    2025-07-10 12:30
MIT发布自适应语言模型!新任务,自生成远超「GPT-4.1合成训练数据」

MIT发布自适应语言模型!新任务,自生成远超「GPT-4.1合成训练数据」

MIT发布自适应语言模型!新任务,自生成远超「GPT-4.1合成训练数据」

自适应语言模型框架SEAL,让大模型通过生成自己的微调数据和更新指令来适应新任务。SEAL在少样本学习和知识整合任务上表现优异,显著提升了模型的适应性和性能,为大模型的自主学习和优化提供了新的思路。

来自主题: AI技术研报
8040 点击    2025-07-10 11:33
AI为了自保假装配合!Claude团队新研究结果细思极恐

AI为了自保假装配合!Claude团队新研究结果细思极恐

AI为了自保假装配合!Claude团队新研究结果细思极恐

大模型“当面一套背后一套”的背后原因,正在进一步被解开。 Claude团队最新研究结果显示:对齐伪装并非通病,只是有些模型的“顺从性”会更高。

来自主题: AI技术研报
9082 点击    2025-07-10 11:30
DeepSeek-R1超级外挂!“人类最后的考试”首次突破30分,上海交大等开源方案碾压OpenAI、谷歌

DeepSeek-R1超级外挂!“人类最后的考试”首次突破30分,上海交大等开源方案碾压OpenAI、谷歌

DeepSeek-R1超级外挂!“人类最后的考试”首次突破30分,上海交大等开源方案碾压OpenAI、谷歌

“人类最后的考试”首次突破30分,还是咱国内团队干的! 该测试集是出了名的超难,刚推出时无模型得分能超过10分。

来自主题: AI技术研报
9483 点击    2025-07-10 11:21
剑桥UCL重磅发布:Vibe Coding深度报告,这才是“人机协同”的最终形态

剑桥UCL重磅发布:Vibe Coding深度报告,这才是“人机协同”的最终形态

剑桥UCL重磅发布:Vibe Coding深度报告,这才是“人机协同”的最终形态

编者按:vibe coding不是编程的终点,而是Context Engineering驱动的协作智能的起点。那些能够最早理解并应用这种整合视角的人,将在下一轮技术变革中获得决定性优势。

来自主题: AI技术研报
6620 点击    2025-07-10 11:21
Jina Embeddings v4 的量化感知训练

Jina Embeddings v4 的量化感知训练

Jina Embeddings v4 的量化感知训练

在 AI 领域,我们对模型的期待总是既要、又要、还要:模型要强,速度要快,成本还要低。但实际应用时,高质量的向量表征往往意味着庞大的数据体积,既拖慢检索速度,也推高存储和内存消耗。

来自主题: AI技术研报
10428 点击    2025-07-10 11:05
「世界模型」也被泼冷水了?邢波等人揭开五大「硬伤」,提出新范式

「世界模型」也被泼冷水了?邢波等人揭开五大「硬伤」,提出新范式

「世界模型」也被泼冷水了?邢波等人揭开五大「硬伤」,提出新范式

现在的世界模型,值得批判。 我们知道,大语言模型(LLM)是通过预测对话的下一个单词的形式产生输出的。由此产生的对话、推理甚至创作能力已经接近人类智力水平。

来自主题: AI技术研报
6614 点击    2025-07-10 10:57
Mamba一作预告新架构!长文论述Transformer≠最终解法

Mamba一作预告新架构!长文论述Transformer≠最终解法

Mamba一作预告新架构!长文论述Transformer≠最终解法

Mamba一作最新大发长文! 主题只有一个,即探讨两种主流序列模型——状态空间模型(SSMs)和Transformer模型的权衡之术。

来自主题: AI技术研报
7290 点击    2025-07-10 10:56
ICCV 2025 | UniOcc: 自动驾驶占用预测与推理统一数据集及基准平台

ICCV 2025 | UniOcc: 自动驾驶占用预测与推理统一数据集及基准平台

ICCV 2025 | UniOcc: 自动驾驶占用预测与推理统一数据集及基准平台

来自加州大学河滨分校(UC Riverside)、密歇根大学(University of Michigan)、威斯康星大学麦迪逊分校(University of Wisconsin–Madison)、德州农工大学(Texas A&M University)的团队在 ICCV 2025 发表首个面向自动驾驶语义占用栅格构造或预测任务的统一基准框架 UniOcc。

来自主题: AI技术研报
8666 点击    2025-07-10 10:39
如何教AI学会反思?

如何教AI学会反思?

如何教AI学会反思?

论文提出一种AI自我反思方法:通过反思错误原因、重试任务、奖励成功反思来优化训练。

来自主题: AI技术研报
8602 点击    2025-07-10 10:34
破解「个性化学习」长尾难题,巧用神经坍缩理论 | ICML 2025

破解「个性化学习」长尾难题,巧用神经坍缩理论 | ICML 2025

破解「个性化学习」长尾难题,巧用神经坍缩理论 | ICML 2025

NCAL是一种新的个性化学习方法,它通过优化文本嵌入的分布来解决教育数据中常见的长尾分布问题,从而提高模型对少数类别的处理能力。

来自主题: AI技术研报
9100 点击    2025-07-09 15:00
大模型刷数学题竟有害?CMU评估20+模型指出训练陷阱

大模型刷数学题竟有害?CMU评估20+模型指出训练陷阱

大模型刷数学题竟有害?CMU评估20+模型指出训练陷阱

学好数理化,走遍天下都不怕! 这一点这在大语言模型身上也不例外。

来自主题: AI技术研报
8248 点击    2025-07-09 14:54
VLA爆发!从美国RT-2到中国FiS-VLA,机器人「即知即行」的终极进化

VLA爆发!从美国RT-2到中国FiS-VLA,机器人「即知即行」的终极进化

VLA爆发!从美国RT-2到中国FiS-VLA,机器人「即知即行」的终极进化

2025年,全球具身智能赛道爆火,VLA模型成为了绝对的C位。从美国RT-2的开创性突破,到中国最新FiS-VLA「快慢双系统」,VLA正以光速硬核进化。

来自主题: AI技术研报
7598 点击    2025-07-09 11:57
两张图就能重构3D空间?清华&NTU利用生成模型解锁空间智能新范式

两张图就能重构3D空间?清华&NTU利用生成模型解锁空间智能新范式

两张图就能重构3D空间?清华&NTU利用生成模型解锁空间智能新范式

最少只用2张图,AI就能像人类一样理解3D空间了。ICCV 2025最新中稿的LangScene-X:以全新的生成式框架,仅用稀疏视图(最少只用2张图像)就能构建可泛化的3D语言嵌入场景,对比传统方法如NeRF,通常需要20个视角。

来自主题: AI技术研报
7699 点击    2025-07-09 11:08
突破全模态AI理解边界:HumanOmniV2引入上下文强化学习,赋能全模态模型“意图”推理新高度

突破全模态AI理解边界:HumanOmniV2引入上下文强化学习,赋能全模态模型“意图”推理新高度

突破全模态AI理解边界:HumanOmniV2引入上下文强化学习,赋能全模态模型“意图”推理新高度

在多模态大语言模型(MLLMs)应用日益多元化的今天,对模型深度理解和分析人类意图的需求愈发迫切。尽管强化学习(RL)在增强大语言模型(LLMs)的推理能力方面已展现出巨大潜力,但将其有效应用于复杂的多模态数据和格式仍面临诸多挑战。

来自主题: AI技术研报
8550 点击    2025-07-09 10:59
长思维链里的推理步骤,哪些最关键?三招锁定LLM的「命门句子」

长思维链里的推理步骤,哪些最关键?三招锁定LLM的「命门句子」

长思维链里的推理步骤,哪些最关键?三招锁定LLM的「命门句子」

思维链里的步骤很重要,但有些步骤比其他步骤更重要,尤其是在一些比较长的思维链中。 找出这些步骤,我们就可以更深入地理解 LLM 的内部推理机制,从而提高模型的可解释性、可调试性和安全性。

来自主题: AI技术研报
6659 点击    2025-07-09 10:51
多模态模型学会“按需搜索”,少搜30%还更准!字节&NTU新研究优化多模态模型搜索策略

多模态模型学会“按需搜索”,少搜30%还更准!字节&NTU新研究优化多模态模型搜索策略

多模态模型学会“按需搜索”,少搜30%还更准!字节&NTU新研究优化多模态模型搜索策略

多模态模型学会“按需搜索”!字节&NTU最新研究,优化多模态模型搜索策略——通过搭建网络搜索工具、构建多模态搜索数据集以及涉及简单有效的奖励机制,首次尝试基于端到端强化学习的多模态模型自主搜索训练。

来自主题: AI技术研报
7470 点击    2025-07-09 10:35
清华第三代Sage注意力发布!提速5倍,精度不降,训推都能用

清华第三代Sage注意力发布!提速5倍,精度不降,训推都能用

清华第三代Sage注意力发布!提速5倍,精度不降,训推都能用

清华大学朱军教授团队提出SageAttention3,利用FP4量化实现推理加速,比FlashAttention快5倍,同时探索了8比特注意力用于训练任务的可行性,在微调中实现了无损性能。

来自主题: AI技术研报
7719 点击    2025-07-08 12:08
Context Engineering不是造新词,IBM揭示LLM推理的认知秘密

Context Engineering不是造新词,IBM揭示LLM推理的认知秘密

Context Engineering不是造新词,IBM揭示LLM推理的认知秘密

当LangChain在6月23日发布那篇著名的Context Engineering博客时,IBM Research的研究者们早在10天前就已经用严格的学术实验证明了这套方法的有效性。

来自主题: AI技术研报
9733 点击    2025-07-08 12:07
Meta新注意力机制突破Transformer上限,还用上了OpenAI的开源技术

Meta新注意力机制突破Transformer上限,还用上了OpenAI的开源技术

Meta新注意力机制突破Transformer上限,还用上了OpenAI的开源技术

Meta挖走OpenAI大批员工后,又用OpenAI的技术搞出新突破。新架构名为2-Simplicial Transformer,重点是通过修改标准注意力,让Transformer能更高效地利用训练数据,以突破当前大模型发展的数据瓶颈。

来自主题: AI技术研报
7273 点击    2025-07-08 12:01
上交研究登Nature大子刊!可微分物理首次突破端到端无人机高速避障

上交研究登Nature大子刊!可微分物理首次突破端到端无人机高速避障

上交研究登Nature大子刊!可微分物理首次突破端到端无人机高速避障

上海交通大学研究团队提出了一种融合无人机物理建模与深度学习的端到端方法,该研究首次将可微分物理训练的策略成功部署到现实机器人中,实现了无人机集群自主导航,并在鲁棒性、机动性上大幅领先现有的方案。

来自主题: AI技术研报
7830 点击    2025-07-08 11:54
AI视频生成革命!MIT领衔豪华天团让生成效率暴涨370%,成本直降4.4倍

AI视频生成革命!MIT领衔豪华天团让生成效率暴涨370%,成本直降4.4倍

AI视频生成革命!MIT领衔豪华天团让生成效率暴涨370%,成本直降4.4倍

刷到1分钟AI短视频别只顾着点赞,背后的算力成本让人惊叹。MIT和英伟达等提出的径向注意力技术让长视频生成成本暴降4.4倍,速度飙升3.7倍,AI视频的未来已来!

来自主题: AI技术研报
7741 点击    2025-07-08 11:40
RoboTwin系列新作:开源大规模域随机化双臂操作数据合成器与评测基准集

RoboTwin系列新作:开源大规模域随机化双臂操作数据合成器与评测基准集

RoboTwin系列新作:开源大规模域随机化双臂操作数据合成器与评测基准集

最近,上海交通大学 ScaleLab 与香港大学 MMLab@HKU 领衔发布 RoboTwin 系列新作 RoboTwin 2.0 以及基于 RoboTwin 仿真平台在 CVPR 上举办的双臂协作竞赛 Technical Report。

来自主题: AI技术研报
7765 点击    2025-07-08 11:18