AI技术研报-这里有最前沿的人工智能技术解读

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
美国知名对冲基金拆解400年“泡沫史”的最终判断:AI离“泡沫”还远

美国知名对冲基金拆解400年“泡沫史”的最终判断:AI离“泡沫”还远

美国知名对冲基金拆解400年“泡沫史”的最终判断:AI离“泡沫”还远

面对“AI是否陷入泡沫”的热议,美国知名对冲基金Coatue深度研究了过去400年间30余次典型泡沫案例,从中提炼出共性特征,并据此发布了年度AI重磅报告。Coatue将这一框架应用于当前AI领域,得出的结论是:AI正处于早期“替代/普及”阶段,远未到达泡沫顶点。

来自主题: AI技术研报
7550 点击    2025-11-11 10:58
谢赛宁×李飞飞×LeCun首次联手!寒武纪-S「空间超感知」AI震撼登场

谢赛宁×李飞飞×LeCun首次联手!寒武纪-S「空间超感知」AI震撼登场

谢赛宁×李飞飞×LeCun首次联手!寒武纪-S「空间超感知」AI震撼登场

当AI不再对着文字死记硬背,而是学会在视频里对人类世界进行超感知,这套全新范式会不会撬开AGI的大门?

来自主题: AI技术研报
8176 点击    2025-11-11 10:26
3A大作!阿里ROLL团队从基建->算法->机理,推动RL4LLM全栈协同优化

3A大作!阿里ROLL团队从基建->算法->机理,推动RL4LLM全栈协同优化

3A大作!阿里ROLL团队从基建->算法->机理,推动RL4LLM全栈协同优化

近期,阿里巴巴 ROLL 团队(淘天未来生活实验室与阿里巴巴智能引擎团队)联合上海交通大学、香港科技大学推出「3A」协同优化框架 ——Async 架构(Asynchronous Training)、Asymmetric PPO(AsyPPO)与 Attention 机制(Attention-based Reasoning Rhythm),

来自主题: AI技术研报
7866 点击    2025-11-11 10:24
AI同时学会了人类的智慧和无脑

AI同时学会了人类的智慧和无脑

AI同时学会了人类的智慧和无脑

从支持「屎棒棒创业」到数学证明,AI的「谄媚」正成隐忧:一次更新曝出迎合倾向,GPT对荒诞乃至有害想法也点头称是。斯坦福、CMU研究证实模型更爱迎合,令用户更固执、更少反思却更信任AI;数学基准亦见模型为伪命题硬编证明。

来自主题: AI技术研报
6140 点击    2025-11-11 09:51
PixelRefer :让AI从“看大图”走向“看懂每个对象”

PixelRefer :让AI从“看大图”走向“看懂每个对象”

PixelRefer :让AI从“看大图”走向“看懂每个对象”

多模态大模型(MLLMs)虽然在图像理解、视频分析上表现出色,但多停留在整体场景级理解。

来自主题: AI技术研报
10046 点击    2025-11-11 09:50
万字洞察丨100 家顶尖 AI 初创公司的 7 个真相

万字洞察丨100 家顶尖 AI 初创公司的 7 个真相

万字洞察丨100 家顶尖 AI 初创公司的 7 个真相

Leonis Capital 在全球超过 10,000 家 AI 初创公司中,基于融资、招聘、用户使用情况,GitHub 趋势、新闻、ProductHunt、ARR 预估等数据和信号,筛选出了 100 家增长最快的初创公司。他们对这 100 家 AI 初创公司进行了详细分析,制作了一份 The Leonis AI 100 的研究报告。

来自主题: AI技术研报
10026 点击    2025-11-10 15:13
与DeepSeek-OCR不谋而合,NeurIPS论文提出让LLM像人一样读长文本

与DeepSeek-OCR不谋而合,NeurIPS论文提出让LLM像人一样读长文本

与DeepSeek-OCR不谋而合,NeurIPS论文提出让LLM像人一样读长文本

在处理短文本时,大语言模型(LLM)已经表现出惊人的理解和生成能力。但现实世界中的许多任务 —— 如长文档理解、复杂问答、检索增强生成(RAG)等 —— 都需要模型处理成千上万甚至几十万长度的上下文。

来自主题: AI技术研报
5749 点击    2025-11-10 15:12
首个AI商业广告工作流开源,我做出了可口可乐最有创意的广告

首个AI商业广告工作流开源,我做出了可口可乐最有创意的广告

首个AI商业广告工作流开源,我做出了可口可乐最有创意的广告

可乐可乐是真头铁, 24年用AI做广告挨骂,25年继续用继续挨骂,主要是创意很偷懒,两年了还给我看同一条广告。

来自主题: AI技术研报
7331 点击    2025-11-10 15:10
AAAI 2026结果公布,刷出88887高分!2.3万投稿录用率仅17.6%

AAAI 2026结果公布,刷出88887高分!2.3万投稿录用率仅17.6%

AAAI 2026结果公布,刷出88887高分!2.3万投稿录用率仅17.6%

AAAI 2026录用结果重磅公布!这一届,投稿量暴增至23,680篇,录用率仅17.6%,竞争程度远超往年。一些成功上岸的研究员们晒出了录用成绩单,有人甚至拿下了88887高分。

来自主题: AI技术研报
6525 点击    2025-11-10 14:33
NeurIPS2025 Spotlight | RobustMerge: 多模态大模型高效微调模型合并的全新范式

NeurIPS2025 Spotlight | RobustMerge: 多模态大模型高效微调模型合并的全新范式

NeurIPS2025 Spotlight | RobustMerge: 多模态大模型高效微调模型合并的全新范式

在 AI 技术飞速发展的今天,如何高效地将多个专业模型的能力融合到一个通用模型中,是当前大模型应用面临的关键挑战。全量微调领域已经有许多开创性的工作,但是在高效微调领域,尚未有对模型合并范式清晰的指引。

来自主题: AI技术研报
6945 点击    2025-11-10 14:25
2025 智能体元年,Agent 开发平台深度评测报告解读

2025 智能体元年,Agent 开发平台深度评测报告解读

2025 智能体元年,Agent 开发平台深度评测报告解读

AI 产业的两大核心趋势正并行发展:基础大模型的能力持续突破,而 AI Agent 的产业化落地也在全面提速。Capgemini 于 2025 年 4 月发布的一项覆盖 14 国 1500 名企业高管的调研显示[1],已有 37% 的受访组织启动或实施 AI Agent 项目,另有高达 61 %的组织将在一年内跟进部署或进行探索,印证了该趋势的全球共识。

来自主题: AI技术研报
8265 点击    2025-11-10 11:16
全新人工神经元面世,能耗比人脑低数千倍!或彻底改变AI部署方式

全新人工神经元面世,能耗比人脑低数千倍!或彻底改变AI部署方式

全新人工神经元面世,能耗比人脑低数千倍!或彻底改变AI部署方式

近日,美国南加州大学教授约书亚·杨(Joshua Yang)团队和合作者成功造出一个功能齐全的人工神经元 1M1T1R,这是一种能像真实脑细胞一样工作的人工神经元,有望催生出类似人脑的基于硬件的学习系统,并有望将 AI 转变为更加接近自然智能的形态。

来自主题: AI技术研报
7535 点击    2025-11-10 10:27
终结Transformer统治!清华姚班校友出手,剑指AI「灾难性遗忘」

终结Transformer统治!清华姚班校友出手,剑指AI「灾难性遗忘」

终结Transformer统治!清华姚班校友出手,剑指AI「灾难性遗忘」

大模型「灾难性遗忘」问题或将迎来突破。近日,NeurIPS 2025收录了谷歌研究院的一篇论文,其中提出一种全新的「嵌套学习(Nested Learning)」架构。实验中基于该框架的「Hope」模型在语言建模与长上下文记忆任务中超越Transformer模型,这意味着大模型正迈向具备自我改进能力的新阶段。

来自主题: AI技术研报
6933 点击    2025-11-10 09:56
ICCV涌现自动驾驶新范式:统一世界模型VLA,用训练闭环迈向L4

ICCV涌现自动驾驶新范式:统一世界模型VLA,用训练闭环迈向L4

ICCV涌现自动驾驶新范式:统一世界模型VLA,用训练闭环迈向L4

智能汽车、自动驾驶、物理AI的竞速引擎,正在悄然收敛—— 至少核心头部玩家,已经在最近的ICCV 2025,展现出了共识。

来自主题: AI技术研报
8322 点击    2025-11-10 09:20
IEEE | LLM Agent的能力边界在哪?首篇「图智能体 (GLA)」综述为复杂系统构建统一蓝图

IEEE | LLM Agent的能力边界在哪?首篇「图智能体 (GLA)」综述为复杂系统构建统一蓝图

IEEE | LLM Agent的能力边界在哪?首篇「图智能体 (GLA)」综述为复杂系统构建统一蓝图

LLM Agent 正以前所未有的速度发展,从网页浏览、软件开发到具身控制,其强大的自主能力令人瞩目。然而,繁荣的背后也带来了研究的「碎片化」和能力的「天花板」:多数 Agent 在可靠规划、长期记忆、海量工具管理和多智能体协调等方面仍显稚嫩,整个领域仿佛一片广袤却缺乏地图的丛林。

来自主题: AI技术研报
7326 点击    2025-11-10 09:20
机器人训练,北京男大有了技能玩法

机器人训练,北京男大有了技能玩法

机器人训练,北京男大有了技能玩法

还得是大学生会玩啊(doge)! 网上正高速冲浪中,结果意外发现:有男大竟找了个机器人队友?而且机器人还相当黏人(bushi~ 白天超市打工它要跟着,一看东西装好就立马乐颠颠帮忙拉小推车,上楼下楼忙个不停:

来自主题: AI技术研报
5847 点击    2025-11-09 15:38
英伟达、DeepSeek集体跟进!18个月前被忽视,如今统治AI推理

英伟达、DeepSeek集体跟进!18个月前被忽视,如今统治AI推理

英伟达、DeepSeek集体跟进!18个月前被忽视,如今统治AI推理

2024年,加州大学圣地亚哥分校「Hao AI Lab」提出了DistServe的解耦推理理念,短短一年多时间,迅速从实验室概念成长为行业标准,被NVIDIA、vLLM等主流大模型推理框架采用,预示着AI正迈向「模块化智能」的新时代。

来自主题: AI技术研报
8160 点击    2025-11-09 15:37
LLM强化学习新框架!UCSD多智能体训练框架让LLM工具调用能力暴增5.8倍

LLM强化学习新框架!UCSD多智能体训练框架让LLM工具调用能力暴增5.8倍

LLM强化学习新框架!UCSD多智能体训练框架让LLM工具调用能力暴增5.8倍

现有的LLM智能体训练框架都是针对单智能体的,多智能体的“群体强化”仍是一个亟须解决的问题。为了解决这一领域的研究痛点,来自UCSD和英特尔的研究人员,提出了新的提出通用化多智能体强化学习框架——PettingLLMs。支持任意组合的多个LLM一起训练。

来自主题: AI技术研报
6402 点击    2025-11-09 15:36
改掉幻觉=杀死AI?Science曝光大模型「先天死穴」

改掉幻觉=杀死AI?Science曝光大模型「先天死穴」

改掉幻觉=杀死AI?Science曝光大模型「先天死穴」

《Science》的一篇新文章指出,大模型存在一个先天难解的软肋:幻觉难以根除。AI厂商让大模型在不确定性情况下说「我不知道」,虽然有助于减少模型幻觉,但可能因此影响用户留存与活跃度,动摇商业根本。

来自主题: AI技术研报
8302 点击    2025-11-09 15:35
银河通用全新模型统一机器人导航任务,7B参数模型支持实时部署

银河通用全新模型统一机器人导航任务,7B参数模型支持实时部署

银河通用全新模型统一机器人导航任务,7B参数模型支持实时部署

北京大学,银河通用,阿德莱德大学,浙江大学等机构合作,探究如何构建具身导航的基座模型(Embodied Navigation Foundation Model)提出了NavFoM,一个跨任务和跨载体的导航大模型。实现具身导航从“专用”到“通用”的技术跃进

来自主题: AI技术研报
7131 点击    2025-11-09 15:34
仅0.2B就比GPT-4.1强?加州大学新指标:组合推理基准首次超越人类

仅0.2B就比GPT-4.1强?加州大学新指标:组合推理基准首次超越人类

仅0.2B就比GPT-4.1强?加州大学新指标:组合推理基准首次超越人类

加州大学河滨分校团队发现,AI组合推理表现不佳部分源于评测指标过于苛刻。他们提出新指标GroupMatch和Test-Time Matching算法,挖掘模型潜力,使GPT-4.1在Winoground测试中首次超越人类,0.2B参数的SigLIP-B16在MMVP-VLM基准测试上超越GPT-4.1并刷新最优结果。这表明模型的组合推理能力早已存在,只需合适方法在测试阶段解锁。

来自主题: AI技术研报
6604 点击    2025-11-09 15:33
长视频让大模型集体失明?谢赛宁、杨立昆、李飞飞等提出空间超感知范式,用“预测未来”代替“暴力记忆”

长视频让大模型集体失明?谢赛宁、杨立昆、李飞飞等提出空间超感知范式,用“预测未来”代替“暴力记忆”

长视频让大模型集体失明?谢赛宁、杨立昆、李飞飞等提出空间超感知范式,用“预测未来”代替“暴力记忆”

去年,谢赛宁(Saining Xie)团队发布了 Cambrian-1,一次对图像多模态模型的开放式探索。但团队没有按惯例继续推出 Cambrian-2、Cambrian-3,而是停下来思考:真正的多

来自主题: AI技术研报
7007 点击    2025-11-09 10:38
突破LLM遗忘瓶颈,谷歌「嵌套学习」让AI像人脑一样持续进化

突破LLM遗忘瓶颈,谷歌「嵌套学习」让AI像人脑一样持续进化

突破LLM遗忘瓶颈,谷歌「嵌套学习」让AI像人脑一样持续进化

近日,谷歌推出了一种全新的用于持续学习的机器学习范式 —— 嵌套学习,模型不再采用静态的训练周期,而是以不同的更新速度在嵌套层中进行学习,即将模型视为一系列嵌套问题的堆叠,使其能够不断学习新技能,同时又不会遗忘旧技能。

来自主题: AI技术研报
8063 点击    2025-11-09 10:25
微信、清华连续自回归模型CALM,新范式实现从「离散词元」到「连续向量」转变

微信、清华连续自回归模型CALM,新范式实现从「离散词元」到「连续向量」转变

微信、清华连续自回归模型CALM,新范式实现从「离散词元」到「连续向量」转变

众所周知,大型语言模型(LLM)的根本运作方式是预测下一个 token(词元),能够保证生成的连贯性和逻辑性,但这既是 LLM 强大能力的「灵魂」所在,也是其枷锁,将导致高昂的计算成本和响应延迟。 可

来自主题: AI技术研报
6890 点击    2025-11-09 10:21
n8n已死!我用Kimi跑通了Claude Skills,直接替代工作流

n8n已死!我用Kimi跑通了Claude Skills,直接替代工作流

n8n已死!我用Kimi跑通了Claude Skills,直接替代工作流

前段时间Trae下架了Claude,标志着但凡跟中国沾边AI工具都禁止使用 Claude 但我一点都不慌,因为已经很久没用 Claude 了 尤其在编程赛道上,国产大模型已经通过内部互卷站起来了。

来自主题: AI技术研报
8621 点击    2025-11-08 19:27
LLM首次达到人类语言专家水平!OpenAI o1拿下拆解句法、识别歧义、推理音律

LLM首次达到人类语言专家水平!OpenAI o1拿下拆解句法、识别歧义、推理音律

LLM首次达到人类语言专家水平!OpenAI o1拿下拆解句法、识别歧义、推理音律

这说明o1不仅能够使用语言,还能够思考语言,具备元语言能力(metalinguistic capacity )。由于语言模型只是在预测句子中的下一个单词,人对语言的深层理解在质上有所不同。因此,一些语言学家表示,大模型实际上并没有在处理语言。

来自主题: AI技术研报
7675 点击    2025-11-08 15:51
6.4万star的开源智能体框架全面重构!OpenHands重大升级,叫板OpenAI和谷歌

6.4万star的开源智能体框架全面重构!OpenHands重大升级,叫板OpenAI和谷歌

6.4万star的开源智能体框架全面重构!OpenHands重大升级,叫板OpenAI和谷歌

机器之心报道 编辑:Panda 刚刚,OpenHands 开发团队发布了一篇新论文,正式宣布广受欢迎的软件开发智能体框架 OpenHands (GitHub star 已超 6.4 万)中的智能体组件

来自主题: AI技术研报
7155 点击    2025-11-08 15:50
SimKO:缓解RLVR训练中的概率过度集中,优化pass@K性能

SimKO:缓解RLVR训练中的概率过度集中,优化pass@K性能

SimKO:缓解RLVR训练中的概率过度集中,优化pass@K性能

研究团队提出一种简洁且高效的算法 ——SimKO (Simple Pass@K Optimization),显著优化了 pass@K(K=1 及 K>1)性能。同时,团队认为当前的用熵(Entropy)作为指标衡量多样性存在局限:熵无法具体反映概率分布的形态。如图 2(c)所示,两个具有相同熵值的分布,一个可能包含多个峰值,而另一个则可能高度集中于一个峰值。

来自主题: AI技术研报
6372 点击    2025-11-08 15:48