AI技术研报-这里有最前沿的人工智能技术解读

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
AITNT-国内领先的一站式人工智能新闻资讯网站 搜索
只花9美元,推理能力暴涨20%!小模型Tina震撼登场,成本缩减260倍

只花9美元,推理能力暴涨20%!小模型Tina震撼登场,成本缩减260倍

只花9美元,推理能力暴涨20%!小模型Tina震撼登场,成本缩减260倍

在人工智能领域,语言模型的发展日新月异,推理能力作为语言模型的核心竞争力之一,一直是研究的焦点,许多的 AI 前沿人才对 AI 推理的效率进行研究。

来自主题: AI技术研报
7903 点击    2025-04-30 18:40
上交大推出首个AI智能体协议全面综述:从碎片化到互联互通的智能体网络

上交大推出首个AI智能体协议全面综述:从碎片化到互联互通的智能体网络

上交大推出首个AI智能体协议全面综述:从碎片化到互联互通的智能体网络

随着大语言模型 (LLM) 技术的迅猛发展,基于 LLM 的智能智能体在客户服务、内容创作、数据分析甚至医疗辅助等多个行业领域得到广泛应用。

来自主题: AI技术研报
6799 点击    2025-04-30 15:05
终端云端三连发!无问芯穹开源大模型推理加速神器,加码构建新一代端、云推理系统

终端云端三连发!无问芯穹开源大模型推理加速神器,加码构建新一代端、云推理系统

终端云端三连发!无问芯穹开源大模型推理加速神器,加码构建新一代端、云推理系统

近日,无问芯穹发起了一次推理系统开源节,连续开源了三个推理工作,包括加速端侧推理速度的 SpecEE、计算分离存储融合的 PD 半分离调度新机制 Semi-PD、低计算侵入同时通信正交的计算通信重叠新方法 FlashOverlap,为高效的推理系统设计提供多层次助力。下面让我们一起来对这三个工作展开一一解读:

来自主题: AI技术研报
7710 点击    2025-04-30 08:50
上交大等探索键值压缩的边界:MILLION开源框架定义模型量化推理新范式,入选顶会DAC 2025

上交大等探索键值压缩的边界:MILLION开源框架定义模型量化推理新范式,入选顶会DAC 2025

上交大等探索键值压缩的边界:MILLION开源框架定义模型量化推理新范式,入选顶会DAC 2025

在以 transformer 模型为基础的大模型中,键值缓存虽然用以存代算的思想显著加速了推理速度,但在长上下文场景中成为了存储瓶颈。为此,本文的研究者提出了 MILLION,一种基于乘积量化的键值缓存压缩和推理加速设计。

来自主题: AI技术研报
7692 点击    2025-04-30 08:32
AR智能革命!Satori系统读懂人类意图,科幻电影场景成现实

AR智能革命!Satori系统读懂人类意图,科幻电影场景成现实

AR智能革命!Satori系统读懂人类意图,科幻电影场景成现实

在无数科幻电影中,增强现实(AR)通过在人们的眼前叠加动画、文字、图形等可视化信息,让人获得适时的、超越自身感知能力的信息。

来自主题: AI技术研报
7022 点击    2025-04-29 16:32
如何打造TTRL测试时强化学习+Memory的Agent,做经验时代AI的主人。| 最新

如何打造TTRL测试时强化学习+Memory的Agent,做经验时代AI的主人。| 最新

如何打造TTRL测试时强化学习+Memory的Agent,做经验时代AI的主人。| 最新

AI能像人类一样不断从经验中学习、进化,而不仅仅依赖于人工标注的数据?测试时强化学习(TTRL)与记忆系统的结合正在开启这一全新可能!

来自主题: AI技术研报
7721 点击    2025-04-29 16:24
首个大模型全链路安全综述 !南洋理工新国立等发布LLM Safety全景图:从数据、训练到部署的全面梳理

首个大模型全链路安全综述 !南洋理工新国立等发布LLM Safety全景图:从数据、训练到部署的全面梳理

首个大模型全链路安全综述 !南洋理工新国立等发布LLM Safety全景图:从数据、训练到部署的全面梳理

随着人工智能技术迅猛发展,大模型(如GPT-4、文心一言等)正逐步渗透至社会生活的各个领域,从医疗、教育到金融、政务,其影响力与日俱增。

来自主题: AI技术研报
7052 点击    2025-04-29 15:27
ICLR 2025|首个动态视觉-文本稀疏化框架来了,计算开销直降50%-75%

ICLR 2025|首个动态视觉-文本稀疏化框架来了,计算开销直降50%-75%

ICLR 2025|首个动态视觉-文本稀疏化框架来了,计算开销直降50%-75%

多模态大模型(MLLMs)在视觉理解与推理等领域取得了显著成就。然而,随着解码(decoding)阶段不断生成新的 token,推理过程的计算复杂度和 GPU 显存占用逐渐增加,这导致了多模态大模型推理效率的降低。

来自主题: AI技术研报
5736 点击    2025-04-29 14:56
AGI幻灭,LeCun观点得证?哈佛研究实锤AI不懂因果,世界模型神话破灭

AGI幻灭,LeCun观点得证?哈佛研究实锤AI不懂因果,世界模型神话破灭

AGI幻灭,LeCun观点得证?哈佛研究实锤AI不懂因果,世界模型神话破灭

尽管LLM看似能够进行流畅推理和问题解答,但它们背后的思维链其实只是复杂的统计模式匹配,而非真正的推理能力。AI模型仅仅通过海量数据和经验法则来生成响应,而不是通过深刻的世界模型和逻辑推理来做决策。

来自主题: AI技术研报
7619 点击    2025-04-29 09:52
52页PPT,谷歌Gemini预训练负责人首次揭秘!扩展定律最优解

52页PPT,谷歌Gemini预训练负责人首次揭秘!扩展定律最优解

52页PPT,谷歌Gemini预训练负责人首次揭秘!扩展定律最优解

大模型之战烽火正酣,谷歌Gemini 2.5 Pro却强势逆袭!Gemini Flash预训练负责人亲自揭秘,深挖Gemini预训练的关键技术,看谷歌如何在模型大小、算力、数据和推理成本间找到最优解。

来自主题: AI技术研报
7608 点击    2025-04-29 09:43
RAG性能暴增20%!清华等推出“以笔记为中心”的深度检索增强生成框架,复杂问答效果飙升

RAG性能暴增20%!清华等推出“以笔记为中心”的深度检索增强生成框架,复杂问答效果飙升

RAG性能暴增20%!清华等推出“以笔记为中心”的深度检索增强生成框架,复杂问答效果飙升

在当前大语言模型(LLMs)广泛应用于问答、对话等任务的背景下,如何更有效地结合外部知识、提升模型对复杂问题的理解与解答能力,成为 RAG(Retrieval-Augmented Generation)方向的核心挑战。

来自主题: AI技术研报
6635 点击    2025-04-29 08:55
AI 2027研究揭秘美国算力真相!中国全球AI专利Top1,但美国或以算力取胜

AI 2027研究揭秘美国算力真相!中国全球AI专利Top1,但美国或以算力取胜

AI 2027研究揭秘美国算力真相!中国全球AI专利Top1,但美国或以算力取胜

今天,一张图在网上爆火:中国AI专利数量占全球70%,成TOP 1!不过,曾撰写「AI 2027」预测报告的研究员却发长篇博文表示,AI竞赛美国稳操胜券,原因就在算力上。

来自主题: AI技术研报
7715 点击    2025-04-28 18:29
如何设计一个agent和浏览器沙箱的AI产品?

如何设计一个agent和浏览器沙箱的AI产品?

如何设计一个agent和浏览器沙箱的AI产品?

最近对了几个agent相关的代码项目,总结了一下目前整体的设计思路,比如如何设计一个基于agent和浏览器沙箱的AI产品,分析了关键架构、工作流程、关键组件及其交互方式。

来自主题: AI技术研报
5745 点击    2025-04-28 17:57
7B超越GPT!1/20数据,无需知识蒸馏,马里兰等推出全新视觉推理方法

7B超越GPT!1/20数据,无需知识蒸馏,马里兰等推出全新视觉推理方法

7B超越GPT!1/20数据,无需知识蒸馏,马里兰等推出全新视觉推理方法

通过蒙特卡洛树搜索筛选高难度样本,ThinkLite-VL仅用少量数据就能显著提升视觉语言模型的推理能力,无需知识蒸馏,为高效训练提供了新思路。

来自主题: AI技术研报
7129 点击    2025-04-28 16:59
强化学习被高估!清华上交:RL不能提升推理能力,新知识得靠蒸馏

强化学习被高估!清华上交:RL不能提升推理能力,新知识得靠蒸馏

强化学习被高估!清华上交:RL不能提升推理能力,新知识得靠蒸馏

一项来自清华大学和上海交通大学的研究颠覆了对可验证奖励强化学习(RLVR)的认知。RLVR被认为是打造自我进化大模型的关键,但实验表明,它可能只是提高了采样效率,而非真正赋予模型全新推理能力。

来自主题: AI技术研报
5916 点击    2025-04-28 16:51
终于等到开源好用的修图大模型了!阶跃模型三连发,卷疯了多模态赛道

终于等到开源好用的修图大模型了!阶跃模型三连发,卷疯了多模态赛道

终于等到开源好用的修图大模型了!阶跃模型三连发,卷疯了多模态赛道

最近在看 Agent 方向的论文和产品,已经被各种进展看花了眼。但我发现,真正能超越 demo,能在 B 端场景扎实落地的却寥寥无几。

来自主题: AI技术研报
7074 点击    2025-04-28 16:40
首个系统性工具使用奖励范式,ToolRL刷新大模型训练思路

首个系统性工具使用奖励范式,ToolRL刷新大模型训练思路

首个系统性工具使用奖励范式,ToolRL刷新大模型训练思路

「工欲善其事,必先利其器。」 如今,人工智能正以前所未有的速度革新人类认知的边界,而工具的高效应用已成为衡量人工智能真正智慧的关键标准。

来自主题: AI技术研报
5701 点击    2025-04-28 14:53
字节Seed团队PHD-Transformer突破预训练长度扩展!破解KV缓存膨胀难题

字节Seed团队PHD-Transformer突破预训练长度扩展!破解KV缓存膨胀难题

字节Seed团队PHD-Transformer突破预训练长度扩展!破解KV缓存膨胀难题

最近,DeepSeek-R1 和 OpenAI o1/03 等推理大模型在后训练阶段探索了长度扩展(length scaling),通过强化学习(比如 PPO、GPRO)训练模型生成很长的推理链(CoT),并在奥数等高难度推理任务上取得了显著的效果提升。

来自主题: AI技术研报
5316 点击    2025-04-28 14:09
OpenAI没说的秘密,Meta全揭了?华人一作GPT-4o同款技术,爆打扩散王者

OpenAI没说的秘密,Meta全揭了?华人一作GPT-4o同款技术,爆打扩散王者

OpenAI没说的秘密,Meta全揭了?华人一作GPT-4o同款技术,爆打扩散王者

自回归模型,首次生成2048×2048分辨率图像!来自Meta、西北大学、新加坡国立大学等机构的研究人员,专门为多模态大语言模型(MLLMs)设计的TokenShuffle,显著减少了计算中的视觉Token数量,提升效率并支持高分辨率图像合成。

来自主题: AI技术研报
7753 点击    2025-04-28 09:16
70%大小,100%准确!完美压缩LLM性能0损失,推理速度最高飙升39倍

70%大小,100%准确!完美压缩LLM性能0损失,推理速度最高飙升39倍

70%大小,100%准确!完美压缩LLM性能0损失,推理速度最高飙升39倍

LLM的规模爆炸式增长,传统量化技术虽能压缩模型,却以牺牲精度为代价。莱斯大学团队的最新研究DFloat11打破这一僵局:它将模型压缩30%且输出与原始模型逐位一致!更惊艳的是,通过针对GPU的定制化解压缩内核,DFloat11使推理吞吐量提升最高38.8倍。

来自主题: AI技术研报
7730 点击    2025-04-28 09:05
用"ADL"Agent声明式语言,让你几分钟上线一个Agent | UCSB最新

用"ADL"Agent声明式语言,让你几分钟上线一个Agent | UCSB最新

用"ADL"Agent声明式语言,让你几分钟上线一个Agent | UCSB最新

今天的Agent框架虽然功能强大,但对于没有编程经验的客户服务专业人员来说却过于复杂。这些框架如AutoGen、LangGraph、CrewAI等通常将Agent声明嵌入到复杂的Python代码中,使整体工作流程难以把握,门槛过高。对于仅需构建带有业务逻辑的客服聊天机器人的非技术人员而言,这些框架犹如天书,让他们望而却步。

来自主题: AI技术研报
6867 点击    2025-04-27 13:27