AI技术研报-这里有最前沿的人工智能技术解读

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
AITNT-国内领先的一站式人工智能新闻资讯网站 搜索
英伟达提出首个Mamba-Transformer视觉骨干网络!打破精度/吞吐瓶颈 | CVPR 2025

英伟达提出首个Mamba-Transformer视觉骨干网络!打破精度/吞吐瓶颈 | CVPR 2025

英伟达提出首个Mamba-Transformer视觉骨干网络!打破精度/吞吐瓶颈 | CVPR 2025

CVPR 2025,混合新架构MambaVision来了!Mamba+Transformer混合架构专门为CV应用设计。MambaVision 在Top-1精度和图像吞吐量方面实现了新的SOTA,显著超越了基于Transformer和Mamba的模型。

来自主题: AI技术研报
7507 点击    2025-03-08 13:10
7B的DeepSeek蒸馏Qwen数学超o1!在测试时间强化学习,MIT积分题大赛考93分

7B的DeepSeek蒸馏Qwen数学超o1!在测试时间强化学习,MIT积分题大赛考93分

7B的DeepSeek蒸馏Qwen数学超o1!在测试时间强化学习,MIT积分题大赛考93分

见识过32B的QwQ追平671的DeepSeek R1后——刚刚,7B的DeepSeek蒸馏Qwen模型超越o1又是怎么一回事?新方法LADDER,通过递归问题分解实现AI模型的自我改进,同时不需要人工标注数据。

来自主题: AI技术研报
4594 点击    2025-03-08 10:38
无需大量标注也能理解3D!新研究登上ICLR 2025 Spotlight

无需大量标注也能理解3D!新研究登上ICLR 2025 Spotlight

无需大量标注也能理解3D!新研究登上ICLR 2025 Spotlight

来自哥本哈根大学、苏黎世联邦理工学院等机构的研究人员,提出了一个全新的多模态Few-shot 3D分割设定和创新方法。无需额外标注成本,该方法就可以融合文本、2D和3D信息,让模型迅速掌握新类别。

来自主题: AI技术研报
3523 点击    2025-03-08 09:45
微软GUI智能体OmniParser二代开源!推理延迟降低60%,大模型玩手机更溜了

微软GUI智能体OmniParser二代开源!推理延迟降低60%,大模型玩手机更溜了

微软GUI智能体OmniParser二代开源!推理延迟降低60%,大模型玩手机更溜了

OmniParser V2可将屏幕截图转换为结构化元素,帮助LLM理解和操作GUI;在检测小图标和推理速度上显著提升,延迟降低60%,与多种LLM结合后表现优异。

来自主题: AI技术研报
7904 点击    2025-03-07 16:14
CVPR 2025|北大开源多模态驱动的定制化漫画生成框架DiffSensei,还有4.3万页漫画数据集

CVPR 2025|北大开源多模态驱动的定制化漫画生成框架DiffSensei,还有4.3万页漫画数据集

CVPR 2025|北大开源多模态驱动的定制化漫画生成框架DiffSensei,还有4.3万页漫画数据集

北京大学、上海人工智能实验室、南洋理工大学联合推出 DiffSensei,首个结合多模态大语言模型(MLLM)与扩散模型的定制化漫画生成框架。该框架通过创新的掩码交叉注意力机制与文本兼容的角色适配器,实现了对多角色外观、表情、动作的精确控制

来自主题: AI技术研报
8018 点击    2025-03-07 14:15
风格迁移重大突破!西湖大学等提出StyleStudio攻克「过拟合」难题 | CVPR 2025

风格迁移重大突破!西湖大学等提出StyleStudio攻克「过拟合」难题 | CVPR 2025

风格迁移重大突破!西湖大学等提出StyleStudio攻克「过拟合」难题 | CVPR 2025

StyleStudio能解决风格迁移中风格过拟合、文本对齐差和图像不稳定的问题,通过跨模态AdaIN技术融合文本和风格特征、用教师模型稳定布局、引入基于风格的无分类器引导,实现精准控制风格元素,提升生成图像的质量和稳定性,无需额外训练,使用门槛更低!

来自主题: AI技术研报
2550 点击    2025-03-07 11:04
开启空间智能问答新时代:Spatial-RAG框架来了

开启空间智能问答新时代:Spatial-RAG框架来了

开启空间智能问答新时代:Spatial-RAG框架来了

当涉及到空间推理任务时,LLMs 的表现却显得力不从心。空间推理不仅要求模型理解复杂的空间关系,还需要结合地理数据和语义信息,生成准确的回答。为了突破这一瓶颈,研究人员推出了 Spatial Retrieval-Augmented Generation (Spatial-RAG)—— 一个革命性的框架,旨在增强 LLMs 在空间推理任务中的能力。

来自主题: AI技术研报
4844 点击    2025-03-07 10:34
智源BGE-VL拍照提问即可精准搜,1/70数据击穿多模态检索天花板!

智源BGE-VL拍照提问即可精准搜,1/70数据击穿多模态检索天花板!

智源BGE-VL拍照提问即可精准搜,1/70数据击穿多模态检索天花板!

智源联手多所顶尖高校发布的多模态向量模型BGE-VL,重塑了AI检索领域的游戏规则。它凭借独创的MegaPairs合成数据技术,在图文检索、组合图像检索等多项任务中,横扫各大基准刷新SOTA。

来自主题: AI技术研报
3498 点击    2025-03-07 10:34
阿里千问QwQ-32B推理模型开源,比肩671B满血DeepSeek-R1!笔记本就能跑

阿里千问QwQ-32B推理模型开源,比肩671B满血DeepSeek-R1!笔记本就能跑

阿里千问QwQ-32B推理模型开源,比肩671B满血DeepSeek-R1!笔记本就能跑

仅用32B,就击败o1-mini追平671B满血版DeepSeek-R1!阿里深夜重磅发布的QwQ-32B,再次让全球开发者陷入狂欢:消费级显卡就能跑,还一下子干到推理模型天花板!

来自主题: AI技术研报
4842 点击    2025-03-07 10:28
DeepSeek的MLA,任意大模型都能轻松迁移了

DeepSeek的MLA,任意大模型都能轻松迁移了

DeepSeek的MLA,任意大模型都能轻松迁移了

DeepSeek-R1 作为 AI 产业颠覆式创新的代表轰动了业界,特别是其训练与推理成本仅为同等性能大模型的数十分之一。多头潜在注意力网络(Multi-head Latent Attention, MLA)是其经济推理架构的核心之一,通过对键值缓存进行低秩压缩,显著降低推理成本 [1]。

来自主题: AI技术研报
4837 点击    2025-03-07 10:24
GPT 5/o3欠拟合与过拟合详细分析与深度思考(三万字超长洞察,慎入)

GPT 5/o3欠拟合与过拟合详细分析与深度思考(三万字超长洞察,慎入)

GPT 5/o3欠拟合与过拟合详细分析与深度思考(三万字超长洞察,慎入)

当模型复杂度增加到一定程度后,模型开始对训练数据中的噪声和异常值进行拟合,而不是仅仅学习数据中的真实模式。这导致模型在训练数据上表现得非常好,但在新的数据上表现不佳,因为新的数据中噪声和异常值的分布与训练数据不同。

来自主题: AI技术研报
7960 点击    2025-03-06 23:31
司南首期多模态模型闭源榜单发布!48个模型同台竞技,谁将脱颖而出?

司南首期多模态模型闭源榜单发布!48个模型同台竞技,谁将脱颖而出?

司南首期多模态模型闭源榜单发布!48个模型同台竞技,谁将脱颖而出?

基于闭源评测基准,近期司南针对国内外主流多模态大模型进行了全面评测,现公布司南首期多模态模型闭源评测榜单。首期榜单共包含 48 个多模态模型,其中包含:3 个国内 API 模型:GLM-4v-Plus-20250111 (智谱),Step-1o (阶跃),BailingMM-Pro-0120 (蚂蚁)

来自主题: AI技术研报
7995 点击    2025-03-06 19:45
AI话痨终结者!UCSD清华提出「思维扫描术」Dynasor-CoT,推理巨省token

AI话痨终结者!UCSD清华提出「思维扫描术」Dynasor-CoT,推理巨省token

AI话痨终结者!UCSD清华提出「思维扫描术」Dynasor-CoT,推理巨省token

推理模型在复杂任务上表现惊艳,缺点是低下的token效率。UCSD清华等机构的研究人员发现,问题根源在于模型的「自我怀疑」!研究团队提出了Dynasor-CoT,一种无需训练、侵入性小且简单的方法。

来自主题: AI技术研报
8112 点击    2025-03-06 17:15
智源开源多模态向量模型BGE-VL:多模态检索新突破

智源开源多模态向量模型BGE-VL:多模态检索新突破

智源开源多模态向量模型BGE-VL:多模态检索新突破

BGE 系列模型自发布以来广受社区好评。近日,智源研究院联合多所高校开发了多模态向量模型 BGE-VL,进一步扩充了原有生态体系。

来自主题: AI技术研报
7004 点击    2025-03-06 17:05
谷歌最新PlanGEN框架,开发自适应Multi-Agent,错过太可惜,不用邀请码

谷歌最新PlanGEN框架,开发自适应Multi-Agent,错过太可惜,不用邀请码

谷歌最新PlanGEN框架,开发自适应Multi-Agent,错过太可惜,不用邀请码

Agent这两天随着邀请码进入公众视野,展示了不凡的推理能力。然而,当面对需要精确规划和深度推理的复杂问题时,即使是最先进的LLMs也常常力不从心。Google研究团队提出的PlanGEN框架,正是为解决这一挑战而生。

来自主题: AI技术研报
2783 点击    2025-03-06 16:55
ET-SEED:提升机器人操作泛化能力的高效等变扩散策略

ET-SEED:提升机器人操作泛化能力的高效等变扩散策略

ET-SEED:提升机器人操作泛化能力的高效等变扩散策略

本文提出了一种轨迹级别 SE (3) 等变的扩散策略(ET-SEED),通过将等变表示学习和扩散策略结合,使机器人能够在极少的示范数据下高效学习复杂操作技能,并能够泛化到不同物体姿态和环境中。

来自主题: AI技术研报
3727 点击    2025-03-06 15:24
360智脑开源Light-R1!1000美元数学上首次从零超越DeepSeek-R1-Distill

360智脑开源Light-R1!1000美元数学上首次从零超越DeepSeek-R1-Distill

360智脑开源Light-R1!1000美元数学上首次从零超越DeepSeek-R1-Distill

2025 年 3 月 4 日,360 智脑开源了 Light-R1-32B 模型,以及全部训练数据、代码。仅需 12 台 H800 上 6 小时即可训练完成,从没有长思维链的 Qwen2.5-32B-Instruct 出发,仅使用 7 万条数学数据训练,得到 Light-R1-32B

来自主题: AI技术研报
4836 点击    2025-03-06 11:13
用AgenticLU长上下文理解,LLM澄清链CoC实现自学,答案召回率高达97.8% | 最新

用AgenticLU长上下文理解,LLM澄清链CoC实现自学,答案召回率高达97.8% | 最新

用AgenticLU长上下文理解,LLM澄清链CoC实现自学,答案召回率高达97.8% | 最新

LLM一个突出的挑战是如何有效处理和理解长文本。就像下图所示,准确率会随着上下文长度显著下降,那么究竟应该怎样提升LLM对长文本理解的准确率呢?

来自主题: AI技术研报
7069 点击    2025-03-06 09:54
上海AI Lab最新推出Mixture-of-Memories:线性注意力也有稀疏记忆了

上海AI Lab最新推出Mixture-of-Memories:线性注意力也有稀疏记忆了

上海AI Lab最新推出Mixture-of-Memories:线性注意力也有稀疏记忆了

回顾 AGI 的爆发,从最初的 pre-training (model/data) scaling,到 post-training (SFT/RLHF) scaling,再到 reasoning (RL) scaling,找到正确的 scaling 维度始终是问题的本质。

来自主题: AI技术研报
3981 点击    2025-03-06 09:46
为什么Qwen能自我改进推理,Llama却不行?斯坦福找到了原理

为什么Qwen能自我改进推理,Llama却不行?斯坦福找到了原理

为什么Qwen能自我改进推理,Llama却不行?斯坦福找到了原理

虽然 Qwen「天生」就会检查自己的答案并修正错误。但找到原理之后,我们也能让 Llama 学会自我改进。

来自主题: AI技术研报
7032 点击    2025-03-06 09:37
AI产品在海外,如何实现有效增长

AI产品在海外,如何实现有效增长

AI产品在海外,如何实现有效增长

增长是手段,但不是能解决一切问题的手段。因为只要你的网站还存在很多问题,那么增长就无法发挥最大的作用。增长是手段,而不是目的,最终是为具体的目的服务的,比如商业化。接下来现场嘉宾会讲一下商业化。所以按照第一性原理,你不是为了增长而增长,而是为了赚钱而增长,没有商业化的增长是一种负担。

来自主题: AI技术研报
6659 点击    2025-03-05 22:43
全球首次!2B复现DeepSeek-R1「啊哈时刻」,UCLA等用纯RL实现多模态推理

全球首次!2B复现DeepSeek-R1「啊哈时刻」,UCLA等用纯RL实现多模态推理

全球首次!2B复现DeepSeek-R1「啊哈时刻」,UCLA等用纯RL实现多模态推理

由UCLA等机构共同组建的研究团队,全球首次在20亿参数非SFT模型上,成功实现了多模态推理的DeepSeek-R1「啊哈时刻」!就在刚刚,我们在未经监督微调的2B模型上,见证了基于DeepSeek-R1-Zero方法的视觉推理「啊哈时刻」!

来自主题: AI技术研报
6697 点击    2025-03-05 20:42
空间具身通用操作模型!百万真实数据训练,预训练代码全开源 | 上海AI Lab/TeleAI/上科大等团队新作

空间具身通用操作模型!百万真实数据训练,预训练代码全开源 | 上海AI Lab/TeleAI/上科大等团队新作

空间具身通用操作模型!百万真实数据训练,预训练代码全开源 | 上海AI Lab/TeleAI/上科大等团队新作

与3D物理环境交互、适应不同机器人形态并执行复杂任务的通用操作策略,一直是机器人领域的长期追求。

来自主题: AI技术研报
3768 点击    2025-03-05 13:46
DeepSearcher深度解读:Agentic RAG的出现,传统RAG的黄昏

DeepSearcher深度解读:Agentic RAG的出现,传统RAG的黄昏

DeepSearcher深度解读:Agentic RAG的出现,传统RAG的黄昏

技术上,从传统的关键词检索,到RAG,大家已经不满足于只是生成对应的简单回答。而是期待大语言模型能够更好地应用于企业级场景,产生更大的价值。不久前,OpenAI推出了最新的深度内容生成神器“DeepResearch”,用户只需一个"特斯拉的合理市值是多少"的提问,

来自主题: AI技术研报
8069 点击    2025-03-05 12:06
Dify外接Fastgpt知识库,这套组合可以说封神了!【喂饭级教程】

Dify外接Fastgpt知识库,这套组合可以说封神了!【喂饭级教程】

Dify外接Fastgpt知识库,这套组合可以说封神了!【喂饭级教程】

说真的,dify除了知识库以外,其他大部分功能体验都比fastgpt要好。而fastgpt的知识库效果是公认的好(以下是某群 群友的评价~)不过我想: 如果能把dify和fastgpt结合,且不妙哉?

来自主题: AI技术研报
9487 点击    2025-03-05 11:25
DeepSeek-R1 x Agentic RAG:构建带"深度思考"开关的知识研究助理|深度长文

DeepSeek-R1 x Agentic RAG:构建带"深度思考"开关的知识研究助理|深度长文

DeepSeek-R1 x Agentic RAG:构建带"深度思考"开关的知识研究助理|深度长文

RAG是一种基于“检索结果”做推理的应用,这大大限制了类似DeepSeek-R1模型的发挥空间。但又的确存在将RAG的准确性与DeepSeek深度思考能力结合的场景,而不仅仅是回答事实性问题。比如:

来自主题: AI技术研报
8046 点击    2025-03-05 11:07
从 R1 到 Sonnet 3.7,Reasoning Model 首轮竞赛中有哪些关键信号?

从 R1 到 Sonnet 3.7,Reasoning Model 首轮竞赛中有哪些关键信号?

从 R1 到 Sonnet 3.7,Reasoning Model 首轮竞赛中有哪些关键信号?

DeepSeek R1 催化了 reasoning model 的竞争:在过去的一个月里,头部 AI labs 已经发布了三个 SOTA reasoning models:OpenAI 的 o3-mini 和deep research, xAI 的 Grok 3 和 Anthropic 的 Claude 3.7 Sonnet。

来自主题: AI技术研报
7145 点击    2025-03-05 09:39
北京大学彭宇新教授团队开源最新多轮交互式商品检索模型、数据集及评测基准

北京大学彭宇新教授团队开源最新多轮交互式商品检索模型、数据集及评测基准

北京大学彭宇新教授团队开源最新多轮交互式商品检索模型、数据集及评测基准

本文构建了新的多轮组合图像检索数据集和评测基准FashionMT。其特点包括:(1)回溯性:每轮修改文本可能涉及历史参考图像信息(如保留特定属性),要求算法回溯利用多轮历史信息;(2)多样化:FashionMT包含的电商图像数量和类别分别是MT FashionIQ的14倍和30倍,且交互轮次数量接近其27倍,提供了丰富的多模态检索场景。

来自主题: AI技术研报
6976 点击    2025-03-05 08:46