AI技术研报-这里有最前沿的人工智能技术解读

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
AITNT-国内领先的一站式人工智能新闻资讯网站 搜索
DeepSeek-R1 x Agentic RAG:构建带"深度思考"开关的知识研究助理|深度长文

DeepSeek-R1 x Agentic RAG:构建带"深度思考"开关的知识研究助理|深度长文

DeepSeek-R1 x Agentic RAG:构建带"深度思考"开关的知识研究助理|深度长文

RAG是一种基于“检索结果”做推理的应用,这大大限制了类似DeepSeek-R1模型的发挥空间。但又的确存在将RAG的准确性与DeepSeek深度思考能力结合的场景,而不仅仅是回答事实性问题。比如:

来自主题: AI技术研报
7992 点击    2025-03-05 11:07
从 R1 到 Sonnet 3.7,Reasoning Model 首轮竞赛中有哪些关键信号?

从 R1 到 Sonnet 3.7,Reasoning Model 首轮竞赛中有哪些关键信号?

从 R1 到 Sonnet 3.7,Reasoning Model 首轮竞赛中有哪些关键信号?

DeepSeek R1 催化了 reasoning model 的竞争:在过去的一个月里,头部 AI labs 已经发布了三个 SOTA reasoning models:OpenAI 的 o3-mini 和deep research, xAI 的 Grok 3 和 Anthropic 的 Claude 3.7 Sonnet。

来自主题: AI技术研报
7120 点击    2025-03-05 09:39
北京大学彭宇新教授团队开源最新多轮交互式商品检索模型、数据集及评测基准

北京大学彭宇新教授团队开源最新多轮交互式商品检索模型、数据集及评测基准

北京大学彭宇新教授团队开源最新多轮交互式商品检索模型、数据集及评测基准

本文构建了新的多轮组合图像检索数据集和评测基准FashionMT。其特点包括:(1)回溯性:每轮修改文本可能涉及历史参考图像信息(如保留特定属性),要求算法回溯利用多轮历史信息;(2)多样化:FashionMT包含的电商图像数量和类别分别是MT FashionIQ的14倍和30倍,且交互轮次数量接近其27倍,提供了丰富的多模态检索场景。

来自主题: AI技术研报
6962 点击    2025-03-05 08:46
老显卡福音!美团开源首发INT8无损满血版DeepSeek R1

老显卡福音!美团开源首发INT8无损满血版DeepSeek R1

老显卡福音!美团开源首发INT8无损满血版DeepSeek R1

满血版DeepSeek R1部署A100,基于INT8量化,相比BF16实现50%吞吐提升! 美团搜推机器学习团队最新开源,实现对DeepSeek R1模型基本无损的INT8精度量化。

来自主题: AI技术研报
5803 点击    2025-03-04 20:36
视觉强化微调!DeepSeek R1技术成功迁移到多模态领域,全面开源

视觉强化微调!DeepSeek R1技术成功迁移到多模态领域,全面开源

视觉强化微调!DeepSeek R1技术成功迁移到多模态领域,全面开源

通过针对视觉的细分类、目标检测等任务设计对应的规则奖励,Visual-RFT 打破了 DeepSeek-R1 方法局限于文本、数学推理、代码等少数领域的认知,为视觉语言模型的训练开辟了全新路径!

来自主题: AI技术研报
5879 点击    2025-03-04 20:09
DeepSeek前实习生魔改MoE,用迭代机制把内存需求砍了42%,团队:“免费午餐”优化方法

DeepSeek前实习生魔改MoE,用迭代机制把内存需求砍了42%,团队:“免费午餐”优化方法

DeepSeek前实习生魔改MoE,用迭代机制把内存需求砍了42%,团队:“免费午餐”优化方法

DeepSeek MoE“变体”来了,200美元以内,内存需求减少17.6-42%! 名叫CoE(Chain-of-Experts),被认为是一种“免费午餐”优化方法,突破了MoE并行独立处理token、整体参数数量较大需要大量内存资源的局限。

来自主题: AI技术研报
5738 点击    2025-03-04 20:02
NP难问题接近被AI破解!南航牛津爆改DeepSeek-R1推理,碾压人类27年研究

NP难问题接近被AI破解!南航牛津爆改DeepSeek-R1推理,碾压人类27年研究

NP难问题接近被AI破解!南航牛津爆改DeepSeek-R1推理,碾压人类27年研究

给DeepSeek-R1推理指导,它的数学推理能力就开始暴涨。更令人吃惊是,Qwen2.5-14B居然给出了此前从未见过的希尔伯特问题的反例!而人类为此耗费了27年。研究者预言:LLM离破解NP-hard问题,已经又近了一步。

来自主题: AI技术研报
8112 点击    2025-03-04 16:20
有没有复杂任务自动化的Multi-Agent框架?用Nexus,几行YAML搞定数据清洗

有没有复杂任务自动化的Multi-Agent框架?用Nexus,几行YAML搞定数据清洗

有没有复杂任务自动化的Multi-Agent框架?用Nexus,几行YAML搞定数据清洗

随着R1等先进推理模型展现出接近人类的推理能力,多代理系统(Multi-Agent Systems,MAS)的发展也出现了前所未有的机遇。然而,随着我们尝试构建越来越复杂的多代理系统,一个核心问题日益凸显:如何在保持系统灵活性的同时,降低开发和维护的复杂度?

来自主题: AI技术研报
6849 点击    2025-03-04 16:12
DeepSeek-R1、o1都在及格线挣扎!字节开源全新知识推理测评集,覆盖285个学科

DeepSeek-R1、o1都在及格线挣扎!字节开源全新知识推理测评集,覆盖285个学科

DeepSeek-R1、o1都在及格线挣扎!字节开源全新知识推理测评集,覆盖285个学科

要知道,过去几年,各种通用评测逐渐同质化,越来越难以评估模型真实能力。GPQA、MMLU-pro、MMLU等流行基准,各家模型出街时人手一份,但局限性也开始暴露,比如覆盖范围狭窄(通常不足 50 个学科),不含长尾知识;缺乏足够挑战性和区分度,比如 GPT-4o 在 MMLU-Pro 上准确率飙到 92.3%。

来自主题: AI技术研报
5894 点击    2025-03-04 14:28
DeepSeek R1与OpenAI模型文风相似度高达74.2%?新研究质疑DeepSeek训练数据

DeepSeek R1与OpenAI模型文风相似度高达74.2%?新研究质疑DeepSeek训练数据

DeepSeek R1与OpenAI模型文风相似度高达74.2%?新研究质疑DeepSeek训练数据

在 DeepSeek 生成的文本中,有 74.2% 的文本在风格上与 OpenAI 模型具有惊人的相似性?这是一项新研究得出的结论。这项研究来自 Copyleaks—— 一个专注于检测文本中的抄袭和 AI 生成内容的平台。

来自主题: AI技术研报
7768 点击    2025-03-04 14:23
天翼云CPU实例部署DeepSeek-R1模型最佳实践

天翼云CPU实例部署DeepSeek-R1模型最佳实践

天翼云CPU实例部署DeepSeek-R1模型最佳实践

本文介绍了英特尔®至强®处理器在AI推理领域的优势,如何使用一键部署的镜像进行纯CPU环境下基于AMX加速后的DeepSeek-R1 7B蒸馏模型推理,以及纯CPU环境下部署DeepSeek-R1 671B满血版模型实践。

来自主题: AI技术研报
6877 点击    2025-03-04 10:23
生成与理解相互促进!华科字节提出Liquid,揭示统一多模态模型尺度规律!

生成与理解相互促进!华科字节提出Liquid,揭示统一多模态模型尺度规律!

生成与理解相互促进!华科字节提出Liquid,揭示统一多模态模型尺度规律!

近年来大语言模型(LLM)的迅猛发展正推动人工智能迈向多模态融合的新纪元。然而,现有主流多模态大模型(MLLM)依赖复杂的外部视觉模块(如 CLIP 或扩散模型),导致系统臃肿、扩展受限,成为跨模态智能进化的核心瓶颈。

来自主题: AI技术研报
8071 点击    2025-03-04 09:52
全网最全:DeepSeek开源Week全系列解读

全网最全:DeepSeek开源Week全系列解读

全网最全:DeepSeek开源Week全系列解读

农历新年刚过,DeepSeek卷王依旧,这次一下子进行了接连六天的开源Week。

来自主题: AI技术研报
6303 点击    2025-03-03 15:00
搞RAG开发,听都没听说过Embedding模型排名,快看下MMTEB嵌入基准 | ICLR2025

搞RAG开发,听都没听说过Embedding模型排名,快看下MMTEB嵌入基准 | ICLR2025

搞RAG开发,听都没听说过Embedding模型排名,快看下MMTEB嵌入基准 | ICLR2025

什么,你在开发RAG竟然还没听说过Embedding模型还有排名?在AI应用开发热潮中,Embedding模型的选择已成为决定RAG系统成败的关键因素。然而,令人惊讶的是,许多开发者仍依靠直觉或跟风选择模型,而非基于系统化评估。

来自主题: AI技术研报
8877 点击    2025-03-03 10:40
LLM「啊哈时刻」竟会自我纠正,单体数学性能暴涨!UIUC华人一作

LLM「啊哈时刻」竟会自我纠正,单体数学性能暴涨!UIUC华人一作

LLM「啊哈时刻」竟会自我纠正,单体数学性能暴涨!UIUC华人一作

LLM在推理任务中表现惊艳,却在自我纠正上的短板却一直令人头疼。UIUC联手马里兰大学全华人团队提出一种革命性的自我奖励推理框架,将生成、评估和纠正能力集成于单一LLM,让模型像人类一样「边想边改」,无需外部帮助即可提升准确性。

来自主题: AI技术研报
7117 点击    2025-03-03 10:28
360AI推出DiT架构下"省钱版"ControlNet, 参数量骤减85%性能达到SOTA!

360AI推出DiT架构下"省钱版"ControlNet, 参数量骤减85%性能达到SOTA!

360AI推出DiT架构下"省钱版"ControlNet, 参数量骤减85%性能达到SOTA!

现有的可控Diffusion Transformer方法,虽然在推进文本到图像和视频生成方面取得了显著进展,但也带来了大量的参数和计算开销。

来自主题: AI技术研报
5898 点击    2025-03-03 10:06
怎么在DeepSeek里做SEO:一篇文章讲透生成引擎优化GEO

怎么在DeepSeek里做SEO:一篇文章讲透生成引擎优化GEO

怎么在DeepSeek里做SEO:一篇文章讲透生成引擎优化GEO

通过Deepseek、ChatGPT、Gemini等大模型说出来的话,不少没有辨别能力的小伙伴就会默认是公道与正确的。其实是未必。1.Deepseek、ChatGPT、Gemini等联网搜索的结果与规则还在完善;

来自主题: AI技术研报
8018 点击    2025-03-03 09:36
LeCun世界模型再近一步!Meta研究证明:AI可无先验理解直觉物理

LeCun世界模型再近一步!Meta研究证明:AI可无先验理解直觉物理

LeCun世界模型再近一步!Meta研究证明:AI可无先验理解直觉物理

AI如何理解物理世界?视频联合嵌入预测架构V-JEPA带来新突破,无需硬编码核心知识,在自监督预训练中展现出对直观物理的理解,超越了基于像素的预测模型和多模态LLM。

来自主题: AI技术研报
9156 点击    2025-03-02 15:47
ICLR 2025 | 机器人安灯泡、切东西都能拿捏,可操控轨迹跟踪的DexTrack来了

ICLR 2025 | 机器人安灯泡、切东西都能拿捏,可操控轨迹跟踪的DexTrack来了

ICLR 2025 | 机器人安灯泡、切东西都能拿捏,可操控轨迹跟踪的DexTrack来了

现实世界的机器人距离科幻小说里的机器人世界还有多远?通用灵巧操控何时才能实现?朝着这一伟大的目标,研究通用灵巧操控轨迹跟踪的 DexTrack 便应用而生。

来自主题: AI技术研报
8321 点击    2025-03-02 15:29
DeepSeek关键RL算法GRPO,有人从头跑通了,贡献完整代码

DeepSeek关键RL算法GRPO,有人从头跑通了,贡献完整代码

DeepSeek关键RL算法GRPO,有人从头跑通了,贡献完整代码

GRPO(Group Relative Policy Optimization)是 DeepSeek-R1 成功的基础技术之一,我们之前也多次报道过该技术,比如《DeepSeek 用的 GRPO 占用大量内存?有人给出了些破解方法》。

来自主题: AI技术研报
8122 点击    2025-03-02 15:14
a16z:从Prompt到Product,AI驱动的网页应用搭建工具正在兴起

a16z:从Prompt到Product,AI驱动的网页应用搭建工具正在兴起

a16z:从Prompt到Product,AI驱动的网页应用搭建工具正在兴起

从本质上讲,LLM会根据用户从UI的输入生成代码示例。然后,生成的代码会通过中间件逻辑进行处理,根据逻辑跟踪文件、代码更改和第三方API调用。

来自主题: AI技术研报
7519 点击    2025-03-02 14:16
微软原WizardLM团队:代码大模型WarriorCoder,性能新SOTA

微软原WizardLM团队:代码大模型WarriorCoder,性能新SOTA

微软原WizardLM团队:代码大模型WarriorCoder,性能新SOTA

近年来,大型语言模型(LLMs)在代码相关的任务上展现了惊人的表现,各种代码大模型层出不穷。这些成功的案例表明,在大规模代码数据上进行预训练可以显著提升模型的核心编程能力。

来自主题: AI技术研报
8396 点击    2025-03-02 14:13
MIT三人团队:用Transformer解决经验贝叶斯问题,比经典方法快100倍

MIT三人团队:用Transformer解决经验贝叶斯问题,比经典方法快100倍

MIT三人团队:用Transformer解决经验贝叶斯问题,比经典方法快100倍

Transformer 很成功,更一般而言,我们甚至可以将(仅编码器)Transformer 视为学习可交换数据的通用引擎。由于大多数经典的统计学任务都是基于独立同分布(iid)采用假设构建的,因此很自然可以尝试将 Transformer 用于它们。

来自主题: AI技术研报
5935 点击    2025-03-02 13:22