AI技术研报-这里有最前沿的人工智能技术解读

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
OpenClaw白嫖云部署!附自定义模型API和4种Skills神级用法~

OpenClaw白嫖云部署!附自定义模型API和4种Skills神级用法~

OpenClaw白嫖云部署!附自定义模型API和4种Skills神级用法~

大家好,我是袋鼠帝。最近这两周,我的X(推特)和各种群都被刷屏了。作为一名一直在折腾 AI Agent 的博主,我当然坐不住。这几天我抽空疯狂研究OpenClaw,又是买服务器,又是配环境,把OpenClaw的多种玩法撸了一遍。

来自主题: AI技术研报
8484 点击    2026-02-10 14:33
0.3B参数,600MB内存!腾讯混元实现产业级2Bit量化,端侧模型小如手机App

0.3B参数,600MB内存!腾讯混元实现产业级2Bit量化,端侧模型小如手机App

0.3B参数,600MB内存!腾讯混元实现产业级2Bit量化,端侧模型小如手机App

等效参数量仅0.3B,内存占用仅600MB,更适合端侧部署还带思维链的模型来了。腾讯混元最新推出面向消费级硬件场景的“极小”模型HY-1.8B-2Bit,体量甚至比常用的一些手机应用还小。

来自主题: AI技术研报
5859 点击    2026-02-10 14:28
训练加速1.8倍,推理开销降78%!精准筛选题目高效加速RL训练丨清华KDD

训练加速1.8倍,推理开销降78%!精准筛选题目高效加速RL训练丨清华KDD

训练加速1.8倍,推理开销降78%!精准筛选题目高效加速RL训练丨清华KDD

以DeepSeek R1为代表的一系列基于强化学习(RLVR)微调的工作,显著提升了大语言模型的推理能力。但在这股浪潮背后,强化微调的代价却高得惊人。

来自主题: AI技术研报
8676 点击    2026-02-10 14:19
2026开年关键词:Self-Distillation,大模型真正走向「持续学习」

2026开年关键词:Self-Distillation,大模型真正走向「持续学习」

2026开年关键词:Self-Distillation,大模型真正走向「持续学习」

2026 年刚拉开序幕,大模型(LLM)领域的研究者们似乎达成了一种默契。 当你翻开最近 arXiv 上最受关注的几篇论文,会发现一个高频出现的词汇:Self-Distillation。

来自主题: AI技术研报
5829 点击    2026-02-10 14:17
给GRPO加上运筹外挂让7B模型比肩GPT-4!Li Auto团队发布多目标强化学习新框架 | ICASSP 2026

给GRPO加上运筹外挂让7B模型比肩GPT-4!Li Auto团队发布多目标强化学习新框架 | ICASSP 2026

给GRPO加上运筹外挂让7B模型比肩GPT-4!Li Auto团队发布多目标强化学习新框架 | ICASSP 2026

文本摘要作为自然语言处理(NLP)的核心任务,其质量评估通常需要兼顾一致性(Consistency)、连贯性(Coherence)、流畅性(Fluency)和相关性(Relevance)等多个维度。

来自主题: AI技术研报
8324 点击    2026-02-10 14:11
先解行为,再训Agent:CMU开源首份Agentic Search日志数据,把Agent拆开给你看

先解行为,再训Agent:CMU开源首份Agentic Search日志数据,把Agent拆开给你看

先解行为,再训Agent:CMU开源首份Agentic Search日志数据,把Agent拆开给你看

在大模型驱动的 Agentic Search 日益常态化的背景下,真实环境中智能体 “如何发查询、如何改写、是否真正用上检索信息” 一直缺乏系统刻画与分析。

来自主题: AI技术研报
7701 点击    2026-02-09 14:55
全新视角看世界模型:从视频生成迈向通用世界模拟器

全新视角看世界模型:从视频生成迈向通用世界模拟器

全新视角看世界模型:从视频生成迈向通用世界模拟器

近年来,视频生成(Video Generation)与世界模型(World Models)已跃升为人工智能领域最炙手可热的焦点。从 Sora 到可灵(Kling),视频生成模型在运动连续性、物体交互与部分物理先验上逐渐表现出更强的「世界一致性」,让人们开始认真讨论:能否把视频生成从「逼真短片」推进到可用于推理、规划与控制的「通用世界模拟器」。

来自主题: AI技术研报
8657 点击    2026-02-09 14:36
谷歌年度巨献:2025 AI投资回报率报告

谷歌年度巨献:2025 AI投资回报率报告

谷歌年度巨献:2025 AI投资回报率报告

很多人都没注意到,谷歌悄悄放了一个大招,既不是 Gemini 也不是 nano banana pro,而是一份报告。这份报告调研了全球 3446 名企业高管(这些企业年营收都不低于 1000 万美元,不是小卡拉米)。

来自主题: AI技术研报
5954 点击    2026-02-09 14:30
模型「漂移」新范式,何恺明新作让生成模型无须迭代推理

模型「漂移」新范式,何恺明新作让生成模型无须迭代推理

模型「漂移」新范式,何恺明新作让生成模型无须迭代推理

训练一个生成模型是很复杂的一件事儿。 从底层逻辑上来看,生成模型是一个逐步拟合的过程。与常见的判别类模型不同,判别类模型通常关注的是将单个样本映射到对应标签,而生成模型则关注从一个分布映射到另一个分布。

来自主题: AI技术研报
8375 点击    2026-02-09 14:24
登顶Hugging Face论文热榜,LLM重写数据准备的游戏规则

登顶Hugging Face论文热榜,LLM重写数据准备的游戏规则

登顶Hugging Face论文热榜,LLM重写数据准备的游戏规则

来自上海交通大学、清华大学、微软研究院、麻省理工学院(MIT)、上海 AI Lab、小红书、阿里巴巴、港科大(广州)等机构的研究团队,系统梳理了近年来大语言模型在数据准备流程中的角色变化,试图回答一个业界关心的问题:LLM 能否成为下一代数据管道的「智能语义中枢」,彻底重构数据准备的范式?

来自主题: AI技术研报
7816 点击    2026-02-09 11:12
人形机器人的真机强化学习! ICLR 2026 通研院提出人形机器人预训练与真机微调新范式

人形机器人的真机强化学习! ICLR 2026 通研院提出人形机器人预训练与真机微调新范式

人形机器人的真机强化学习! ICLR 2026 通研院提出人形机器人预训练与真机微调新范式

目前,人形机器人已经能在现实中跳舞、奔跑、甚至完成后空翻。但接下来更关键的问题是:这些系统能否在部署之后持续地进行强化学习 —— 在真实世界的反馈中变得更稳定、更可靠,并在分布不断变化的新环境里持续适应与改进?

来自主题: AI技术研报
9887 点击    2026-02-08 11:56
小米给KV Cache减负80%!MiMo团队推出混合稀疏注意力架构

小米给KV Cache减负80%!MiMo团队推出混合稀疏注意力架构

小米给KV Cache减负80%!MiMo团队推出混合稀疏注意力架构

小米MiMo大模型团队,加入AI拜年战场——推出HySparse,一种面向Agent时代的混合稀疏注意力架构。

来自主题: AI技术研报
7042 点击    2026-02-08 11:53
ICLR 2026|UIUC:一行代码彻底解决LLM推理的过度思考!

ICLR 2026|UIUC:一行代码彻底解决LLM推理的过度思考!

ICLR 2026|UIUC:一行代码彻底解决LLM推理的过度思考!

2025 年 1 月 20 日,DeepSeek 发布了推理大模型 DeepSeek-R1,在学术界和工业界引发了对大模型强化学习方法的广泛关注与研究热潮。 研究者发现,在数学推理等具有明确答案的任务

来自主题: AI技术研报
5989 点击    2026-02-08 11:52
具身大模型LaST₀:双臂/移动/灵巧手全面新SOTA,首次引入隐空间时空思维链

具身大模型LaST₀:双臂/移动/灵巧手全面新SOTA,首次引入隐空间时空思维链

具身大模型LaST₀:双臂/移动/灵巧手全面新SOTA,首次引入隐空间时空思维链

LaST₀团队 投稿 量子位 | 公众号 QbitAI 近日,至简动力、北京大学、香港中文大学、北京人形机器人创新中心提出了一种名为LaST₀的全新隐空间推理VLA模型,在基于Transformer混

来自主题: AI技术研报
5607 点击    2026-02-08 11:50
AgentDoG:为AI智能体戴上「诊断项圈」

AgentDoG:为AI智能体戴上「诊断项圈」

AgentDoG:为AI智能体戴上「诊断项圈」

随着 AI 智能体(Agent)能力日益强大,其自主行为带来的安全风险也愈发复杂。现有安全工具往往只能给出「安全 / 不安全」的简单判断,无法告知我们风险的根源。为此,上海人工智能实验室正式开源 Ag

来自主题: AI技术研报
7676 点击    2026-02-08 11:49
像挖币一样挖激活函数?DeepMind搭建「算力矿场」,暴力搜出下一代ReLU

像挖币一样挖激活函数?DeepMind搭建「算力矿场」,暴力搜出下一代ReLU

像挖币一样挖激活函数?DeepMind搭建「算力矿场」,暴力搜出下一代ReLU

一直以来,神经网络的激活函数就像是 AI 引擎中的火花塞。从早期的 Sigmoid、Tanh,到后来统治业界的 ReLU,再到近年来的 GELU 和 Swish,每一次激活函数的演进都伴随着模型性能的提升。但长期以来,寻找最佳激活函数往往依赖于人类直觉或有限的搜索空间。

来自主题: AI技术研报
5999 点击    2026-02-08 11:47
清华研究生开源大一统世界模型:性能超越硅谷标杆40%!

清华研究生开源大一统世界模型:性能超越硅谷标杆40%!

清华研究生开源大一统世界模型:性能超越硅谷标杆40%!

国产开源具身世界模型,直接秒了Pi-0.5,而且还是几位清华硕、博士研究生领衔推出的。这就是由生数科技联合清华大学,正式开源的大一统世界模型——Motus。

来自主题: AI技术研报
7140 点击    2026-02-07 14:09
延迟下降20×,token减少4.4×!突破多智能体「共识」瓶颈

延迟下降20×,token减少4.4×!突破多智能体「共识」瓶颈

延迟下降20×,token减少4.4×!突破多智能体「共识」瓶颈

过去一年,LLM Agent几乎成为所有 AI 研究团队与工业界的共同方向。OpenAI在持续推进更强的推理与工具使用能力,Google DeepMind将推理显式建模为搜索问题,Anthropic则通过规范与自我批判提升模型可靠性。

来自主题: AI技术研报
9503 点击    2026-02-07 14:04
谷歌做了个论文专用版nano banana!顶会级Figure直出

谷歌做了个论文专用版nano banana!顶会级Figure直出

谷歌做了个论文专用版nano banana!顶会级Figure直出

你负责写方法,AI负责画 Figure。 科研打工人,终于等来「画图解放日」。

来自主题: AI技术研报
7927 点击    2026-02-06 12:16
邓明扬一作论文改写生成范式!何恺明也署名了

邓明扬一作论文改写生成范式!何恺明也署名了

邓明扬一作论文改写生成范式!何恺明也署名了

刚刚,何恺明团队提出全新生成模型范式漂移模型(Drifting Models)。

来自主题: AI技术研报
9571 点击    2026-02-06 11:39
Attention真的可靠吗?上海大学联合南开大学揭示多模态模型中一个被忽视的重要偏置问题

Attention真的可靠吗?上海大学联合南开大学揭示多模态模型中一个被忽视的重要偏置问题

Attention真的可靠吗?上海大学联合南开大学揭示多模态模型中一个被忽视的重要偏置问题

近年来,Vision-Language Models(视觉 — 语言模型)在多模态理解任务中取得了显著进展,并逐渐成为通用人工智能的重要技术路线。然而,这类模型在实际应用中往往面临推理开销大、效率受限的问题,研究者通常依赖 visual token pruning 等策略降低计算成本,其中 attention 机制被广泛视为衡量视觉信息重要性的关键依据。

来自主题: AI技术研报
9106 点击    2026-02-06 10:39
Stable-DiffCoder超越自回归模型!扩散模型在代码生成取得新突破

Stable-DiffCoder超越自回归模型!扩散模型在代码生成取得新突破

Stable-DiffCoder超越自回归模型!扩散模型在代码生成取得新突破

扩散语言模型(Diffusion Language Models, DLLMs)因其多种潜在的特性而备受关注,如能加速的非自回归并行生成特性,能直接起草编辑的特性,能数据增强的特性。然而,其模型能力往往落后于同等规模的强力自回归(AR)模型。

来自主题: AI技术研报
10030 点击    2026-02-06 10:37
强化学习远不是最优,CMU刚刚提出最大似然强化学习

强化学习远不是最优,CMU刚刚提出最大似然强化学习

强化学习远不是最优,CMU刚刚提出最大似然强化学习

在大模型时代,从代码生成到数学推理,再到自主规划的 Agent 系统,强化学习几乎成了「最后一公里」的标准配置。

来自主题: AI技术研报
6669 点击    2026-02-06 10:34
美团提出全新多模态统一大模型STAR,GenEval突破0.91,破解“理解-生成”零和困局

美团提出全新多模态统一大模型STAR,GenEval突破0.91,破解“理解-生成”零和困局

美团提出全新多模态统一大模型STAR,GenEval突破0.91,破解“理解-生成”零和困局

近日,美团推出全新多模态统一大模型方案 STAR(STacked AutoRegressive Scheme for Unified Multimodal Learning),凭借创新的 "堆叠自回归架构 + 任务递进训练" 双核心设计,实现了 "理解能力不打折、生成能力达顶尖" 的双重突破。

来自主题: AI技术研报
10139 点击    2026-02-05 13:50