AI技术研报-这里有最前沿的人工智能技术解读

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
AITNT-国内领先的一站式人工智能新闻资讯网站 搜索
迈向长上下文视频生成!NUS团队新作FAR同时实现短视频和长视频预测SOTA,代码已开源

迈向长上下文视频生成!NUS团队新作FAR同时实现短视频和长视频预测SOTA,代码已开源

迈向长上下文视频生成!NUS团队新作FAR同时实现短视频和长视频预测SOTA,代码已开源

目前的视频生成技术大多是在短视频数据上训练,推理时则通过滑动窗口等策略,逐步扩展生成的视频长度。然而,这种方式无法充分利用视频的长时上下文信息,容易导致生成内容在时序上出现潜在的不一致性。

来自主题: AI技术研报
5571 点击    2025-04-23 14:19
代码即界面:生成式 UI 带来设计范式重构

代码即界面:生成式 UI 带来设计范式重构

代码即界面:生成式 UI 带来设计范式重构

曾被专业设计师看成“玩具”的生成式 UI,如今正在和 vibe coding 一起改写开发和设计工作流,需求->代码->设计的新工作流开始出现。

来自主题: AI技术研报
7845 点击    2025-04-23 14:18
Adam获时间检验奖!清华揭示保辛动力学本质,提出全新RAD优化器

Adam获时间检验奖!清华揭示保辛动力学本质,提出全新RAD优化器

Adam获时间检验奖!清华揭示保辛动力学本质,提出全新RAD优化器

Adam优化器是深度学习中常用的优化算法,但其性能背后的理论解释一直不完善。近日,来自清华大学的团队提出了RAD优化器,扩展了Adam的理论基础,提升了训练稳定性。实验显示RAD在多种强化学习任务中表现优于Adam。

来自主题: AI技术研报
7769 点击    2025-04-23 14:09
业内首次! 全面复现DeepSeek-R1-Zero数学代码能力,训练步数仅需其1/10

业内首次! 全面复现DeepSeek-R1-Zero数学代码能力,训练步数仅需其1/10

业内首次! 全面复现DeepSeek-R1-Zero数学代码能力,训练步数仅需其1/10

OpenAI 的 o1 系列和 DeepSeek-R1 的成功充分证明,大规模强化学习已成为一种极为有效的方法,能够激发大型语言模型(LLM) 的复杂推理行为并显著提升其能力。

来自主题: AI技术研报
6677 点击    2025-04-23 14:04
Transformer原作打脸DeepSeek观点?一句Wait就能引发反思,RL都不用

Transformer原作打脸DeepSeek观点?一句Wait就能引发反思,RL都不用

Transformer原作打脸DeepSeek观点?一句Wait就能引发反思,RL都不用

Transformer作者Ashish Vaswani团队重磅LLM研究!简单指令:「Wait,」就能有效激发LLM显式反思,表现堪比直接告知模型存在错误。

来自主题: AI技术研报
6862 点击    2025-04-23 10:47
哇!首个MCPBench来了,MCP竟然不比Function Calls更有优势? | 最新

哇!首个MCPBench来了,MCP竟然不比Function Calls更有优势? | 最新

哇!首个MCPBench来了,MCP竟然不比Function Calls更有优势? | 最新

你是否正在投入大量资源开发基于MCP的Agent,却从未质疑过一个基本假设:MCP真的比传统函数调用更有优势吗? 2025年4月的这项开创性研究直接挑战了这一广泛接受的观点,其执行摘要明确指出:"使用MCPs并不显示出比函数调用有明显改进"。

来自主题: AI技术研报
5776 点击    2025-04-23 09:45
142页长文揭秘DeepSeek-R1「思维大脑」!开启全新「思维链学」研究

142页长文揭秘DeepSeek-R1「思维大脑」!开启全新「思维链学」研究

142页长文揭秘DeepSeek-R1「思维大脑」!开启全新「思维链学」研究

DeepSeek-R1是近年来推理模型领域的一颗新星,它不仅突破了传统LLM的局限,还开启了全新的研究方向「思维链学」(Thoughtology)。这份长达142页的报告深入剖析了DeepSeek-R1的推理过程,揭示了其推理链的独特结构与优势,为未来推理模型的优化提供了重要启示。

来自主题: AI技术研报
7861 点击    2025-04-22 18:59
连Claude 3.5都败下阵来,大语言模型能否定位软件服务的故障根因?

连Claude 3.5都败下阵来,大语言模型能否定位软件服务的故障根因?

连Claude 3.5都败下阵来,大语言模型能否定位软件服务的故障根因?

论文的第一作者是香港中文大学(深圳)数据科学学院三年级博士生徐俊杰龙,指导老师为香港中文大学(深圳)数据科学学院的贺品嘉教授和微软主管研究员何世林博士。贺品嘉老师团队的研究重点是软件工程、LLM for DevOps、大模型安全。

来自主题: AI技术研报
5634 点击    2025-04-22 17:58
从0到1,一个产品经理用AI做一个APP

从0到1,一个产品经理用AI做一个APP

从0到1,一个产品经理用AI做一个APP

这款产品是一个改变世界的产品,而刚好有一个产品经理将其复刻出来了,即使一款产品拆解案例也是一个用AI产品从0到1搭建的过程。

来自主题: AI技术研报
6677 点击    2025-04-22 17:37
AI 时代如何更高效开发前端组件?21st.dev 给了一种答案

AI 时代如何更高效开发前端组件?21st.dev 给了一种答案

AI 时代如何更高效开发前端组件?21st.dev 给了一种答案

给大家推荐一个好东西:21st.dev ,大致上你可以将它理解为一个非常前卫的组件托管市场

来自主题: AI技术研报
5140 点击    2025-04-22 17:25
Claude竟藏着3307种「人格」?深扒70万次对话,这个AI会看人下菜碟

Claude竟藏着3307种「人格」?深扒70万次对话,这个AI会看人下菜碟

Claude竟藏着3307种「人格」?深扒70万次对话,这个AI会看人下菜碟

AI会无脑附和吗?Anthropic研究发现,Claude能根据场景切换人格:谈恋爱时化身情感导师,聊历史时秒变严谨学者。一些对话中,它强烈支持用户价值观,但在3%的情况下,它会果断抵制。

来自主题: AI技术研报
6697 点击    2025-04-22 16:24
从Minecraft到虚幻5,AI首次实现3D游戏零样本迁移,跨游戏直接上手

从Minecraft到虚幻5,AI首次实现3D游戏零样本迁移,跨游戏直接上手

从Minecraft到虚幻5,AI首次实现3D游戏零样本迁移,跨游戏直接上手

无论你是技术创造者还是使用者,理解这场认知革命都至关重要。我们正在从「AI as tools」向「AI as thinking partners」转变,这不仅改变了技术的能力边界,也改变了我们与技术协作的方式。

来自主题: AI技术研报
5474 点击    2025-04-22 15:08
合成数据也能通吃真实世界?首个融合重建-预测-规划的生成式世界模型AETHER开源

合成数据也能通吃真实世界?首个融合重建-预测-规划的生成式世界模型AETHER开源

合成数据也能通吃真实世界?首个融合重建-预测-规划的生成式世界模型AETHER开源

近日,上海人工智能实验室(上海 AI 实验室)开源了生成式世界模型 AETHER。该模型全部由合成数据训练而成,不仅在传统重建与生成任务中表现领先,更首次赋予大模型在真实世界中的 3D 空间决策与规划能力,

来自主题: AI技术研报
3792 点击    2025-04-22 14:45
行业必读丨OpenAI 最新报告:构建 Agents 最佳实践

行业必读丨OpenAI 最新报告:构建 Agents 最佳实践

行业必读丨OpenAI 最新报告:构建 Agents 最佳实践

OpenAI 最近发布了三份针对企业客户的研究报告,本次挑选了其中的「A Practical guide to building AI agents」一篇进行了翻译。除非已经是 Agent 资深开发大佬,否则强烈建议 AI 行业的大家都来读一下这篇报告。

来自主题: AI技术研报
8911 点击    2025-04-22 09:30
UIUC联手谷歌发布Search-R1:大模型学会「边想边查」,推理、搜索无缝切换

UIUC联手谷歌发布Search-R1:大模型学会「边想边查」,推理、搜索无缝切换

UIUC联手谷歌发布Search-R1:大模型学会「边想边查」,推理、搜索无缝切换

DeepSeek-R1 展示了强化学习在提升模型推理能力方面的巨大潜力,尤其是在无需人工标注推理过程的设定下,模型可以学习到如何更合理地组织回答。然而,这类模型缺乏对外部数据源的实时访问能力,一旦训练语料中不存在某些关键信息,推理过程往往会因知识缺失而失败。

来自主题: AI技术研报
6877 点击    2025-04-22 09:02
谷歌联合强化学习之父:通过经验学习的4大核心,Agent将获得超人能力 |最新战略瞭望

谷歌联合强化学习之父:通过经验学习的4大核心,Agent将获得超人能力 |最新战略瞭望

谷歌联合强化学习之父:通过经验学习的4大核心,Agent将获得超人能力 |最新战略瞭望

本文对DeepMind两位泰斗级科学家David Silver和Richard Sutton的重磅论文《Welcome to the Era of Experience》进行了深度解读,我将其视为AI发展方向的一份战略瞭望图。

来自主题: AI技术研报
6927 点击    2025-04-22 08:43
扩散LLM推理用上类GRPO强化学习!优于单独SFT,UCLA、Meta新框架d1开源

扩散LLM推理用上类GRPO强化学习!优于单独SFT,UCLA、Meta新框架d1开源

扩散LLM推理用上类GRPO强化学习!优于单独SFT,UCLA、Meta新框架d1开源

当前,强化学习(RL)方法在最近模型的推理任务上取得了显著的改进,比如 DeepSeek-R1、Kimi K1.5,显示了将 RL 直接用于基础模型可以取得媲美 OpenAI o1 的性能不过,基于 RL 的后训练进展主要受限于自回归的大语言模型(LLM),它们通过从左到右的序列推理来运行。

来自主题: AI技术研报
4975 点击    2025-04-22 08:39
为什么AI做的动画一眼就能看出来

为什么AI做的动画一眼就能看出来

为什么AI做的动画一眼就能看出来

动画片和我们拍摄的视频其实还是有很大不一样的。一般来说,我们平时观看的大多数电视剧使用25帧/秒的帧率,大多数电影使用24帧/秒的帧率。对于摄像机而言,帧率的调节无非是改一改摄影设备的参数,即使是胶片时代,也仅仅是胶片使用量的区别,对人工影响不大。

来自主题: AI技术研报
4889 点击    2025-04-21 13:53
强化学习之父当头一棒:RL版「苦涩的教训」来了!通往ASI,绝非靠人类数据

强化学习之父当头一棒:RL版「苦涩的教训」来了!通往ASI,绝非靠人类数据

强化学习之父当头一棒:RL版「苦涩的教训」来了!通往ASI,绝非靠人类数据

强化学习之父Richard Sutton和DeepMind强化学习副总裁David Silver对我们发出了当头棒喝:如今,人类已经由数据时代踏入经验时代。通往ASI之路要靠RL,而非人类数据!

来自主题: AI技术研报
8019 点击    2025-04-21 10:52
LeCun被痛批:你把Meta搞砸了!烧掉千亿算力,自曝折腾20年彻底失败

LeCun被痛批:你把Meta搞砸了!烧掉千亿算力,自曝折腾20年彻底失败

LeCun被痛批:你把Meta搞砸了!烧掉千亿算力,自曝折腾20年彻底失败

「一位顶尖科学家,有数千亿美元的资源,却仍然能把Meta搞砸了!」最近,圈内对LeCun的埋怨和批评,似乎越来越压不住了。有人批评说,Meta之所以溃败,LeCun的教条主义就是罪魁祸首。但LeCun却表示,自己尝试了20年自回归预测,彻底失败了,所以如今才给LLM判死刑!

来自主题: AI技术研报
8856 点击    2025-04-21 10:40
让DeepSeek更可靠!清华提出Hyper-RAG,用超图提升知识建模精准度

让DeepSeek更可靠!清华提出Hyper-RAG,用超图提升知识建模精准度

让DeepSeek更可靠!清华提出Hyper-RAG,用超图提升知识建模精准度

Hyper-RAG利用超图同时捕捉原始数据中的低阶和高阶关联信息,最大限度地减少知识结构化带来的信息丢失,从而减少大型语言模型(LLM)的幻觉。

来自主题: AI技术研报
5857 点击    2025-04-21 10:23
OpenAI爆出硬伤,强化学习是祸首!o3越强越「疯」,幻觉率狂飙

OpenAI爆出硬伤,强化学习是祸首!o3越强越「疯」,幻觉率狂飙

OpenAI爆出硬伤,强化学习是祸首!o3越强越「疯」,幻觉率狂飙

o3编码直逼全球TOP 200人类选手,却存在一个致命问题:幻觉率高达33%,是o1的两倍。Ai2科学家直指,RL过度优化成硬伤。

来自主题: AI技术研报
6872 点击    2025-04-21 09:41
264页智能体综述来了!MetaGPT等20家顶尖机构、47位学者参与

264页智能体综述来了!MetaGPT等20家顶尖机构、47位学者参与

264页智能体综述来了!MetaGPT等20家顶尖机构、47位学者参与

近期,大模型智能体(Agent)的相关话题爆火 —— 不论是 Anthropic 抢先 MCP 范式的快速普及,还是 OpenAI 推出的 Agents SDK 以及谷歌最新发布的 A2A 协议,都预示了 AI Agent 的巨大潜力。

来自主题: AI技术研报
5520 点击    2025-04-21 09:28