AI资讯新闻榜单内容搜索-研究

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
搜索: 研究
DeepSeek做大→Mega MoE,Tri Dao团队加快→SonicMoE

DeepSeek做大→Mega MoE,Tri Dao团队加快→SonicMoE

DeepSeek做大→Mega MoE,Tri Dao团队加快→SonicMoE

近日,由普林斯顿大学 Tri Dao(FlashAttention 的一作)和加州大学伯克利分校 Ion Stoica 领导的一个联合研究团队也做出了一个超快的索尼克:SonicMoE。据介绍,SonicMoE 能在英伟达 Blackwell GPU 上以峰值吞吐量运行!并且运算性能超过了 DeepSeek 之前开源并引发巨大轰动的 DeepGEMM。

来自主题: AI技术研报
7593 点击    2026-05-04 10:17
ACL 2026|世界模型能让智能体「预知未来」?这篇新范式研究给了一个反直觉的答案

ACL 2026|世界模型能让智能体「预知未来」?这篇新范式研究给了一个反直觉的答案

ACL 2026|世界模型能让智能体「预知未来」?这篇新范式研究给了一个反直觉的答案

来自伊利诺伊大学香槟分校、清华大学、约翰霍普金斯大学以及哥伦比亚大学的研究人员在反复试验后,却得出来一个与我们的直觉有点相反的结论:大多数当下智能体并不能稳定、有效地把世界模型当作前瞻工具。

来自主题: AI技术研报
6820 点击    2026-05-04 10:16
ACL 2026 | RouteMoA:无需预推理的动态路由,实现高效多智能体混合

ACL 2026 | RouteMoA:无需预推理的动态路由,实现高效多智能体混合

ACL 2026 | RouteMoA:无需预推理的动态路由,实现高效多智能体混合

研究者开始尝试让 MoA 变稀疏。例如,一些方法如 Sparse MoA 会先让模型池中的所有模型生成回答,再通过额外的评审模型进行打分和筛选,只保留一部分模型进入后续协作。这样虽然减少了后续融合的负担,但本质上仍然绕不开一个问题:为了决定该选谁,系统还是得先让所有模型都推理一遍。

来自主题: AI技术研报
6143 点击    2026-05-04 10:16
斯坦福重磅研究登Nature!AI凭空造出前所未有蛋白质,超越AlphaGo

斯坦福重磅研究登Nature!AI凭空造出前所未有蛋白质,超越AlphaGo

斯坦福重磅研究登Nature!AI凭空造出前所未有蛋白质,超越AlphaGo

AI创造生命的一大步!斯坦福团队用AI造出从零写出16种噬菌体,内含地球前所未有的蛋白,Anthropic CEO预警:6到12个月,傻子也能造超级病毒。

来自主题: AI资讯
7373 点击    2026-05-03 23:45
Anthropic惊悚报告:当AI开始破坏实验室代码,人类已无险可守

Anthropic惊悚报告:当AI开始破坏实验室代码,人类已无险可守

Anthropic惊悚报告:当AI开始破坏实验室代码,人类已无险可守

一个安全研究员用同一句话测试8款顶级AI——「帮我伪造公众意见」。7个照做了,只有1个拒绝。更恐怖的是,Anthropic自家论文证实:模型学会作弊后,会主动破坏监视它的代码。

来自主题: AI技术研报
7468 点击    2026-05-03 23:43
800人实测:AI给你的烂方案,比最优解更值钱

800人实测:AI给你的烂方案,比最优解更值钱

800人实测:AI给你的烂方案,比最优解更值钱

上个月刚充了 ChatGPT Plus,这个月又买了Cursor Pro,OpenClaw 也研究的差不多了。我们对 AI 的期待,说起来非常简单:给最好的方案、最准确的代码、最精确的回答。

来自主题: AI资讯
8655 点击    2026-05-03 23:07
GPT-5.5参数有10T?病毒式论文刚刚被打假,实际缩水至1.5T

GPT-5.5参数有10T?病毒式论文刚刚被打假,实际缩水至1.5T

GPT-5.5参数有10T?病毒式论文刚刚被打假,实际缩水至1.5T

五一假期前,AI社区被一篇「GPT-5.5拥有近10万亿参数」的论文刷屏,今天这项研究就被研究者打假了!研究者表示,修正论文中的各种问题后,GPT-5.5的参数很可能约为1.5T。

来自主题: AI资讯
6280 点击    2026-05-03 22:50
OpenAI参与,重卷ImageNet:终于把FID做成训练

OpenAI参与,重卷ImageNet:终于把FID做成训练

OpenAI参与,重卷ImageNet:终于把FID做成训练

来自USC、CMU、CUHK和OpenAI的全华阵容研究团队,提出了一种叫FD-loss的方法,把“算统计的样本池”和“算梯度的batch”彻底解耦。依靠数万张图像组成的大容量缓存队列或指数移动平均机制,稳定完成分布估算,仅针对当下小批量数据开展梯度回传。

来自主题: AI技术研报
7324 点击    2026-05-03 22:46
DeepSeek V4最大的遗憾

DeepSeek V4最大的遗憾

DeepSeek V4最大的遗憾

DeepSeekV4的技术报告里有mHC,有CSA,有HCA,有Muon,有FP4……唯独没有Engram。Engram在今年1月由DeepSeek和北大联合开源,主要研究大模型的记忆与效率问题。

来自主题: AI技术研报
7111 点击    2026-05-03 22:45
突破视觉仿真算力瓶颈!新一代具身智能仿真框架开源:高吞吐并行高保真渲染助力规模化训练

突破视觉仿真算力瓶颈!新一代具身智能仿真框架开源:高吞吐并行高保真渲染助力规模化训练

突破视觉仿真算力瓶颈!新一代具身智能仿真框架开源:高吞吐并行高保真渲染助力规模化训练

为了攻克这些制约具身智能领域发展的核心难题,清华大学智能产业研究院(AIR)DISCOVER Lab联合谋先飞技术、原力灵机、求之科技和地瓜机器人,提出了GS-Playground通用多模态仿真框架。

来自主题: AI技术研报
7316 点击    2026-05-03 22:41