AI资讯新闻榜单内容搜索-深度学习

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
搜索: 深度学习
Nature子刊 | 上交突破极限,端到端无人机高速避障,可微分物理实现

Nature子刊 | 上交突破极限,端到端无人机高速避障,可微分物理实现

Nature子刊 | 上交突破极限,端到端无人机高速避障,可微分物理实现

上海交通大学研究团队提出了一种融合无人机物理建模与深度学习的端到端方法,实现了轻量、可部署、可协同的无人机集群自主导航方案,其鲁棒性和机动性大幅领先现有方案。

来自主题: AI技术研报
6929 点击    2025-07-28 11:26
人工智能大会彻底引爆,展区水泄不通,门票炒到2000多,暴走3万步带来最全看点

人工智能大会彻底引爆,展区水泄不通,门票炒到2000多,暴走3万步带来最全看点

人工智能大会彻底引爆,展区水泄不通,门票炒到2000多,暴走3万步带来最全看点

人潮汹涌,信息爆棚。 智东西7月27日报道,本周六,史上最盛大的一届世界人工智能大会(WAIC 2025)正式开幕!今年大会不仅把重量级学术大佬“深度学习三巨头”之一、2018年图灵奖得主、2024年诺贝尔物理学奖得主杰弗里·辛顿都请到开幕式做演讲,连展会都是前所未有的爆场。

来自主题: AI资讯
6953 点击    2025-07-28 11:16
告别Transformer!北大、北邮、华为开源纯卷积DiC:3x3卷积实现SOTA性能,比DiT快5倍!

告别Transformer!北大、北邮、华为开源纯卷积DiC:3x3卷积实现SOTA性能,比DiT快5倍!

告别Transformer!北大、北邮、华为开源纯卷积DiC:3x3卷积实现SOTA性能,比DiT快5倍!

当整个 AI 视觉生成领域都在 Transformer 架构上「卷生卷死」时,一项来自北大、北邮和华为的最新研究却反其道而行之,重新审视了深度学习中最基础、最经典的模块——3x3 卷积。

来自主题: AI技术研报
6374 点击    2025-07-14 10:25
上交研究登Nature大子刊!可微分物理首次突破端到端无人机高速避障

上交研究登Nature大子刊!可微分物理首次突破端到端无人机高速避障

上交研究登Nature大子刊!可微分物理首次突破端到端无人机高速避障

上海交通大学研究团队提出了一种融合无人机物理建模与深度学习的端到端方法,该研究首次将可微分物理训练的策略成功部署到现实机器人中,实现了无人机集群自主导航,并在鲁棒性、机动性上大幅领先现有的方案。

来自主题: AI技术研报
6568 点击    2025-07-08 11:54
OpenAI 最早投资人:下一代平台不是 SAP 2.0,而是 AI-first 带来的无摩擦体验

OpenAI 最早投资人:下一代平台不是 SAP 2.0,而是 AI-first 带来的无摩擦体验

OpenAI 最早投资人:下一代平台不是 SAP 2.0,而是 AI-first 带来的无摩擦体验

在 AI 成为全球共识之前,他已经坚定押注;在众人质疑深度学习时,他默默下注;在通用智能仍属“天方夜谭”的年代,他成为 OpenAI 最早的支持者之一。

来自主题: AI资讯
6173 点击    2025-06-27 10:22
效率提升百倍!耀速科技携手辉瑞推出下一代AI图像决策引擎,引领全球数字病理进入秒级时代!

效率提升百倍!耀速科技携手辉瑞推出下一代AI图像决策引擎,引领全球数字病理进入秒级时代!

效率提升百倍!耀速科技携手辉瑞推出下一代AI图像决策引擎,引领全球数字病理进入秒级时代!

【2025年6月,波士顿】近日,全球下一代AI驱动器官芯片平台创新公司耀速科技(Xellar Biosystems)与国际制药巨头辉瑞(Pfizer)联合发布一项重磅成果:AI深度学习病理图像自动识别系统。

来自主题: AI资讯
7349 点击    2025-06-20 16:19
Quanta:Hopfield网络:催生AI的涌现物理学

Quanta:Hopfield网络:催生AI的涌现物理学

Quanta:Hopfield网络:催生AI的涌现物理学

人工智能正以前所未有的速度改变世界,但其背后的核心机制,远不止于复杂的算法和算力堆叠。本文从神经科学先驱约翰·霍普菲尔德(John Hopfield)的研究出发,追溯深度学习的发展脉络,揭示一个令人意想不到的事实:许多现代AI模型的理论基础,源自上世纪物理学家研究磁性材料时提出的“自旋玻璃”模型。

来自主题: AI资讯
8004 点击    2025-05-23 11:16
只有通过海量测试才能抓住泛化性的本质吗?

只有通过海量测试才能抓住泛化性的本质吗?

只有通过海量测试才能抓住泛化性的本质吗?

当以端到端黑盒训练为代表的深度学习深陷低效 Scaling Law 而无法自拔时,我们是否可以回到起点重看模型表征本身——究竟什么才是一个人工智能模型的「表征质量」或者「泛化性」?我们真的只有通过海量的测试数据才能抓住泛化性的本质吗?或者说,能否在数学上找到一个定理,直接从表征逻辑复杂度本身就给出一个对模型泛化性的先验的判断呢?

来自主题: AI技术研报
7933 点击    2025-05-11 14:35