AI资讯新闻榜单内容搜索-TEN

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
搜索: TEN
为什么BF16的FlashAttention会把训练「炸掉」?清华首次给出机制解释,用极简改动稳住训练

为什么BF16的FlashAttention会把训练「炸掉」?清华首次给出机制解释,用极简改动稳住训练

为什么BF16的FlashAttention会把训练「炸掉」?清华首次给出机制解释,用极简改动稳住训练

一句话总结:社区里困扰了多年的一个 “玄学” 现象终于被拆解清楚了:在 BF16 等低精度训练里,FlashAttention 不是随机出 bug,而是会在特定条件下触发有方向的数值偏置,借助注意力中涌现的相似低秩更新方向被持续放大,最终把权重谱范数和激活推到失控,导致 loss 突然爆炸。论文还给出一个几乎不改模型、只在 safe softmax 里做的极小修改,实测能显著稳定训练。

来自主题: AI技术研报
6280 点击    2026-03-04 13:49
独家|Vattention 获数百万美元投资:从非线性到指数剪辑,定义视频编辑3.0时代

独家|Vattention 获数百万美元投资:从非线性到指数剪辑,定义视频编辑3.0时代

独家|Vattention 获数百万美元投资:从非线性到指数剪辑,定义视频编辑3.0时代

据悉,专注视频后期 AI Agent 的 Vattention(时空注力)已完成数百万美元种子轮融资,由青锐资本、百度风投、常垒资本联合投资。该公司由计算机科班出身、曾任阿里淘系核心产品总监、沉浸专业视频制作领域多年的连续创业者钟超(花名 船长)创立。本轮融资将主要用于核心团队组建与技术研发,推动其三大核心引擎(MACE、ACE、PACE)的产品化落地。

来自主题: AI资讯
9181 点击    2026-03-02 15:05
全球首个,英伟达用AI两个月造出「全新PyTorch」!震撼整个行业

全球首个,英伟达用AI两个月造出「全新PyTorch」!震撼整个行业

全球首个,英伟达用AI两个月造出「全新PyTorch」!震撼整个行业

最近,英伟达又发布了一个炸裂成果。英伟达高级工程师Bing Xu开源了VibeTensor项目,并且表示:「这是第一个完全由 AI 智能体生成的深度学习系统,没有一行人类编写的代码。」

来自主题: AI资讯
9127 点击    2026-02-17 11:50
李飞飞团队新作:简单调整生成顺序,大幅提升像素级图像生成质量

李飞飞团队新作:简单调整生成顺序,大幅提升像素级图像生成质量

李飞飞团队新作:简单调整生成顺序,大幅提升像素级图像生成质量

但扩散模型生图,顺序真的对吗?李飞飞团队最新论文提出的Latent Forcing方法直接打破了这一共识,他们发现生成的质量瓶颈不在架构,而在顺序。

来自主题: AI技术研报
8655 点击    2026-02-15 21:27
Z Potentials|沈俊潇:从 Meta 出走,剑桥博士创立 Memories.ai,获 Samsung Next、Susa Ventures 千万美元押注

Z Potentials|沈俊潇:从 Meta 出走,剑桥博士创立 Memories.ai,获 Samsung Next、Susa Ventures 千万美元押注

Z Potentials|沈俊潇:从 Meta 出走,剑桥博士创立 Memories.ai,获 Samsung Next、Susa Ventures 千万美元押注

过去几年,AI 行业几乎把所有注意力都投向了“会不会想”:更强的推理、更大的模型、更快的生成。但在真实世界里,很多问题并不是想不想得出来,而是你到底记不记得发生过什么——尤其是视频。

来自主题: AI资讯
9353 点击    2026-02-11 15:21
给GRPO加上运筹外挂让7B模型比肩GPT-4!Li Auto团队发布多目标强化学习新框架 | ICASSP 2026

给GRPO加上运筹外挂让7B模型比肩GPT-4!Li Auto团队发布多目标强化学习新框架 | ICASSP 2026

给GRPO加上运筹外挂让7B模型比肩GPT-4!Li Auto团队发布多目标强化学习新框架 | ICASSP 2026

文本摘要作为自然语言处理(NLP)的核心任务,其质量评估通常需要兼顾一致性(Consistency)、连贯性(Coherence)、流畅性(Fluency)和相关性(Relevance)等多个维度。

来自主题: AI技术研报
9153 点击    2026-02-10 14:11
具身大模型LaST₀:双臂/移动/灵巧手全面新SOTA,首次引入隐空间时空思维链

具身大模型LaST₀:双臂/移动/灵巧手全面新SOTA,首次引入隐空间时空思维链

具身大模型LaST₀:双臂/移动/灵巧手全面新SOTA,首次引入隐空间时空思维链

LaST₀团队 投稿 量子位 | 公众号 QbitAI 近日,至简动力、北京大学、香港中文大学、北京人形机器人创新中心提出了一种名为LaST₀的全新隐空间推理VLA模型,在基于Transformer混

来自主题: AI技术研报
6409 点击    2026-02-08 11:50
Attention真的可靠吗?上海大学联合南开大学揭示多模态模型中一个被忽视的重要偏置问题

Attention真的可靠吗?上海大学联合南开大学揭示多模态模型中一个被忽视的重要偏置问题

Attention真的可靠吗?上海大学联合南开大学揭示多模态模型中一个被忽视的重要偏置问题

近年来,Vision-Language Models(视觉 — 语言模型)在多模态理解任务中取得了显著进展,并逐渐成为通用人工智能的重要技术路线。然而,这类模型在实际应用中往往面临推理开销大、效率受限的问题,研究者通常依赖 visual token pruning 等策略降低计算成本,其中 attention 机制被广泛视为衡量视觉信息重要性的关键依据。

来自主题: AI技术研报
9776 点击    2026-02-06 10:39
o1之后下一个范式?隐式CoT大突破,让推理不再「碎碎念」

o1之后下一个范式?隐式CoT大突破,让推理不再「碎碎念」

o1之后下一个范式?隐式CoT大突破,让推理不再「碎碎念」

今天推荐一个 Implicit Chain-of-Thought(隐式推理) 的最新进展 —— SIM-CoT(Supervised Implicit Chain-of-Thought)。它直击隐式 CoT 一直「扶不起来」的核心痛点:隐式 token 一旦 scale 上去,训练就容易塌缩到同质化的 latent 状态,推理语义直接丢失。

来自主题: AI技术研报
6883 点击    2026-02-02 09:31
「Dokie不如ListenHub」

「Dokie不如ListenHub」

「Dokie不如ListenHub」

我最近的快乐来自一篇名为《Dokie:被 AI 点亮的方式,可以不仅仅是因为效率》的文章:

来自主题: AI资讯
9448 点击    2026-01-28 14:55