AI资讯新闻榜单内容搜索-DAM

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
搜索: DAM
正交化之外是什么?微软等提出ARO优化器:训练提速1/3,揭示矩阵优化新「蓝海」

正交化之外是什么?微软等提出ARO优化器:训练提速1/3,揭示矩阵优化新「蓝海」

正交化之外是什么?微软等提出ARO优化器:训练提速1/3,揭示矩阵优化新「蓝海」

如果你在过去一年关注过大模型训练的技术,大概率听过 Muon 这个名字 —— 这个在月之暗面 K2 模型的相关讨论中走红的优化器,被视为是可能挑战 Adam 的新秀。它的思路很直接:对动量矩阵进行正交化,让各个奇异方向上的更新速率一致,提升训练效率。

来自主题: AI技术研报
6048 点击    2026-03-10 14:31
1亿美元A轮!李飞飞、Karpathy下重注:这家公司要用AI"复制"全人类

1亿美元A轮!李飞飞、Karpathy下重注:这家公司要用AI"复制"全人类

1亿美元A轮!李飞飞、Karpathy下重注:这家公司要用AI"复制"全人类

这个看似科幻的想法,正在被一家名为Simile的公司变成现实。他们刚刚完成了1亿美元的A轮融资,由Index Ventures领投,Hanabi、A星、Bain Capital Ventures参与投资,连人工智能领域的传奇人物Andrej Karpathy、Fei-Fei Li、Adam D'Angelo等都加入了投资行列。

来自主题: AI资讯
9644 点击    2026-03-01 13:29
速递|从LLM到LTM:Fundamental以“数据基础模型”切入,A轮融资2.55亿美元

速递|从LLM到LTM:Fundamental以“数据基础模型”切入,A轮融资2.55亿美元

速递|从LLM到LTM:Fundamental以“数据基础模型”切入,A轮融资2.55亿美元

大规模表格模型(LTM)而非大规模语言模型(LLM)的 Fundamental 公司 Nexus 模型,在多个重要方面突破了当代人工智能实践。该模型具有确定性——即每次被询问相同问题时都会给出相同答案——且不依赖定义当代大多数人工智能实验室模型的 Transformer 架构 。

来自主题: AI资讯
9771 点击    2026-02-09 11:22
在参与OpenAI、Google、Amazon的50个AI项目后,他们总结出了大多数AI产品失败的原因

在参与OpenAI、Google、Amazon的50个AI项目后,他们总结出了大多数AI产品失败的原因

在参与OpenAI、Google、Amazon的50个AI项目后,他们总结出了大多数AI产品失败的原因

Aishwarya Naresh Reganti 和 Kiriti Badam 曾在 OpenAI、Google、Amazon、Databricks 等公司参与构建并成功推出了 50 多个企业级 AI 产品。最近,他们在播客节目中,与主持人 Lenny 细致分享了当前 AI 产品开发中的常见陷阱与成功路径。基于该播客视频,InfoQ 进行了部分删改。

来自主题: AI资讯
8727 点击    2026-02-09 11:13
AAAI 2026 Oral | 拒绝「一刀切」!AdaMCoT:让大模型学会「看题下菜碟」,动态选择最佳思考语言

AAAI 2026 Oral | 拒绝「一刀切」!AdaMCoT:让大模型学会「看题下菜碟」,动态选择最佳思考语言

AAAI 2026 Oral | 拒绝「一刀切」!AdaMCoT:让大模型学会「看题下菜碟」,动态选择最佳思考语言

多语言大模型(MLLM)在面对多语言任务时,往往面临一个选择难题:是用原来的语言直接回答,还是翻译成高资源语言去推理?

来自主题: AI技术研报
10177 点击    2025-12-15 09:53
ICCV 2025 | FDAM:告别模糊视界,源自电路理论的即插即用方法让视觉Transformer重获高清细节

ICCV 2025 | FDAM:告别模糊视界,源自电路理论的即插即用方法让视觉Transformer重获高清细节

ICCV 2025 | FDAM:告别模糊视界,源自电路理论的即插即用方法让视觉Transformer重获高清细节

针对视觉 Transformer(ViT)因其固有 “低通滤波” 特性导致深度网络中细节信息丢失的问题,我们提出了一种即插即用、受电路理论启发的 频率动态注意力调制(FDAM)模块。它通过巧妙地 “反转” 注意力以生成高频补偿,并对特征频谱进行动态缩放,最终在几乎不增加计算成本的情况下,大幅提升了模型在分割、检测等密集预测任务上的性能,并取得了 SOTA 效果。

来自主题: AI技术研报
7346 点击    2025-10-16 14:35
知心者?操控者?施虐者?AI伙伴如何影响我们的心理健康

知心者?操控者?施虐者?AI伙伴如何影响我们的心理健康

知心者?操控者?施虐者?AI伙伴如何影响我们的心理健康

原文作者:David Adam 本篇《自然》长文共3702字,干货满满,预计阅读时间12分钟,时间不够建议可以先“浮窗”或者收藏哦。 研究表明,电子伙伴类应用有利有弊——但科学家们担心长期依赖性。 绘

来自主题: AI技术研报
7833 点击    2025-09-30 10:41
斯坦福:优化器「诸神之战」?AdamW 凭「稳定」胜出

斯坦福:优化器「诸神之战」?AdamW 凭「稳定」胜出

斯坦福:优化器「诸神之战」?AdamW 凭「稳定」胜出

自2014 年提出以来,Adam 及其改进版 AdamW 长期占据开放权重语言模型预训练的主导地位,帮助模型在海量数据下保持稳定并实现较快收敛。

来自主题: AI技术研报
8007 点击    2025-09-08 16:18
震撼实锤!清华姚班校友揭「1.4×加速」陷阱:AI优化器为何名不符实?

震撼实锤!清华姚班校友揭「1.4×加速」陷阱:AI优化器为何名不符实?

震撼实锤!清华姚班校友揭「1.4×加速」陷阱:AI优化器为何名不符实?

为了降低大模型预训练成本,最近两年,出现了很多新的优化器,声称能相比较AdamW,将预训练加速1.4×到2×。但斯坦福的一项研究,指出不仅新优化器的加速低于宣称值,而且会随模型规模的增大而减弱,该研究证实了严格基准评测的必要性。

来自主题: AI技术研报
8516 点击    2025-09-07 12:03