从未见过如此凡尔赛的名场面。
云计算一哥亚马逊云科技CEO Matt Garman,在自家年度盛宴re:Invent 2025中,因为还要发布的新产品太多了,于是他在现场来了一句:
我挑战一下10分钟内发布25个产品!

毕竟是闻所未闻的举动,现场观众一下子就沸腾了起来。
然后,Garman真的就以24秒一个产品的速度,把新的计算、存储、安全、数据库和大数据相关的内容,一气呵成地给发布了出来。

或许很多小伙伴要问了,要不要这么赶?会不会太儿戏了些?
赶,是真的得赶;但儿戏,却绝非如此。
因为今年亚马逊云科技在短短2个多小时的时间里,一共发布了近40个新品。
这并不意味着刚才的25项内容不重要,而是前面的新发布更加劲爆——
围绕当下最火热的AI Agent,从算力到模型,从平台到应用,几乎你能想到、用到的内容都涵盖了进来。
若是用一个词来总结纵观整场发布会的感受,那或许就是实用。
是能直击你在用AI大模型、AI Agent过程中所有难题的“七寸”的那种。
接下来,我们就来一起看看前面的发布到底有多重磅。
(PS:先小小剧透一下,中国两款大模型被云计算一哥高调点名了~)
AI的本质是算力密集型工程,而算力的性能、成本与部署灵活性,直接决定了企业能走多远。
亚马逊云科技深谙此道,在这场发布会上,它从三个维度彻底重构了AI算力的供给模式。
首先,是在芯片自研方面。
亚马逊云科技自研的AI芯片Trainium,已经从概念产品成长为多亿美元级业务。据Garman透露:
亚马逊云科技已经部署了超过100万颗Trainium芯片,并以比业界最快AI芯片快4倍的速度快速上量。
而就在今天,Trainium3 Ultra Servers正式全面可用。

这款基于3纳米工艺的服务器,相较上一代Trainium2,在计算性能上提升4.4倍,内存带宽提升3.9倍;更重要的是,在相同延迟下,每兆瓦电力可产出5倍以上的AI Tokens。

除此之外,亚马逊云科技下一代的芯片也已经被曝光了出来——Trainium4。
根据Garman介绍,Trainium4相较于上一代,将带来每个维度上的巨大飞跃:FP4计算性能提升6倍,内存带宽提升4倍,并拥有2倍于前代的高带宽内存容量,专为全球最大的模型训练需求而生。

与亚马逊云科技合作了长达15年之久的英伟达,这一次同样出现在了发布会中。
Garman强调,亚马逊云科技是全球运行英伟达GPU最稳定、最可靠的云平台。他们甚至会深入到BIOS层面进行调试,可以防止GPU意外重启,这是其他云厂商所不具备的。
在此基础上,亚马逊云科技推出了搭载英伟达最新GB200 NVL72系统的P6e-GB300实例,专门为训练超大规模模型的客户提供顶级算力。
包括OpenAI在内的顶尖AI公司,正在亚马逊云科技上运行由数十万颗芯片组成的集群,来支持ChatGPT和下一代模型的训练。

最后,还有一个彻底打破了公有云和私有数据中心边界的新产品——AI Factories。
它可以允许客户在自己的数据中心内部署专属的亚马逊云科技AI基础设施。客户可以复用自己已有的机房空间和电力资源,同时无缝接入包括Trainium、英伟达GPU、SageMaker和Bedrock在内的全套亚马逊云科技的AI服务。

这就意味着任何拥有自有机房的大型组织,都可以在不牺牲安全与控制权的前提下,享受到全球最顶尖的AI算力。
从Trainium的自研,到GPU超集群的运维,再到AI Factories的区域化复制,亚马逊云科技在算力供应链上的掌控力,的确已经逼近算力帝国的描述。
而且这种领先可以说是全栈的那种:芯片、网络、数据中心、一致性API、模型托管、Agent运行环境,每层都在构成自己的壁垒。
如果说算力是土壤,那么我们可以把大模型比作是在此孵化的种子。
亚马逊云科技在这一层面上的解法,是构建一个开放、灵活、可深度定制的模型平台——Amazon Bedrock。
Bedrock的核心哲学是“没有一个模型能统治一切”,这也就是为什么亚马逊云科技会不断往里面扩中新大模型的原因了。
在这次发布会上,除了引入Google的Gemma、NVIDIA的Nemotron等业界知名模型外,一个细节尤其值得关注:
中国的Kimi和MiniMax,首次被纳入Bedrock。
这标志着中国大模型正式通过亚马逊云科技这一全球最大云平台出海,进入全球开发者的视野。

在此生态之上,亚马逊云科技也推出了自家新的自研大模型——Amazon Nova 2系列。
整体来看,Amazon Nova 2主要包含三个不同的类型:

如果说Nova 2解决了“多”和“快”的问题,那么Nova 2 Omni则是解决了“融”的问题。
它是业界首个支持文本、图像、视频、音频四模态输入,并能生成文本与图像的统一推理模型。
这意味着,一个模型就能理解一场包含演讲、PPT、演示视频的完整发布会,并自动生成图文并茂的摘要报告。
这种多模态融合能力,自然是构建真正理解复杂现实世界Agent的关键一步。

然而,所有这些通用模型的终极瓶颈在于:它们不了解你的企业,你的数据、流程、行业知识才是核心竞争力。
为此,亚马逊云科技祭出了杀手锏——Amazon Nova Forge。

Nova Forge引入了开放训练模型(Open Training Models)的概念。
它允许企业客户获取Nova模型在不同训练阶段的检查点(Checkpoint),将自己的私有数据(如产品设计文档、失败案例、制造约束等)与亚马逊云科技的通用训练数据集进行融合。
如此一来,就可以训练出一个既保留了强大通用推理能力,又深度理解本企业独特知识的专属模型(Novella)。

Reddit的案例生动说明了其中所蕴含的价值。
通过在预训练阶段就融入其社区特定的内容安全数据,Reddit成功训练出一个能精准识别违规内容的专属模型,不仅达到了准确性目标,还大幅简化了部署运维。
这就很好地解决了传统微调中模型灾难性遗忘的难题,让企业真正拥有了自己的行业专家AI。

AI Agent,无疑是这次re:Invent中的关键词之一。
亚马逊云科技对此也是非常之重视,几乎把非常大篇幅放在这里。Garman明确表示:
AI助手的时代正在被AI Agent取代;未来每家公司会运行数十亿个Agent。
但企业要想真正把这些AI Agent给用透,就必须解决两大难题:如何高效构建Agent?如何确保它们行为可控、结果可信?
为此,亚马逊云科技给打了个样。
在开发者层面,Garman先是针对其Kiro编程助手,推出了新的三个Agent。

首先是Kiro Autonomous Agent(自主Agent)。
它不再是一个简单的代码补全工具,现在可以充当一个能长期运行、自主规划、并行执行复杂开发任务的“虚拟同事”。
例如,当需要升级一个被15个微服务共用的关键库时,传统方式需要开发者逐个仓库操作。
而Kiro Autonomous Agent会自动分析所有依赖,生成15个经过完整测试、可直接合并的Pull Request。它会记住开发者的反馈,并在后续任务中持续学习和改进。

其次是AWS Security Agent(安全Agent)。
它将安全左移(Shift Left)做到极致,能主动审查设计文档,在代码提交(Pull Request)时扫描漏洞,并能按需发起一键式渗透测试。
这个Agent可以说是把过去昂贵、低频、滞后的安全审计,变成了开发流程中实时、高频、自动化的环节。

最后是AWS DevOps Agent(运维Agent),一个7x24小时在线的超级SRE。
当系统告警时,它能利用对应用拓扑和部署管线的深度理解,快速定位根因(例如,一个由CDK代码错误导致的Lambda IAM策略问题),并提出修复建议,甚至能推荐预防措施,避免问题复发。

这三个Agent,覆盖了软件开发全生命周期,将开发者从重复、繁重、易错的体力劳动中解放出来,让他们能专注于更高价值的创造性工作。
内部数据显示,一个6人团队借助Kiro,仅用76天就完成了原本需要30人干18个月的架构重构项目(据说是重写了一遍Bedrock)。
当然,并非所有企业都有能力从零构建Agent。为此,亚马逊云科技提供了强大的平台能力:
AWS Transform Custom,帮助企业消灭技术债。
开发者可以创建自定义的代码转换Agent,将任何老旧的代码、框架、API(甚至是公司内部独有的)自动迁移至现代化平台。客户QAD利用它,将原本需要2周的迁移工作压缩到3天内完成。

Policy in AgentCore,这是解决Agent失控问题的关键。
它允许管理者用自然语言(如“禁止向退款金额超过1000美元的客户退款”)定义策略。
这些策略会被转化为安全的Cedar策略语言,在Agent每次尝试调用工具或访问数据前进行毫秒级实时校验。这就像给Agent装上了不可绕过的电子围栏,让它在拥有强大自主性的同时,行为边界清晰可控。

AgentCore Evaluations,解决了Agent不可信问题。
传统上,评估Agent输出质量(如准确性、无害性、品牌一致性)需要组建专业数据科学团队构建复杂评估管线。
AgentCore Evaluations将这一切自动化,提供13种预置评估器,并能将评估结果直接集成到CloudWatch中。企业可以持续监控Agent在生产环境中的表现,确保其输出始终符合预期。

从构建、部署到治理、评估,亚马逊云科技为Agent的全生命周期提供了闭环工具链,让企业敢用、能用、用好Agent。
回顾整场发布会,亚马逊在AI大模型、AI Agent时代的发展路径其实是非常清晰且朴素的——
如何把它们给用好。
即使把时间线再往回拨两年,其战略依旧是如此:从一开始就并没有过度深入卷大模型,而是死磕底层架构和应用。
用亚马逊云科技自己的话来说就是“客户需要什么我就做什么”:
这三层架构构成了一套组合拳,直击AI价值落地的“七寸”。它所传递的核心信息同样非常清晰:
AI的未来,不在于单点技术的突破,而在于一整套端到端、安全、可靠、可规模化的企业级基础设施。
正如索尼和Adobe在演讲中所分享的,真正的转型成功,源于将数据和应用深度融入云平台,从而获得了应对不确定性的敏捷性和韧性。
这或许就是Garman在发布会中所提及的那个拐点:从AI的“技术时代”,正式迈入AI的“价值时代”。
今年全球来到拉斯维加斯参加re:Invent的人数达到了6万人!
光是今天主论坛现场,就已经人人人的状态了,来感受一下这个feel:

错过了今天re:Invent的精彩内容?
别急,亚马逊云科技re:Invent 中国行即将启幕!
四大城市巡演 + 北京主会场直播,无论你是云计算新手还是技术老兵,都将从高阶演讲、实战内容、技术分享和专家互动中受益。立即注册,抢占席位,把握Agentic AI时代的新机遇!
https://events.amazoncloud.cn/reinvent-online-20251218?trk=811631fa-539a-41c3-8fed-f23e4f9919dc&sc_channel=el
文章来自于微信公众号 “量子位”,作者 “量子位”
【开源免费】Browser-use 是一个用户AI代理直接可以控制浏览器的工具。它能够让AI 自动执行浏览器中的各种任务,如比较价格、添加购物车、回复各种社交媒体等。
项目地址:https://github.com/browser-use/browser-use
【开源免费】DeepBI是一款AI原生的数据分析平台。DeepBI充分利用大语言模型的能力来探索、查询、可视化和共享来自任何数据源的数据。用户可以使用DeepBI洞察数据并做出数据驱动的决策。
项目地址:https://github.com/DeepInsight-AI/DeepBI?tab=readme-ov-file
本地安装:https://www.deepbi.com/
【开源免费】airda(Air Data Agent)是面向数据分析的AI智能体,能够理解数据开发和数据分析需求、根据用户需要让数据可视化。
项目地址:https://github.com/hitsz-ids/airda
【开源免费】AutoGPT是一个允许用户创建和运行智能体的(AI Agents)项目。用户创建的智能体能够自动执行各种任务,从而让AI有步骤的去解决实际问题。
项目地址:https://github.com/Significant-Gravitas/AutoGPT
【开源免费】MetaGPT是一个“软件开发公司”的智能体项目,只需要输入一句话的老板需求,MetaGPT即可输出用户故事 / 竞品分析 / 需求 / 数据结构 / APIs / 文件等软件开发的相关内容。MetaGPT内置了各种AI角色,包括产品经理 / 架构师 / 项目经理 / 工程师,MetaGPT提供了一个精心调配的软件公司研发全过程的SOP。
项目地址:https://github.com/geekan/MetaGPT/blob/main/docs/README_CN.md
【免费】ffa.chat是一个完全免费的GPT-4o镜像站点,无需魔法付费,即可无限制使用GPT-4o等多个海外模型产品。
在线使用:https://ffa.chat/
【开源免费】XTuner 是一个高效、灵活、全能的轻量化大模型微调工具库。它帮助开发者提供一个简单易用的平台,可以对大语言模型(LLM)和多模态图文模型(VLM)进行预训练和轻量级微调。XTuner 支持多种微调算法,如 QLoRA、LoRA 和全量参数微调。
项目地址:https://github.com/InternLM/xtuner
【开源免费】VideoChat是一个开源数字人实时对话,该项目支持支持语音输入和实时对话,数字人形象可自定义等功能,首次对话延迟低至3s。
项目地址:https://github.com/Henry-23/VideoChat
在线体验:https://www.modelscope.cn/studios/AI-ModelScope/video_chat
【开源免费】Streamer-Sales 销冠是一个AI直播卖货大模型。该模型具备AI生成直播文案,生成数字人形象进行直播,并通过RAG技术对现有数据进行寻找后实时回答用户问题等AI直播卖货的所有功能。
项目地址:https://github.com/PeterH0323/Streamer-Sales