
“它将成为有史以来产量最高的 AI 芯片之一。”
刚刚,马斯克在X上发布:“恭喜 @Tesla_AI 芯片设计团队正在完成 AI5 的流片!AI6、Dojo3 及其他令人兴奋的芯片正在研发中。”
根据评论区网友介绍,“流片”源于一个古老的术语,源于过去真的把最终芯片设计数据装进磁带卷轴寄出去的时代。AI5芯片流片意味着进入““试生产”环节!


回顾马斯克的芯片计划,早期Tesla从HW3(2019年,144 TOPS)走到AI4(2023年,500+ TOPS),用了大约4年时间,属于行业常规节奏。
而从被提前45天完成的AI5到正在研发中的AI6,马斯克提出了九个月的研发周期,预计AI6在今年12月“流片”。
这么高的效率,马斯克是如何做到的,以及AI5能否用于目前的特斯拉HW3车型?
这是AI5这张芯片的外观:

根据官方描述,单颗AI5的实际算力,大约是现在双芯片 AI4 的5倍!整体比AI4强很多——计算能力提升约8倍,内存容量增加9倍,内存带宽提升5倍。
全套AI5系统的算力预计达到2000-2500 TOPS,而AI4只有300-500 TOPS左右。单芯片性能差不多相当于NVIDIA的Hopper(H100),两颗一起用就接近Blackwell级别。
同时,在X上已经有大佬仅从芯片照片就推断出了超详细数据:
这些内存芯片似乎是 SK 海力士 H58G66DK9QX170N 8GB LPDDR5X,带宽为 9600Mbps。 12 个模块 = 96GB @ 1.15TB/s
尺寸似乎为半光罩(约 430 平方毫米)。这使其在良率和成本方面优于英伟达 H100 等全光罩芯片(<800 平方毫米)。假设特斯拉采用台积电 3 纳米工艺,则该芯片将包含 1080 亿至 1250 亿个晶体管。
凭借如此多的晶体管和内存性能,当功耗限制在约 150W 时(例如在汽车或 Optimus 系统中),我们可以得到 2000-2500 TOPS 的性能,这与 H100 的性能相当。如果不受限制,例如在数据中心等环境中,性能可能会更高。
这种封装方式相当不错。它将内存集成在封装内,相比传统的板载内存配置,在延迟方面优势显著。在我看来,这种封装方式的内存容量对于汽车来说完全过剩。我认为图中展示的是数据中心版本。而对于汽车或 Optimus 平台,我们或许会看到传统的板载内存配置(容量较小,例如 32GB)。并且估计大概是 H100 价格的 10%。
数据进步这么大,那么这款AI5芯片将用于哪里呢?
首先是特斯拉自动驾驶,真正量产可能要到2027年。马斯克在 2024 年股东大会及 2025 年 Q2 财报中多次提到,“当前 HW3/HW4 硬件仍可通过软件持续提升自动驾驶能力,但面向大规模 Robotaxi 运营,特斯拉正在开发新一代 AI5 硬件,其核心目标是提供更高算力与更强系统冗余,从而支撑真正无人驾驶的商业化落地。”
然后是特斯拉人形机器人 Optimus ,特斯拉的自动驾驶软件与机器人软件是高度通用的,机器人也需要处理来自视觉、力反馈和关节传感器的海量实时数据。
第三是xAI 数据中心与分布式计算,尽管马斯克强调AI5 主要针对边缘推理,但也可用于部分训练/推理场景。
AI5芯片的数据如此优异,马斯克是如何做到的?
简单来说,就是硬件与软件协同,不考虑“通用性”
一位独立研究员Shanaka Anslem Perera称:“90亿英里的驾驶数据被浓缩成了一块芯片。”
这款芯片最有趣的地方在于:他们没有按照英伟达传统生产方式,而是从 90 亿英里的 FSD 推理数据入手提出一个问题:神经网络的计算周期都浪费在哪里?答案是 softmax 计算和量化精度损失。
这两种特定的数学运算在地球上所有通用 GPU 中都消耗了不成比例的硅片面积和功耗。
特斯拉将定制的量化和 softmax 加速器模块直接烧录到芯片内部,使其在这些操作上的效率比任何通用同类产品高出五倍。此外,他们还增加了相对于 AI4 的 10 倍原始计算能力和 9 倍内存容量。
这种“垂类整合”模式极大加速了芯片的迭代速度,形成闭合循环。
英伟达生产通用型 GPU:他们将晶体管封装在一个完整的芯片上,预装 CUDA,然后让客户自行决定哪些运算至关重要。Blackwell B200 的运算能力为 4.5 petaFLOPS,功耗最高可达 1000 瓦,它可以运行任何客户的任何模型——这既是护城河,也是代价。
而马斯克的 AI5 系统芯片的有效计算能力约为当前双芯片 AI4 配置的 5 倍,功耗约为 250 瓦。 AI5 被定位为英伟达 Hopper 级别的处理器,将双 AI5 定位为 Blackwell 级别的处理器,用于特斯拉工作负载,其能效比后者高出 3 到 5 倍,性价比高出约 10 倍。
因此这并非一款旨在与英伟达竞争的芯片。
它的设计初衷只有一个:运行一个基于90亿英里摄像头观测数据而构建的、可微分的物理引擎;每个晶体管都服务于这个引擎。没有硅片的浪费,也没有通用性成本。
在AI5芯片出来以后,网友最关注的问题就是它能否用于目前的HW3 和 HW4/AI4 车型?
马斯克的回复:“HW4 已经足够实现无人监管的 FSD”
Reddit 上的网友评论:“特斯拉的计划是“等待你”,希望你“自愿”升级到 HW4(或 HW5)汽车,这样他们就不必对你的 HW3 汽车进行改装了。”
因此,小编认为AI5并不会大规模改装到现有的版本。

马斯克为什么这么执着于制造芯片?
他曾在 2026 年初的直播中直言:“目前芯片的全球制造能力只够满足他我们未来需求的 2%。”
长期以来,无论是大模型还是自动驾驶都依赖英伟达的芯片供应,而自研芯片让特斯拉能够以 “9个月一个迭代周期” 的惊人速度进化,而不需要等外部厂商的排产。
评论区的各位大佬认为AI5芯片怎么样?会用到目前特斯拉HW3和HW4/AI4 车型吗?
参考链接:
https://x.com/elonmusk/status/2044315118583066738?s=20
文章来自于"51CTO技术栈",作者 "林芯"。
【开源免费】VideoChat是一个开源数字人实时对话,该项目支持支持语音输入和实时对话,数字人形象可自定义等功能,首次对话延迟低至3s。
项目地址:https://github.com/Henry-23/VideoChat
在线体验:https://www.modelscope.cn/studios/AI-ModelScope/video_chat
【开源免费】Streamer-Sales 销冠是一个AI直播卖货大模型。该模型具备AI生成直播文案,生成数字人形象进行直播,并通过RAG技术对现有数据进行寻找后实时回答用户问题等AI直播卖货的所有功能。
项目地址:https://github.com/PeterH0323/Streamer-Sales