
DeepSeek刚提到FP8,英伟达就把FP4精度推向预训练,更快、更便宜
DeepSeek刚提到FP8,英伟达就把FP4精度推向预训练,更快、更便宜前些天,DeepSeek 在发布 DeepSeek V3.1 的文章评论区中,提及了 UE8M0 FP8 的量化设计,声称是针对即将发布的下一代国产芯片设计。
前些天,DeepSeek 在发布 DeepSeek V3.1 的文章评论区中,提及了 UE8M0 FP8 的量化设计,声称是针对即将发布的下一代国产芯片设计。
英伟达最新财报,营收和每股收益双双超预期! 刚刚公布的第二季度营收467亿美元,高出市场预期1.3%。 调整后每股收益1.05美元,也高于市场预期的1.01美元。
对于计算任务负载来说,越是专用,效率就越高,谷歌的 TPU 就是其中的一个典型例子。它自 2015 年开始在谷歌数据中心部署后,已经发展到了第 7 代。目前的最新产品不仅使用了最先进的制程工艺打造,也在架构上充分考虑了对于机器学习推理任务的优化。TPU 的出现,促进了 Gemini 等大模型技术的进展。
当人们热议着AI大模型如何改变世界时,很少有人会注意到,这场技术革命的真正“战场”,竟隐藏在一块块墨绿色的电路板上。
DeepSeek V3.1发布后,一则官方留言让整个AI圈都轰动了,新的架构、下一代国产芯片,总共短短不到20个字,却蕴含了巨大信息量。
软件+硬件的全链路国产 AI 体系来了? 这几天,不论国内国外,人们都在关注 DeepSeek 发布的 V3.1 新模型。
最新消息,英伟达正在开发新的AI芯片。 代号B30A,其性能要比H20型号更强大。 据路透社报道,该芯片基于最新最强Blackwell架构,将采用单芯片配置。
中国HBM技术代差从8年缩至4年,长鑫存储提前量产HBM2并推进HBM3。三大存储巨头转向定制化HBM4,英伟达将自研基础裸片。国产化仍面临EUV光刻与生态闭环挑战,缓存卸载方案可缓解存储压力。
最近往返中美频繁发声的黄仁勋,是把英伟达打造成 4 万亿帝国的「AI教父」,今天 The Information 曝光了一个老黄布局多年的秘密。
特斯拉Dojo超级计算机团队被解散!特斯拉自动驾驶的「算力心脏」Dojo已被终止。马斯克放弃训练算力,而核心团队另立山头。