甲骨文推出全球最大AI超算,作为OpenAI「星际之门」算力核心
甲骨文推出全球最大AI超算,作为OpenAI「星际之门」算力核心甲骨文于上周发布全球最大云端AI超级计算机「OCI Zettascale10」,由80万块NVIDIA GPU组成,峰值算力高达16 ZettaFLOPS,成为OpenAI「星际之门」集群的算力核心。其独创Acceleron RoCE网络实现GPU间高效互联,显著提升性能与能效。该系统象征甲骨文在AI基础设施竞争中的强势布局。
甲骨文于上周发布全球最大云端AI超级计算机「OCI Zettascale10」,由80万块NVIDIA GPU组成,峰值算力高达16 ZettaFLOPS,成为OpenAI「星际之门」集群的算力核心。其独创Acceleron RoCE网络实现GPU间高效互联,显著提升性能与能效。该系统象征甲骨文在AI基础设施竞争中的强势布局。
大语言模型(LLM)不仅在推动通用自然语言处理方面发挥了关键作用,更重要的是,它们已成为支撑多种下游应用如推荐、分类和检索的核心引擎。尽管 LLM 具有广泛的适用性,但在下游任务中高效部署仍面临重大挑战。
“我有两张券,分别为满1000减140、满2000减280,我看中商品的价格分别为……分两次结算怎么凑单最划算?”双11开启后,在社交平台上,有人向Deepseek抛出这个问题。
据业内人士透露,微软已向英特尔下达其下一代人工智能芯片Maia 2的晶圆代工订单,计划采用英特尔的18A或18A-P制程。该芯片或将用于微软Azure数据中心等人工智能基础设施。
刚刚,宇树发布第四款人形机器人 H2,高 180cm,重 70kg。和前代 H1 相比,今天发布的 H2 无论是在运动流畅性、还是仿生特征上,都有了相当大的升级。首先是整体的外观形态,和 H 系列都是 180cm 的身高一致,但是 H2 的重量突破性地来到了 70kg 左右,H1 仅有约 47kg。如果要计算它的 BMI,21.6 的结果,妥妥的一个健康好身材。
1.58bit量化,内存仅需1/10,但表现不输FP16? 微软最新推出的蒸馏框架BitNet Distillation(简称BitDistill),实现了几乎无性能损失的模型量化。
给全球六大LLM各发1万美金,丢进同一真实市场实盘厮杀,会发生什么?这场大战从18日开始,截止目前,DeepSeek V3.1盈利超3500美元,Grok 4实力次之。不堪一提的是,Gemini 2.5 Pro成为赔得最惨的模型。
10月18日,在离开OpenAI,联合创办Thinking Machines后,Lilian Weng在硅谷难得地参加了一场公开对话。在这场华源Hysta2025年年会的炉边对谈里,她和主持人、硅谷知名投资人Connie Chan聊了聊她自己的研究经历、研究习惯、在OpenAI的研究思考和Thinking Machines 的发展方向。
英伟达不光自己成长高速,现在它在AI领域的投资也坐上火箭了。 最新数据显示,2025年过去的三个季度里,英伟达参与了50笔AI相关风险投资,这个数量已经超过了2024年全年的48笔。
杜克大学和 Adobe 最近发布的 VERA 研究,首次系统性地测量了语音模态对推理能力的影响。研究覆盖 12 个主流语音系统,使用了 2,931 道专门设计的测试题。