
全流程国产GPU,上下文提速100倍!中国科学院发布「线性复杂度」类脑大模型
全流程国产GPU,上下文提速100倍!中国科学院发布「线性复杂度」类脑大模型SpikingBrain借鉴大脑信息处理机制,具有线性/近线性复杂度,在超长序列上具有显著速度优势,在GPU上1M长度下TTFT 速度相比主流大模型提升26.5x, 4M长度下保守估计速度提升超过100x;
SpikingBrain借鉴大脑信息处理机制,具有线性/近线性复杂度,在超长序列上具有显著速度优势,在GPU上1M长度下TTFT 速度相比主流大模型提升26.5x, 4M长度下保守估计速度提升超过100x;
GPT-5的日耗电量可达45吉瓦时,这一数值相当于150万美国家庭的每日用电需求,或2至3座核反应堆的输出量。
液冷已成AI服务器的“必选项”。 进入2025年,科技巨头们在AI基建上可谓是壕无人性,投入常常以千亿美元为单位。 美东时间8月15日,OpenAI CEO奥特曼表示,未来公司将投入数万亿美元夯实AI基建,用于支持各项人工智能服务。
当前AI大模型(LLM)训练与推理对算力的巨大需求,以及传统计算精度(如FP16/BF16)面临的功耗、内存带宽和计算效率瓶颈。
这期对话把火力对准了一个不体面的真相:更聪明的“路由”和更苛刻的“成本”正重写 AI 商业化的脚本。
OpenAI计划在印度建设至少1GW规模的数据中心,这是「星际之门」计划首次大规模进入亚洲。印度之所以重要,不仅因其庞大的用户增长潜力与低价特供服务,还因多语言应用场景。奥特曼虽淡出CEO角色,却亲自推动全球算力布局,印度成为其展现野心的关键起点。
智东西8月26日报道,近日,谷歌母公司Alphabet风投部门CapitalG、英伟达正在洽谈投资以色列AI基础设施提供商VAST Data,融资金额或达到数十亿美元,或将成为以色列科技公司史上最大规模融资。融资完成,这家创企的估值将跃升至300亿美元(折合人民币约2148亿元)。
DeepSeek V3.1发布后,一则官方留言让整个AI圈都轰动了,新的架构、下一代国产芯片,总共短短不到20个字,却蕴含了巨大信息量。
英伟达封王,谷歌、亚马逊、华为“稳赚不赔”,AMD意外亏损。AI推理,是一门利润惊人的生意。
年初,DeepSeek 前脚带来模型在推理能力上的大幅提升,Manus 后脚就在全球范围内描绘了一幅通用 Agent 的蓝图。新的范本里,Agent 不再止步于答疑解惑的「镶边」角色,开始变得主动,拆解分析需求、调用工具、执行任务,最终解决问题……