独家|聚焦大模型推理,水下AI芯片公司斩获10亿元Pre-A轮融资

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
独家|聚焦大模型推理,水下AI芯片公司斩获10亿元Pre-A轮融资
7752点击    2026-03-09 10:49

ZP独家获悉,AI芯片及系统架构研发商“上海昉擎科技”于近日完成 Pre-A3 轮融资,新引入投资人国开科创、钧山资本、建发新兴投资、多维资本,多维资本担任本轮融资财务顾问并担任后续融资独家财务顾问。某头部VC机构、华业天成、蔚来资本、广发信德、三七互娱等多位老股东进行超额加注。上海昉擎科技近三个月完成多轮融资,历史投资人包括头部产业资本及财务投资机构。


当英伟达用200亿美元收购Groq的消息震动硅谷时,一位曾主导华为麒麟SoC研发、执掌寒武纪技术架构的中国芯片专家,正试图用一套全球首创的分布式计算技术架构,回答一个更大的命题:在算力狂奔的时代,中国能否诞生一个定义下一代AI硬件系统的公司?


独家|聚焦大模型推理,水下AI芯片公司斩获10亿元Pre-A轮融资


领航者梁军:见过高山,更能带队登顶的稀缺算力领路人


在国产AI算力突围的赛道上,真正兼具顶尖技术品味与产业落地能力的领路人,堪称凤毛麟角,而昉擎科技CEO梁军,正是这样一位“见过高山、还亲自领队攀登”的稀缺存在。深耕芯片行业二十余载,梁军的履历自带行业标杆属性,每一步都踩在国产芯片发展的关键节点上。


早年深耕华为海思期间,他以总架构师的身份主导海思麒麟SOC芯片研发,亲手搭建起核心技术体系,见证并参与了国产芯片从追赶至突破的关键历程,全球首先在海量发货的手机SoC中集成NPU并取得巨大商业成功;2017年加入寒武纪后,他出任CTO,主导推出首款7nm AI训练芯片思元290及后续系列产品370、590等,将AI芯片技术从实验室推向规模化应用场景。


不同于单纯的技术研发者,梁军既深谙底层架构的核心逻辑,又懂产业落地的痛点与路径,这种“技术+产业”的双重积淀,让他在AI算力赛道中具备了独一无二的视野与判断力。


如今选择再次创业,不是简单复制过往路径,而是站在更高维度——这一次,他要做的不是“又一款芯片”,而是一个AI时代全新的计算系统范式。


执掌昉擎科技一年多的时间里,梁军带领公司完成多轮融资,头部战略方与财务投资机构纷纷入局加持,既是对梁军行业影响力与技术判断力的最高背书,更是对昉擎全新架构路线、算力破局潜力的高度认可。


AI算力需求爆发:国产窗口期来临,昉擎走出差异化破局之路


当下,AI正以前所未有的速度爆发,大模型的快速迭代与场景落地使得推理需求激增,随之而来的是巨大的AI算力缺口,国产AI算力芯片迎来了历史性的发展窗口期。


纵观海内外市场,当前算力市场仍由英伟达主导,GPGPU架构占据主流,但行业变革的暗流已在涌动——海外诸多初创企业凭借新型架构试图破局,均斩获了资本市场的高度认可。


Groq主攻“可重构计算流处理器”技术路线,估值飙升至200亿美元,最终被英伟达收购,相较前轮融资付出3倍溢价;Cerebras通过晶圆级芯片实现超大规模并行计算,最新估值超220亿美元,相较几月前,估值增长3倍;Tenstorrent则以“数据流+RISC-V”混合架构吸引AMD前CTO Jim Keller加盟,分别累计融资近20亿美元,成为市场瞩目的新星。


与此同时,AI正从云端向边缘深度渗透,AI计算的分布式与C端场景化趋势愈发明显。开源项目Clawdbot(后更名OpenClaw)的爆火,意外带动了Mac mini热销,极大的加速了Agent应用的推广和普及,揭开了AI行业下一个十年的面纱:大模型和运行大模型的硬件成为智能化社会的基础设施,Agent应用对低时延和低成本token的强需求,正在推动整个AI行业发生深刻的变化。


对此,昉擎表示:“AI推理系统正在发生快速改变,针对低延迟优化的推理系统将迅速成为新的产业和市场热点,以满足Agent应用对低时延和低成本token的强需求”。昉擎科技的布局,从一开始就与市面玩家截然不同——昉擎不追求单一芯片的参数突破,而是以“定义创新系统”为目标,通过全新的分布式计算架构,开辟一条区别于所有同行的差异化破局之路。梁军认为“上下文相关”和“上下文无关”解耦的分布式计算架构将成为新的面向低延迟的推理系统的基础性架构。这一技术路线选择,源于他对计算范式转移的深刻洞察:在AI模型大行其道的今天,计算的本质正在从“以计算为中心”转向“以Memory为中心”,但这一事实还未被广泛认知。


独家|聚焦大模型推理,水下AI芯片公司斩获10亿元Pre-A轮融资


核心架构革新:“解耦”的智慧,重新定义可扩展系统


昉擎科技的技术内核,是一套名为“上下文相关”(context aware)与“上下文无关”(context free)解耦的分布式计算架构。


该全球首创技术架构直指Transformer模型的核心效率痛点。在传统的Transformer设计中,负责记忆和上下文的注意力机制(Attention)与负责逻辑和知识的前馈神经网络(FNN)被串联在同一层中。这意味着,两种不同的计算需求在同一个物理芯片上需要竞争计算资源,存储容量和存储带宽。


昉擎的解法是将两者彻底分离:把FNN与Attention解耦为两个独立模块,分配给最适合的硬件架构做分布式处理。这意味着,系统被分解为“上下文相关”与“上下文无关”两部分,两者之间通过明确定义的接口通信,系统的扩展从此从一个维度变成了多个维度。


“芯片设计的第一优先级,应从追求单一芯片性能、集成度的提升,改为优先追求一个可扩展的系统设计。”梁军强调 。当视角从芯片上升到系统,新的可能性便浮现出来。昉擎科技认为:如果做一下对比,对输入输出的处理部分更像是冯诺伊曼架构里的处理器,对权重相关的处理部分更像是传统处理器里的Memory;传统意义上的Memory有2个属性,容量和带宽,新的Memory增加了2个新的属性:计算语义和通信,变成了4个维度。当采用了分离式架构以后,两个组件在4个维度上采用不同的方式设计和做系统扩展,会创造出新的AI系统;以分离式架构为基础搭建的,面向低延迟设计的推理系统,因为更好的匹配了Agent应用的需求,将快速成为新的产业和市场热点。


端侧AI革命引领:让每个家庭、每个人都拥有“大模型大脑”


在梁军的蓝图中,这套分离式架构在端侧依托“上下文相关”与“上下文无关”的解耦设计,昉擎将分布式计算架构延伸至端侧,彻底改变现有AI硬件生态,让“大模型普惠化”真正成为可能,基于分离式架构设计的系统会发展出新型的个人AI计算机。


在家庭场景中,电视、空调、扫地机器人、智能音箱等设备虽内置小芯片,但受限于算力与内存,无法运行哪怕是最轻量的大模型。试想未来家里放置一个小型“家庭AI计算中心”——可能是一个不起眼的小盒子,所有家用智能设备上的小芯片负责将物理世界的输入token化,以及将模型输出的token转换成对物理世界的输出,而基于分离式架构设计的AI推理系统则统一放在这个小盒子中。通过Wi-Fi,家中的所有智能设备都可以调用大模型能力,AI算力将随处可用。 


在C端个人穿戴场景下,智能手表、戒指、AR眼镜等微型设备受体积、功耗与散热限制,几乎不可能集成强算力芯片。而试想未来一枚名片大小的“个人计算平台”可随身携带,作为共享的AI computer。所有穿戴设备只需负责数据采集,输入数据token化,以及将模型输出token转换成物理信号输出,复杂推理全部交由这张“卡片”完成。未来,这张卡片或许不仅是算力载体,更可集成数字身份、健康档案、AI Agent人格等,成为新时代的“数字身份证”或“个人智能中枢”。


在梁军看来,“当把第一优先级改为追求可扩展的系统设计之后,会颠覆现有的AI硬件设计思路,引领全新的系统形态,创造出新的市场。”


独家|聚焦大模型推理,水下AI芯片公司斩获10亿元Pre-A轮融资


结语


从麒麟到寒武纪,再到今天的昉擎,梁军一直在攀登。这一次,他的目标不再是追赶者眼中的“高山”,而是一座尚未被定义的山峰。当旁人还在追赶算力峰值、比拼TOPS数字时,昉擎选择了一条更艰难但也更值得的路:定义一个属于中国原创架构的AI算力新时代。


这不是一场简单的国产替代,而是一次从底层逻辑出发的范式重构。它不依赖先进制程,不迷信单一芯片性能,而是通过重新组织计算、存储与通信的关系,释放出前所未有的效率与灵活性。


这场静水深流的革命,或许将真正让AI走进千家万户、融入每个人的数字生命。


文章来自于“Z Potentials”,作者 “Z Potentials”。

AITNT-国内领先的一站式人工智能新闻资讯网站
AITNT资源拓展
根据文章内容,系统为您匹配了更有价值的资源信息。内容由AI生成,仅供参考
1
智能体

【开源免费】AutoGPT是一个允许用户创建和运行智能体的(AI Agents)项目。用户创建的智能体能够自动执行各种任务,从而让AI有步骤的去解决实际问题。

项目地址:https://github.com/Significant-Gravitas/AutoGPT


【开源免费】MetaGPT是一个“软件开发公司”的智能体项目,只需要输入一句话的老板需求,MetaGPT即可输出用户故事 / 竞品分析 / 需求 / 数据结构 / APIs / 文件等软件开发的相关内容。MetaGPT内置了各种AI角色,包括产品经理 / 架构师 / 项目经理 / 工程师,MetaGPT提供了一个精心调配的软件公司研发全过程的SOP。

项目地址:https://github.com/geekan/MetaGPT/blob/main/docs/README_CN.md