唯快不破:上海AI Lab 82页综述带你感受LLM高效架构的魅力

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
唯快不破:上海AI Lab 82页综述带你感受LLM高效架构的魅力
5429点击    2025-08-26 11:30

近年来,大语言模型(LLMs)展现出强大的语言理解与生成能力,推动了文本生成、代码生成、问答、翻译等任务的突破。代表性模型如 GPT、Claude、Gemini、DeepSeek、Qwen 等,已经深刻改变了人机交互方式。LLMs 的边界也不止于语言和简单问答。随着多模态(VLMs)与推理能力(LRMs)的兴起,LLMs 正不断扩展到多模态理解、生成与复杂推理场景。


但模型性能持续提升的背后,是模型尺寸、数据规模、RL 推理长度的快速 Scaling,是算力和存储资源的急剧消耗。大模型的训练与推理的成本居高不下,成为制约其广泛落地和应用的现实瓶颈。


本文从 LLM 架构角度出发,带你剖析大模型的效率秘诀。这一切的核心在于 Transformer 架构。Transformer 的自注意力机制虽带来了远距离建模的突破,却因 O(N2) 的复杂度在长序列任务中成本高昂。而在 RAG、智能体、长链推理、多模态等新兴场景下,长序列需求愈发突出,进一步放大了效率与性能之间的矛盾。同时 Transformer 的 FFN 部分采用密集的 MLP 层,同样面临模型规模放大后的训练和推理效率问题。


近年来针对 Transformer 架构改进的创新工作层出不穷,却一直缺乏一篇全面深入的综述文章进行总结。


唯快不破:上海AI Lab 82页综述带你感受LLM高效架构的魅力


图 1:常见长序列场景


近期,上海 AI Lab 联合港科广、澳门大学、中科院自动化所、苏州大学、瑞典 KTH、北大、港中文等多家机构,总结 440 余篇相关论文,深入探讨了当前 LLM 高效结构的最新进展,形成这篇 82 页的综述论文:


唯快不破:上海AI Lab 82页综述带你感受LLM高效架构的魅力


  • 论文标题:Speed Always Wins: A Survey on Efficient Architectures for Large Language Models


  • 论文地址:https://arxiv.org/pdf/2508.09834


  • 项目仓库:https://github.com/weigao266/Awesome-Efficient-Arch


唯快不破:上海AI Lab 82页综述带你感受LLM高效架构的魅力


图 2:大语言模型高效架构概览


该综述将目前 LLM 高效架构总结分类为以下 7 类:


  • 线性序列建模:降低注意力训练和推理复杂度,无需 KV Cache 开销。


  • 稀疏序列建模:通过稀疏化注意力矩阵,降低计算与显存需求。


  • 高效全注意力:在保持完整注意力的前提下优化内存访问与 KV 存储。


  • 稀疏专家模型:通过条件激活部分专家,大幅提升模型容量而不增加等比例计算成本。


  • 混合模型架构:结合线性/稀疏序列建模与全注意力,兼顾效率与性能。


  • 扩散语言模型:利用非自回归的扩散模型进行语言生成。


  • 其他模态应用:将这些高效架构应用于视觉、语音、多模态模型。


这些方向的探索不仅关乎 LLM 的未来效率,也关乎如何在算力受限的条件下,持续推动 AI 走向更强的智能的关键选择。综述涉及的方法类别和代表性论文可见如下树状图:


唯快不破:上海AI Lab 82页综述带你感受LLM高效架构的魅力


图 3:综述完整组织架构


线性序列建模


线性序列建模是近年来研究相当火热的一个方向,代表性工作像 Mamba、Lighting Attention、RWKV、GLA、TTT 等在模型架构方向都引起过广泛关注。我们将这类技术细分为以下几个类别:


  • 线性注意力


  • 线性 RNN


  • 状态空间模型


  • 测试时推理 RNN


并且正如在多篇文献里已经提出的,这些线性序列建模方法可以概括为统一建模的数学形式,并且能够通过线性化过程将预训练模型权重的 Softmax Attention 架构转为 Linear Sequence Modeling 架构,从而获得模型效率的大幅提升,如下图所示。


唯快不破:上海AI Lab 82页综述带你感受LLM高效架构的魅力


图 4:线性序列建模方法


我们将已有的线性序列建模方法从记忆视角和优化器视角分别进行梳理和对比,详细形式可见下表:


唯快不破:上海AI Lab 82页综述带你感受LLM高效架构的魅力


表 1:线性序列建模方法统一建模的 Memory 视角和 Optimizer 视角


其中线性化技术可以进一步细分为基于微调的线性化,和基于蒸馏的线性化,如下图所示:


唯快不破:上海AI Lab 82页综述带你感受LLM高效架构的魅力


图 5:线性化方法


综述还进一步总结归纳了目前在线性序列建模领域常见的硬件高效实现方法,可以归纳为 Blelloch Scan、Chunk-wise Parallel 和 Recurrent for Inferences,如下图所示:


唯快不破:上海AI Lab 82页综述带你感受LLM高效架构的魅力


图 6:线性序列建模方法的硬件高效实现


稀疏序列建模


稀疏序列建模是另一类有代表性的高效注意力机制,通过利用 Attention Map 天然具有的稀疏性加速注意力的计算,这类方法可以进一步细分为:


  • 静态稀疏注意力


  • 动态稀疏注意力


  • 免训练稀疏注意力


代表性的稀疏注意力方法如 Global Attention、Window Attention、Dilated Attention 等,及其工作原理如下图所示:


唯快不破:上海AI Lab 82页综述带你感受LLM高效架构的魅力


图 7:稀疏注意力的几种经典形式


高效全注意力


另一类高效注意力算法可以统一归纳为高效全注意力,这类方法可以根据算法思路进一步细分为如下几类:


  • IO-Aware Attention


  • Grouped Attention


  • Mixture of Attention


  • Quantized Attention


其中 IO-Aware Attention 指代目前使用非常广泛的 Flash Attention 系列工作,Grouped Attention 则包含广为使用的 GQA、MLA 等全注意力变体,几种代表性方法如下图所示。


唯快不破:上海AI Lab 82页综述带你感受LLM高效架构的魅力


图 8:Grouped Attention 的几种代表性方法


稀疏混合专家


稀疏混合专家是对 Transformer 架构中另一个重要模块 FFN 做的一类重要改进,已经逐渐成为(语言和多模态)大模型架构的事实标准。综述中将相关文献按以下三个方向进行分类:


  • Routing Mechanisms


  • Expert Architectures


  • MoE Conversion


路由机制包括 Token-choice 和 Expert-choice 两类,其原理如下图所示:


唯快不破:上海AI Lab 82页综述带你感受LLM高效架构的魅力


图 9:MoE 路由机制


专家结构的创新工作包括:共享专家、细粒度专家、零专家、深度路由等,其作用和原理可见下图:


唯快不破:上海AI Lab 82页综述带你感受LLM高效架构的魅力


图 10:MoE 专家架构


另外一个重要的方向是 MoE 转换,已有的工作包括通过 Split、Copy、Merge 等手段对专家进行构造,如下图所示:


唯快不破:上海AI Lab 82页综述带你感受LLM高效架构的魅力


图 11:MoE 转化机制


混合架构


混合架构是近年来出现的一种实用的新型架构,可以在线性/稀疏注意力和全注意力之间取得微妙的 Trade-off,也在效率和效果间找到了最佳甜蜜点。具体可细分为:


  • 层间混合


  • 层内混合


唯快不破:上海AI Lab 82页综述带你感受LLM高效架构的魅力


图 12:混合架构形式


扩散大语言模型


扩散大语言模型是近期出现的一个热门方向,创新性地将扩散模型从视觉生成任务迁移至语言任务,从而在语言生成速度上取得大幅进步。相关工作可以细分为:


  • Non-Autoregressive Diffusion LLM


  • Bridging Diffusion LLM and Autoregressive


  • Extending Diffusion LLM to Multimodality


唯快不破:上海AI Lab 82页综述带你感受LLM高效架构的魅力


图 13:扩散大语言模型机制


应用至其他模态


最后一个重要的部分是高效架构在其他模态上的应用,涵盖视觉、音频和多模态。以 Mamba 为代表的线性模型被广泛应用至多种模态任务上,并取得了优秀的表现,综述将这类模型总结梳理至如下表格:


唯快不破:上海AI Lab 82页综述带你感受LLM高效架构的魅力


寄语


最后正如帝国时代 3 中这条神奇代码「Speed Always Wins」能让游戏世界「Increases build, research, shipment, and gather rates by 100 times for all players」一样,我们希望综述中的 Efficient Architectures 可以真被用来 100x 加速 AI 世界的构建,更快更便宜地训练出更强更实用的大模型。请记住这条神奇代码:「Speed Always Wins


文章来自于微信公众号“机器之心”。


AITNT-国内领先的一站式人工智能新闻资讯网站
AITNT资源拓展
根据文章内容,系统为您匹配了更有价值的资源信息。内容由AI生成,仅供参考
1
AI代理

【开源免费】Browser-use 是一个用户AI代理直接可以控制浏览器的工具。它能够让AI 自动执行浏览器中的各种任务,如比较价格、添加购物车、回复各种社交媒体等。

项目地址:https://github.com/browser-use/browser-use


2
智能体

【开源免费】AutoGPT是一个允许用户创建和运行智能体的(AI Agents)项目。用户创建的智能体能够自动执行各种任务,从而让AI有步骤的去解决实际问题。

项目地址:https://github.com/Significant-Gravitas/AutoGPT


【开源免费】MetaGPT是一个“软件开发公司”的智能体项目,只需要输入一句话的老板需求,MetaGPT即可输出用户故事 / 竞品分析 / 需求 / 数据结构 / APIs / 文件等软件开发的相关内容。MetaGPT内置了各种AI角色,包括产品经理 / 架构师 / 项目经理 / 工程师,MetaGPT提供了一个精心调配的软件公司研发全过程的SOP。

项目地址:https://github.com/geekan/MetaGPT/blob/main/docs/README_CN.md

3
RAG

【开源免费】graphrag是微软推出的RAG项目,与传统的通过 RAG 方法使用向量相似性作为搜索技术不同,GraphRAG是使用知识图谱在推理复杂信息时大幅提高问答性能。

项目地址:https://github.com/microsoft/graphrag

【开源免费】Dify是最早一批实现RAG,Agent,模型管理等一站式AI开发的工具平台,并且项目方一直持续维护。其中在任务编排方面相对领先对手,可以帮助研发实现像字节扣子那样的功能。

项目地址:https://github.com/langgenius/dify


【开源免费】RAGFlow是和Dify类似的开源项目,该项目在大文件解析方面做的更出色,拓展编排方面相对弱一些。

项目地址:https://github.com/infiniflow/ragflow/tree/main


【开源免费】phidata是一个可以实现将数据转化成向量存储,并通过AI实现RAG功能的项目

项目地址:https://github.com/phidatahq/phidata


【开源免费】TaskingAI 是一个提供RAG,Agent,大模型管理等AI项目开发的工具平台,比LangChain更强大的中间件AI平台工具。

项目地址:https://github.com/TaskingAI/TaskingAI

4
微调

【开源免费】XTuner 是一个高效、灵活、全能的轻量化大模型微调工具库。它帮助开发者提供一个简单易用的平台,可以对大语言模型(LLM)和多模态图文模型(VLM)进行预训练和轻量级微调。XTuner 支持多种微调算法,如 QLoRA、LoRA 和全量参数微调。

项目地址:https://github.com/InternLM/xtuner