AI资讯新闻榜单内容搜索-端侧部署

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
搜索: 端侧部署
华为中科大联创大模型低比特量化算法,1‰数据实现昇腾无损压缩7倍

华为中科大联创大模型低比特量化算法,1‰数据实现昇腾无损压缩7倍

华为中科大联创大模型低比特量化算法,1‰数据实现昇腾无损压缩7倍

大模型巨无霸体量,让端侧部署望而却步?华为联手中科大提出CBQ新方案,仅用0.1%的训练数据实现7倍压缩率,保留99%精度。

来自主题: AI技术研报
7968 点击    2025-05-26 15:21
ICML 2025 Spotlight|华为诺亚提出端侧大模型新架构MoLE,内存搬运代价降低1000倍

ICML 2025 Spotlight|华为诺亚提出端侧大模型新架构MoLE,内存搬运代价降低1000倍

ICML 2025 Spotlight|华为诺亚提出端侧大模型新架构MoLE,内存搬运代价降低1000倍

Mixture-of-Experts(MoE)在推理时仅激活每个 token 所需的一小部分专家,凭借其稀疏激活的特点,已成为当前 LLM 中的主流架构。然而,MoE 虽然显著降低了推理时的计算量,但整体参数规模依然大于同等性能的 Dense 模型,因此在显存资源极为受限的端侧部署场景中,仍然面临较大挑战。

来自主题: AI技术研报
5831 点击    2025-05-07 09:30
线性扩散模型LiT来了,用极简线性注意力助力扩散模型AIPC时代端侧部署

线性扩散模型LiT来了,用极简线性注意力助力扩散模型AIPC时代端侧部署

线性扩散模型LiT来了,用极简线性注意力助力扩散模型AIPC时代端侧部署

香港大学联合上海人工智能实验室,华为诺亚方舟实验室提出高效扩散模型 LiT:探索了扩散模型中极简线性注意力的架构设计和训练策略。LiT-0.6B 可以在断网状态,离线部署在 Windows 笔记本电脑上,遵循用户指令快速生成 1K 分辨率逼真图片。

来自主题: AI技术研报
6299 点击    2025-02-01 18:37
CPU反超NPU,llama.cpp生成速度翻5倍!LLM端侧部署新范式T-MAC开源

CPU反超NPU,llama.cpp生成速度翻5倍!LLM端侧部署新范式T-MAC开源

CPU反超NPU,llama.cpp生成速度翻5倍!LLM端侧部署新范式T-MAC开源

T-MAC是一种创新的基于查找表(LUT)的方法,专为在CPU上高效执行低比特大型语言模型(LLMs)推理而设计,无需权重反量化,支持混合精度矩阵乘法(mpGEMM),显著降低了推理开销并提升了计算速度。

来自主题: AI资讯
5186 点击    2024-08-13 17:42