AI资讯新闻榜单内容搜索-线性注意力

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
搜索: 线性注意力
线性扩散模型LiT来了,用极简线性注意力助力扩散模型AIPC时代端侧部署

线性扩散模型LiT来了,用极简线性注意力助力扩散模型AIPC时代端侧部署

线性扩散模型LiT来了,用极简线性注意力助力扩散模型AIPC时代端侧部署

香港大学联合上海人工智能实验室,华为诺亚方舟实验室提出高效扩散模型 LiT:探索了扩散模型中极简线性注意力的架构设计和训练策略。LiT-0.6B 可以在断网状态,离线部署在 Windows 笔记本电脑上,遵循用户指令快速生成 1K 分辨率逼真图片。

来自主题: AI技术研报
8175 点击    2025-02-01 18:37
从线性注意力视角揭秘视觉Mamba,清华、阿里合作提出全新MILA模型

从线性注意力视角揭秘视觉Mamba,清华、阿里合作提出全新MILA模型

从线性注意力视角揭秘视觉Mamba,清华、阿里合作提出全新MILA模型

Mamba 是一种具有线性计算复杂度的状态空间模型,它能够以线性计算复杂度实现对输入序列的有效建模,在近几个月受到了广泛的关注。

来自主题: AI技术研报
8515 点击    2024-12-11 09:33
405B大模型也能线性化!斯坦福MIT最新研究,0.2%训练量让线性注意力提分20+

405B大模型也能线性化!斯坦福MIT最新研究,0.2%训练量让线性注意力提分20+

405B大模型也能线性化!斯坦福MIT最新研究,0.2%训练量让线性注意力提分20+

近日,来自斯坦福、MIT等机构的研究人员推出了低秩线性转换方法,让传统注意力无缝转移到线性注意力,仅需0.2%的参数更新即可恢复精度,405B大模型两天搞定!

来自主题: AI技术研报
6570 点击    2024-11-21 13:47
Meta无限长文本大模型来了:参数仅7B,已开源

Meta无限长文本大模型来了:参数仅7B,已开源

Meta无限长文本大模型来了:参数仅7B,已开源

Transformers 的二次复杂度和弱长度外推限制了它们扩展到长序列的能力,虽然存在线性注意力和状态空间模型等次二次解决方案

来自主题: AI技术研报
7355 点击    2024-04-17 20:17