
MiniMax押注线性注意力,让百万级长文本只用1/2700算力|对话MiniMax-01架构负责人钟怡然
MiniMax押注线性注意力,让百万级长文本只用1/2700算力|对话MiniMax-01架构负责人钟怡然Transformer架构主导着生成式AI浪潮的当下,但它并非十全十美,也并非没有改写者。
来自主题: AI技术研报
7111 点击 2025-04-17 15:29
Transformer架构主导着生成式AI浪潮的当下,但它并非十全十美,也并非没有改写者。
开源模型上下文窗口卷到超长,达400万token! 刚刚,“大模型六小强”之一MiniMax开源最新模型—— MiniMax-01系列,包含两个模型:基础语言模型MiniMax-Text-01、视觉多模态模型MiniMax-VL-01。