谷歌爆改Transformer,“无限注意力”让1B小模型读完10部小说,114倍信息压缩
谷歌爆改Transformer,“无限注意力”让1B小模型读完10部小说,114倍信息压缩它通过将压缩记忆(compressive memory)整合到线性注意力机制中,用来处理无限长上下文
来自主题: AI资讯
9236 点击 2024-04-13 20:07
它通过将压缩记忆(compressive memory)整合到线性注意力机制中,用来处理无限长上下文
ChatGPT又要推出新功能了,这次名叫“记忆”(Memory)。如其名,作用就是让AI记住用户此前的对话内容。