AI资讯新闻榜单内容搜索-长上下文

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
搜索: 长上下文
Mamba超强进化体一举颠覆Transformer!单张A100跑140K上下文

Mamba超强进化体一举颠覆Transformer!单张A100跑140K上下文

Mamba超强进化体一举颠覆Transformer!单张A100跑140K上下文

【新智元导读】52B的生产级Mamba大模型来了!这个超强变体Jamba刚刚打破世界纪录,它能正面硬刚Transformer,256K超长上下文窗口,吞吐量提升3倍,权重免费下载。

来自主题: AI技术研报
6021 点击    2024-03-29 16:43
开源11天,马斯克再发Grok-1.5!128K代码击败GPT-4

开源11天,马斯克再发Grok-1.5!128K代码击败GPT-4

开源11天,马斯克再发Grok-1.5!128K代码击败GPT-4

【新智元导读】马斯克「搞笑」模型刚刚升级到Grok-1.5,推理性能暴涨,支持128k长上下文。最重要的是,Grok-1.5的数学和代码能力大幅提升。

来自主题: AI技术研报
8158 点击    2024-03-29 16:34
AI大模型的长上下文,究竟意味着什么?

AI大模型的长上下文,究竟意味着什么?

AI大模型的长上下文,究竟意味着什么?

本文讨论了AI大模型的长上下文在生成式人工智能中的意义和影响。通过对Gemini 1.5和RAG技术的对比和分析,文章指出Gemini在处理长文档和长上下文方面表现出色,因此有人认为RAG技术已经过时。

来自主题: AI资讯
6300 点击    2024-03-20 09:02
清华NLP组发布InfLLM:无需额外训练,「1024K超长上下文」100%召回!

清华NLP组发布InfLLM:无需额外训练,「1024K超长上下文」100%召回!

清华NLP组发布InfLLM:无需额外训练,「1024K超长上下文」100%召回!

挖掘大模型固有的长文本理解能力,InfLLM在没有引入额外训练的情况下,利用一个外部记忆模块存储超长上下文信息,实现了上下文长度的扩展。

来自主题: AI技术研报
4137 点击    2024-03-11 17:31
10M上下文,仅靠提示就掌握一门语言,Google Gemini 1.5被OpenAI抢头条是真冤

10M上下文,仅靠提示就掌握一门语言,Google Gemini 1.5被OpenAI抢头条是真冤

10M上下文,仅靠提示就掌握一门语言,Google Gemini 1.5被OpenAI抢头条是真冤

这两天,几乎整个AI圈的目光都被OpenAI发布Sora模型的新闻吸引了去。其实还有件事也值得关注,那就是Google继上周官宣Gemini 1.0 Ultra 后,火速推出下一代人工智能模型Gemini 1.5。

来自主题: AI资讯
8225 点击    2024-02-18 12:04
MoE与Mamba强强联合,将状态空间模型扩展到数百亿参数

MoE与Mamba强强联合,将状态空间模型扩展到数百亿参数

MoE与Mamba强强联合,将状态空间模型扩展到数百亿参数

状态空间模型(SSM)是近来一种备受关注的 Transformer 替代技术,其优势是能在长上下文任务上实现线性时间的推理、并行化训练和强大的性能。而基于选择性 SSM 和硬件感知型设计的 Mamba 更是表现出色,成为了基于注意力的 Transformer 架构的一大有力替代架构。

来自主题: AI技术研报
10261 点击    2024-01-23 15:09