AI资讯新闻榜单内容搜索-上下文

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
搜索: 上下文
英伟达提出全新Star Attention,10倍加速LLM推理!登顶Hugging Face论文榜

英伟达提出全新Star Attention,10倍加速LLM推理!登顶Hugging Face论文榜

英伟达提出全新Star Attention,10倍加速LLM推理!登顶Hugging Face论文榜

大模型如今已具有越来越长的上下文,而与之相伴的是推理成本的上升。英伟达最新提出的Star Attention,能够在不损失精度的同时,显著减少推理计算量,从而助力边缘计算。

来自主题: AI技术研报
6706 点击    2024-12-05 11:27
Fixie AI 推出 Ultravox v0.4.1:专门用于与 LLM 进行实时对话以及 GPT-4o 实时的替代方案

Fixie AI 推出 Ultravox v0.4.1:专门用于与 LLM 进行实时对话以及 GPT-4o 实时的替代方案

Fixie AI 推出 Ultravox v0.4.1:专门用于与 LLM 进行实时对话以及 GPT-4o 实时的替代方案

在人工智能领域,与AI进行无缝的实时交互一直是开发者和研究者面临的一大挑战。特别是将文本、图片、音频等多模态信息整合成一个连贯的对话系统,更是难上加难。尽管像GPT-4这样的语言模型在对话流畅性和上下文理解上取得了长足进步,但在实际应用中,这些模型仍然存在不足之处:

来自主题: AI技术研报
8639 点击    2024-11-28 09:53
陈天奇团队LLM结构化生成新引擎XGrammar:百倍加速、近零开销

陈天奇团队LLM结构化生成新引擎XGrammar:百倍加速、近零开销

陈天奇团队LLM结构化生成新引擎XGrammar:百倍加速、近零开销

不管是编写和调试代码,还是通过函数调用来使用外部工具,又或是控制机器人,都免不了需要 LLM 生成结构化数据,也就是遵循某个特定格式(如 JSON、SQL 等)的数据。 但使用上下文无关语法(CFG)来进行约束解码的方法并不高效。针对这个困难,陈天奇团队提出了一种新的解决方案:XGrammar。

来自主题: AI资讯
7074 点击    2024-11-26 14:18
炸裂!Anthropic 重磅开源「模型上下文协议」MCP,LLM 应用要变天, AGI真的近了

炸裂!Anthropic 重磅开源「模型上下文协议」MCP,LLM 应用要变天, AGI真的近了

炸裂!Anthropic 重磅开源「模型上下文协议」MCP,LLM 应用要变天, AGI真的近了

各位大佬,激动人心的时刻到啦!Anthropic 开源了一个革命性的新协议——MCP(模型上下文协议),有望彻底解决 LLM 应用连接数据难的痛点!它的目标是让前沿模型生成更好、更相关的响应。以后再也不用为每个数据源写定制的集成代码了,MCP 一个协议全搞定!

来自主题: AI技术研报
9720 点击    2024-11-26 11:06
国产地表最强视频模型震惊歪果仁,官方现场摇人30s直出!视觉模型进入上下文时代

国产地表最强视频模型震惊歪果仁,官方现场摇人30s直出!视觉模型进入上下文时代

国产地表最强视频模型震惊歪果仁,官方现场摇人30s直出!视觉模型进入上下文时代

全球首个支持多主体一致性的多模态模型,刚刚诞生!Vidu 1.5一上线,全网网友都震惊了:LLM独有的上下文学习优势,视觉模型居然也有了。

来自主题: AI资讯
6274 点击    2024-11-14 14:36
清华厦大等提出“无限长上下文”技术,100万大海捞针全绿,Llama\Qwen\MiniCPM都能上分

清华厦大等提出“无限长上下文”技术,100万大海捞针全绿,Llama\Qwen\MiniCPM都能上分

清华厦大等提出“无限长上下文”技术,100万大海捞针全绿,Llama\Qwen\MiniCPM都能上分

大模型的记忆限制被打破了,变相实现“无限长”上下文。最新成果,来自清华、厦大等联合提出的LLMxMapReduce长本文分帧处理技术。

来自主题: AI技术研报
3897 点击    2024-11-09 15:38
RAG 系统的分块难题:小型语言模型如何找到最佳断点?

RAG 系统的分块难题:小型语言模型如何找到最佳断点?

RAG 系统的分块难题:小型语言模型如何找到最佳断点?

之前我们聊过 RAG 里文档分块 (Chunking) 的挑战,也介绍了 迟分 (Late Chunking) 的概念,它可以在向量化的时候减少上下文信息的丢失。今天,我们来聊聊另一个难题:如何找到最佳的分块断点。

来自主题: AI技术研报
5456 点击    2024-11-05 16:36
你真的会用ICL吗?把ICL和IWL双重学习同时写进提示词试试 | DeepMind

你真的会用ICL吗?把ICL和IWL双重学习同时写进提示词试试 | DeepMind

你真的会用ICL吗?把ICL和IWL双重学习同时写进提示词试试 | DeepMind

大家对in-context learning(ICL)的能力可能已经很熟悉了,您通常会通过上下文示例就能快速让prompt适应新任务。然而,作为AI应用开发者,您是否思考过:为什么有时候精心设计的few-shot prompt会失效?为什么相同的prompt模式在不同场景下效果差异巨大?

来自主题: AI技术研报
5444 点击    2024-11-05 09:17