AI资讯新闻榜单内容搜索-上下文

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
搜索: 上下文
让钉钉A1成为了我的记忆外挂,充分实行了我的上下文工程

让钉钉A1成为了我的记忆外挂,充分实行了我的上下文工程

让钉钉A1成为了我的记忆外挂,充分实行了我的上下文工程

家人们, 大概是从去年下半年上下文工程这个概念火了之后,我开始有意识的进行一些碎片化的记录。

来自主题: AI资讯
6027 点击    2026-01-14 10:04
看完 Manus、Cursor 分享后的最大收获:避免 Context 的过度工程化才是关键

看完 Manus、Cursor 分享后的最大收获:避免 Context 的过度工程化才是关键

看完 Manus、Cursor 分享后的最大收获:避免 Context 的过度工程化才是关键

最近,Cursor 也发表了一篇文章《Dynamic context discovery》,分享了他们是怎么做上下文管理的。结合 Manus、Cursor 这两家 Agent 领域头部团队的思路,我们整理了如何做好上下文工程的一些关键要点。

来自主题: AI资讯
8599 点击    2026-01-10 10:48
Transformer已死?DeepMind正在押注另一条AGI路线

Transformer已死?DeepMind正在押注另一条AGI路线

Transformer已死?DeepMind正在押注另一条AGI路线

借鉴人类联想记忆,嵌套学习让AI在运行中构建抽象结构,超越Transformer的局限。谷歌团队强调:优化器与架构互为上下文,协同进化才能实现真正持续学习。这篇论文或成经典,开启AI从被动训练到主动进化的大门。

来自主题: AI技术研报
10036 点击    2026-01-09 11:24
检索做大,生成做轻:CMU团队系统评测RAG的语料与模型权衡

检索做大,生成做轻:CMU团队系统评测RAG的语料与模型权衡

检索做大,生成做轻:CMU团队系统评测RAG的语料与模型权衡

在检索增强生成中,扩大生成模型规模往往能提升准确率,但也会显著抬高推理成本与部署门槛。CMU 团队在固定提示模板、上下文组织方式与证据预算,并保持检索与解码设置不变的前提下,系统比较了生成模型规模与检索语料规模的联合效应,发现扩充检索语料能够稳定增强 RAG,并在多项开放域问答基准上让小中型模型在更大语料下达到甚至超过更大模型在较小语料下的表现,同时在更高语料规模处呈现清晰的边际收益递减。

来自主题: AI技术研报
8061 点击    2026-01-06 09:30
MIT发现让AI变聪明的秘密,竟然和人类一模一样

MIT发现让AI变聪明的秘密,竟然和人类一模一样

MIT发现让AI变聪明的秘密,竟然和人类一模一样

你有没有发现,你让AI读一篇长文章,结果它读着读着就忘了前面的内容? 你让它处理一份超长的文档,结果它给出来的答案,牛头不对马嘴? 这个现象,学术界有个专门的名词,叫做上下文腐化。 这也是目前AI的通病:大模型的记忆力太差了,文章越长,模型越傻!

来自主题: AI技术研报
9499 点击    2026-01-04 16:53
MIT团队推出递归语言模型!不改架构、不扩窗口,上下文处理能力扩展百倍

MIT团队推出递归语言模型!不改架构、不扩窗口,上下文处理能力扩展百倍

MIT团队推出递归语言模型!不改架构、不扩窗口,上下文处理能力扩展百倍

新年伊始,MIT CSAIL 的一纸论文在学术圈引发了不小的讨论。Alex L. Zhang 、 Tim Kraska 与 Omar Khattab 三位研究者在 arXiv 上发布了一篇题为《Recursive Language Models》的论文,提出了所谓“递归语言模型”(Recursive Language Models,简称 RLM)的推理策略。

来自主题: AI技术研报
6829 点击    2026-01-04 14:51
Anthropic打响「去CUDA」第一枪!210亿美元豪购谷歌100万块TPU

Anthropic打响「去CUDA」第一枪!210亿美元豪购谷歌100万块TPU

Anthropic打响「去CUDA」第一枪!210亿美元豪购谷歌100万块TPU

2026年开局,Anthropic未发一弹已占先机!谷歌首席工程师Jaana Dogan连发多帖,高度赞扬Claude Opus 4.5——没有图像/音频模型、巨大的上下文,仅有一款专注编码的Claude,Anthropic依旧是OpenAI谷歌最有力竞争者。

来自主题: AI资讯
9250 点击    2026-01-04 12:46
继2025推理模型之后,2026「递归模型」RLM要火了。

继2025推理模型之后,2026「递归模型」RLM要火了。

继2025推理模型之后,2026「递归模型」RLM要火了。

2025年的最后一天, MIT CSAIL提交了一份具有分量的工作。当整个业界都在疯狂卷模型上下文窗口(Context Window),试图将窗口拉长到100万甚至1000万token时,这篇论文却冷静地指出了一个被忽视的真相:这就好比试图通过背诵整本百科全书来回答一个复杂问题,既昂贵又低效。

来自主题: AI技术研报
6344 点击    2026-01-04 11:43