AI资讯新闻榜单内容搜索-上下文

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
搜索: 上下文
从少样本到千样本!MachineLearningLM给大模型上下文学习装上「机器学习引擎」

从少样本到千样本!MachineLearningLM给大模型上下文学习装上「机器学习引擎」

从少样本到千样本!MachineLearningLM给大模型上下文学习装上「机器学习引擎」

这项名为 MachineLearningLM 的新研究突破了这一瓶颈。该研究提出了一种轻量且可移植的「继续预训练」框架,无需下游微调即可直接通过上下文学习上千条示例,在金融、健康、生物信息、物理等等多个领域的二分类 / 多分类任务中的准确率显著超越基准模型(Qwen-2.5-7B-Instruct)以及最新发布的 GPT-5-mini。

来自主题: AI技术研报
6799 点击    2025-09-17 09:30
Z Product|获红杉和老虎基金支持,Everworker正在成为永远在线的AI劳动力

Z Product|获红杉和老虎基金支持,Everworker正在成为永远在线的AI劳动力

Z Product|获红杉和老虎基金支持,Everworker正在成为永远在线的AI劳动力

EverWorker的主打产品Everflow是一款致力于优化全球用工管理的数字化平台。该平台搭载先进的上下文学习与矢量记忆系统,可吸收 PDF、截图、链接、聊天记录等内容,理解你的业务流程、语言习惯与组织文化。AI Worker能在执行任务前全面理解背景,确保每一次回应都高度贴合业务需求,就像你团队中的一员。

来自主题: AI资讯
7302 点击    2025-09-15 08:35
刚刚,英伟达祭出下一代GPU!狂飙百万token巨兽,投1亿爆赚50亿

刚刚,英伟达祭出下一代GPU!狂飙百万token巨兽,投1亿爆赚50亿

刚刚,英伟达祭出下一代GPU!狂飙百万token巨兽,投1亿爆赚50亿

昨天,英伟达重磅发布了专为海量上下文AI打造的CUDA GPU——Rubin CPX,将大模型一次性推理带入「百万Token时代」。NVIDIA创始人兼CEO黄仁勋表示,Vera Rubin平台将再次推动AI计算的前沿,不仅带来下一代Rubin GPU,也将开创一个CPX的全新处理器类别。

来自主题: AI资讯
5943 点击    2025-09-11 12:31
英伟达新GPU,超长上下文/视频生成专用

英伟达新GPU,超长上下文/视频生成专用

英伟达新GPU,超长上下文/视频生成专用

老黄对token密集型任务下手了。

来自主题: AI资讯
7880 点击    2025-09-10 12:19
Claude封锁中国,腾讯带着国产AI编程工具CodeBuddy来了

Claude封锁中国,腾讯带着国产AI编程工具CodeBuddy来了

Claude封锁中国,腾讯带着国产AI编程工具CodeBuddy来了

AI 编程工具的竞争已经进入深水区:不仅各家产品在补全速度、上下文感知、智能体协作上不断拉锯,在背后的模型层面,博弈同样激烈,甚至出现了全球范围的“准入门槛”和“封锁线”。这意味着工具之争早已不是单纯的产品对比,而是与模型生态、合规和市场战略深度绑定。

来自主题: AI资讯
6110 点击    2025-09-09 18:10
3.5亿参数模型媲美ChatGPT-4o?Liquid AI发布的日英翻译模型给出答案

3.5亿参数模型媲美ChatGPT-4o?Liquid AI发布的日英翻译模型给出答案

3.5亿参数模型媲美ChatGPT-4o?Liquid AI发布的日英翻译模型给出答案

在大模型的竞赛中,参数规模往往被视为性能的决定性因素。但近期,Liquid AI 的研究团队提出了一个不同寻常的案例:一个仅有 3.5 亿参数的模型,经过微调后,竟能在中短上下文的实时日语英语翻译任务上,与 GPT-4o 竞争。

来自主题: AI资讯
5133 点击    2025-09-09 12:19
全流程国产GPU,上下文提速100倍!中国科学院发布「线性复杂度」类脑大模型

全流程国产GPU,上下文提速100倍!中国科学院发布「线性复杂度」类脑大模型

全流程国产GPU,上下文提速100倍!中国科学院发布「线性复杂度」类脑大模型

SpikingBrain借鉴大脑信息处理机制,具有线性/近线性复杂度,在超长序列上具有显著速度优势,在GPU上1M长度下TTFT 速度相比主流大模型提升26.5x, 4M长度下保守估计速度提升超过100x;

来自主题: AI技术研报
5210 点击    2025-09-09 10:25
长视频生成可以回头看了!牛津提出「记忆增稳」,速度提升12倍

长视频生成可以回头看了!牛津提出「记忆增稳」,速度提升12倍

长视频生成可以回头看了!牛津提出「记忆增稳」,速度提升12倍

VMem用基于3D几何的记忆索引替代「只看最近几帧」的短窗上下文:检索到的参考视角刚好看过你现在要渲染的表面区域;让模型在小上下文里也能保持长时一致性;实测4.2s/帧,比常规21帧上下文的管线快~12倍。

来自主题: AI技术研报
6606 点击    2025-09-06 11:43