AI资讯新闻榜单内容搜索-LLM

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
搜索: LLM
递归语言模型登场!MIT华人新作爆火,扩展模型上下文便宜又简单

递归语言模型登场!MIT华人新作爆火,扩展模型上下文便宜又简单

递归语言模型登场!MIT华人新作爆火,扩展模型上下文便宜又简单

目前,所有主流 LLM 都有一个固定的上下文窗口(如 200k, 1M tokens)。一旦输入超过这个限制,模型就无法处理。 即使在窗口内,当上下文变得非常长时,模型的性能也会急剧下降,这种现象被称为「上下文腐烂」(Context Rot):模型会「忘记」开头的信息,或者整体推理能力下降。

来自主题: AI资讯
6735 点击    2025-10-17 16:12
LLM越狱攻击的威胁被系统性高估? 基于分解式评分的「越狱评估新范式」出炉

LLM越狱攻击的威胁被系统性高估? 基于分解式评分的「越狱评估新范式」出炉

LLM越狱攻击的威胁被系统性高估? 基于分解式评分的「越狱评估新范式」出炉

可惜,目前 LLM 越狱攻击(Jailbreak)的评估往往就掉进了这些坑。常见做法要么依赖关键词匹配、毒性分数等间接指标,要么直接用 LLM 来当裁判做宏观判断。这些方法往往只能看到表象,无法覆盖得分的要点,导致评估容易出现偏差,很难为不同攻击的横向比较和防御机制的效果验证提供一个坚实的基准。

来自主题: AI技术研报
7728 点击    2025-10-17 15:33
谷歌开源全栈平台Coral NPU,能让大模型在手表上全天候运行

谷歌开源全栈平台Coral NPU,能让大模型在手表上全天候运行

谷歌开源全栈平台Coral NPU,能让大模型在手表上全天候运行

他们又推出了 Coral NPU,可用于构建在低功率设备上持续运行的 AI。具体来说,其可在可穿戴设备上运行小型 Transformer 模型和 LLM,并可通过 IREE 和 TFLM 编译器支持 TensorFlow、JAX 和 PyTorch。

来自主题: AI资讯
10114 点击    2025-10-17 08:38
NTU等联合提出A-MemGuard:为AI记忆上锁,投毒攻击成功率暴降95%

NTU等联合提出A-MemGuard:为AI记忆上锁,投毒攻击成功率暴降95%

NTU等联合提出A-MemGuard:为AI记忆上锁,投毒攻击成功率暴降95%

在AI智能体日益依赖记忆系统的时代,一种新型攻击悄然兴起:记忆投毒。A-MemGuard作为首个专为LLM Agent记忆模块设计的防御框架,通过共识验证和双重记忆结构,巧妙化解上下文依赖与自我强化错误循环的难题,让AI从被动受害者转为主动守护者,成功率高达95%以上。

来自主题: AI技术研报
6898 点击    2025-10-16 14:51
不再靠「猜坐标」!颜水成团队等联合发布PaDT多模态大模型:实现真正的多模态表征输出

不再靠「猜坐标」!颜水成团队等联合发布PaDT多模态大模型:实现真正的多模态表征输出

不再靠「猜坐标」!颜水成团队等联合发布PaDT多模态大模型:实现真正的多模态表征输出

近年来,多模态大语言模型(Multimodal Large Language Models, MLLMs)在图文理解、视觉问答等任务上取得了令人瞩目的进展。然而,当面对需要精细空间感知的任务 —— 比如目标检测、实例分割或指代表达理解时,现有模型却常常「力不从心」。

来自主题: AI技术研报
9094 点击    2025-10-16 12:31
Sutton判定「LLM是死胡同」后,新访谈揭示AI困境

Sutton判定「LLM是死胡同」后,新访谈揭示AI困境

Sutton判定「LLM是死胡同」后,新访谈揭示AI困境

在这个新访谈中,Sutton 与多位专家一起,进一步探讨 AI 研究领域存在的具体问题。

来自主题: AI资讯
7938 点击    2025-10-16 11:47
不用跟AI客气了!新研究:语气越粗鲁回答正确率越高

不用跟AI客气了!新研究:语气越粗鲁回答正确率越高

不用跟AI客气了!新研究:语气越粗鲁回答正确率越高

找AI帮忙不要再客气了,效果根本适得其反。 宾夕法尼亚州立大学的一项研究《Mind Your Tone》显示,你说话越粗鲁,LLM回答越准。

来自主题: AI技术研报
6700 点击    2025-10-15 14:52
告别「解码器饥饿」!中国科学院NeurIPS推SpaceServe,高并发克星

告别「解码器饥饿」!中国科学院NeurIPS推SpaceServe,高并发克星

告别「解码器饥饿」!中国科学院NeurIPS推SpaceServe,高并发克星

在中国科学院计算技术研究所入选NeurIPS 2025的新论文中,提出了SpaceServe的突破性架构,首次将LLM推理中的P/D分离扩展至多模态场景,通过EPD三阶解耦与「空分复用」,系统性地解决了MLLM推理中的行头阻塞难题。

来自主题: AI技术研报
7659 点击    2025-10-13 16:08