AI资讯新闻榜单内容搜索-AR

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
搜索: AR
多轮Agent训练遇到级联失效?熵控制强化学习来破局

多轮Agent训练遇到级联失效?熵控制强化学习来破局

多轮Agent训练遇到级联失效?熵控制强化学习来破局

在训练多轮 LLM Agent 时(如需要 30 + 步交互才能完成单个任务的场景),研究者遇到了一个严重的训练不稳定问题:标准的强化学习方法(PPO/GRPO)在稀疏奖励环境下表现出剧烈的熵值震荡,导致训练曲线几乎不收敛。

来自主题: AI技术研报
6096 点击    2025-10-19 12:06
刚刚,一家具身智能明星公司原地解散了

刚刚,一家具身智能明星公司原地解散了

刚刚,一家具身智能明星公司原地解散了

就在今天,“一家明星具身智能公司原地解散”的传闻在圈内迅速传开,而且因为公司成立时间很短,甚至都不涉及员工赔偿。就在一个多月前,这家公司还高调公开了新融资,以及AI技术大牛加盟作为联合创始人及CTO。

来自主题: AI资讯
8026 点击    2025-10-17 10:46
当Search Agent遇上不靠谱搜索结果,清华团队祭出自动化红队框架SafeSearch

当Search Agent遇上不靠谱搜索结果,清华团队祭出自动化红队框架SafeSearch

当Search Agent遇上不靠谱搜索结果,清华团队祭出自动化红队框架SafeSearch

在 AI 发展的新阶段,大模型不再局限于静态知识,而是可以通过「Search Agent」的形式实时连接互联网。搜索工具让模型突破了训练时间的限制,但它们返回的并非总是高质量的资料:一个低质量网页、一条虚假消息,甚至是暗藏诱导的提示,都可能在用户毫无察觉的情况下被模型「采纳」,进而生成带有风险的回答。

来自主题: AI技术研报
7222 点击    2025-10-17 09:33
NTU等联合提出A-MemGuard:为AI记忆上锁,投毒攻击成功率暴降95%

NTU等联合提出A-MemGuard:为AI记忆上锁,投毒攻击成功率暴降95%

NTU等联合提出A-MemGuard:为AI记忆上锁,投毒攻击成功率暴降95%

在AI智能体日益依赖记忆系统的时代,一种新型攻击悄然兴起:记忆投毒。A-MemGuard作为首个专为LLM Agent记忆模块设计的防御框架,通过共识验证和双重记忆结构,巧妙化解上下文依赖与自我强化错误循环的难题,让AI从被动受害者转为主动守护者,成功率高达95%以上。

来自主题: AI技术研报
6956 点击    2025-10-16 14:51
不再靠「猜坐标」!颜水成团队等联合发布PaDT多模态大模型:实现真正的多模态表征输出

不再靠「猜坐标」!颜水成团队等联合发布PaDT多模态大模型:实现真正的多模态表征输出

不再靠「猜坐标」!颜水成团队等联合发布PaDT多模态大模型:实现真正的多模态表征输出

近年来,多模态大语言模型(Multimodal Large Language Models, MLLMs)在图文理解、视觉问答等任务上取得了令人瞩目的进展。然而,当面对需要精细空间感知的任务 —— 比如目标检测、实例分割或指代表达理解时,现有模型却常常「力不从心」。

来自主题: AI技术研报
9160 点击    2025-10-16 12:31
一个模型装下整个物种树!伯克利GPN-Star斩获基因预测双料冠军

一个模型装下整个物种树!伯克利GPN-Star斩获基因预测双料冠军

一个模型装下整个物种树!伯克利GPN-Star斩获基因预测双料冠军

加州大学伯克利分校等机构的研究人员,近日推出了一种全新的基因组语言模型GPN-Star,可以将全基因组比对和物种树信息装进大模型,在人类基因变异预测方面达到了当前最先进的水平。

来自主题: AI技术研报
9389 点击    2025-10-16 12:19
Anthropic CEO再预警:未来5年砍掉一半入门岗,失业率10–20%

Anthropic CEO再预警:未来5年砍掉一半入门岗,失业率10–20%

Anthropic CEO再预警:未来5年砍掉一半入门岗,失业率10–20%

数据显示,仅2025年开年以来,美国已有超过一万个岗位因为引入AI而被裁撤。Anthropic CEO Dario Amodei认为AI技术的扩散对就业和社会的冲击,已经到了必须向全世界预警的地步。

来自主题: AI资讯
7224 点击    2025-10-15 14:06
Qwen3 变身扩散语言模型?不从零训练也能跑,30B参数创纪录

Qwen3 变身扩散语言模型?不从零训练也能跑,30B参数创纪录

Qwen3 变身扩散语言模型?不从零训练也能跑,30B参数创纪录

扩散语言模型(Diffusion Language Models,DLM)一直以来都令研究者颇感兴趣,因为与必须按从左到右顺序生成的自回归模型(Autoregressive, AR)不同,DLM 能实现并行生成,这在理论上可以实现更快的生成速度,也能让模型基于前后文更好地理解生成语境。

来自主题: AI技术研报
6186 点击    2025-10-15 14:00