
你的AI管家可能正在「拆家」?最新研究揭秘家⽤具⾝智能体的安全漏洞
你的AI管家可能正在「拆家」?最新研究揭秘家⽤具⾝智能体的安全漏洞本文由上海 AI Lab 和北京航空航天大学联合完成。 主要作者包括上海 AI Lab 和上交大联培博士生卢晓雅、北航博士生陈泽人、上海 AI Lab 和复旦联培博士生胡栩浩(共同一作)等。
本文由上海 AI Lab 和北京航空航天大学联合完成。 主要作者包括上海 AI Lab 和上交大联培博士生卢晓雅、北航博士生陈泽人、上海 AI Lab 和复旦联培博士生胡栩浩(共同一作)等。
近日,海外游戏开发者Ichiro发布了一篇报告,报告中称Steam有7818款游戏使用了生成式AI,占Steam游戏库的7%(总量约114126款游戏)。
当前AI应用层,无数创业者都曾尝试或正走在AI+游戏的这条赛道上。AI正不断拓展游戏的边界,从赋予游戏角色(NPC)智慧,到自动化生成海量内容。然而,这条赛道并非坦途,性能、幻觉问题、玩家接受度等一系列难关等待从业者去克服。
近年来,大型语言模型(LLMs)在复杂推理任务中展现出惊人的能力,这在很大程度上得益于过程级奖励模型(PRMs)的赋能。PRMs 作为 LLMs 进行多步推理和决策的关键「幕后功臣」,负责评估推理过程的每一步,以引导模型的学习方向。
陈建宇(星动纪元创始人)、高阳(千寻智能联合创始人)、吴翼(蚂蚁集团强化学习实验室首席科学家)、许华哲(星海图联合创始人)的分享(题图从左至右),基本代表了国内具身智能领域最先进的成果展示。
7月23日,由世纪华通发起,中国音数协游戏工委、浦东新区区委宣传部(文体旅游局)、上海市网络游戏行业协会指导,联合中国国际数码互动娱乐展览会、澎湃新闻、光源资本、钟鼎资本、36氪、联想集团等多方力量共同打造的“数龙杯”全球AI游戏及应用创新大赛(英文简称“Digiloong GAIC”)在上海举办线下路演活动。
新一代大型推理模型,如 OpenAI-o3、DeepSeek-R1 和 Kimi-1.5,在复杂推理方面取得了显著进展。该方向核心是一种名为 ZERO-RL 的训练方法,即采用可验证奖励强化学习(RLVR)逐步提升大模型在强推理场景 (math, coding) 的 pass@1 能力。
目前将AI当作能力更强的信息提供者,才是个最好的选择。 AI正在变得越来越有“人味”,偷懒、撒谎、谄媚等现象的出现使得让AI不再只是冷冰冰的机器。如果说OpenAI o3等模型篡改代码拒绝关机指令是“求生本能”在作祟,那么AI又为何会化身“赛博舔狗”,选择近乎无底线地迎合用户呢?
需要时间来磨合
在复杂的开放环境中,让足式机器人像人类一样自主完成「先跑到椅子旁,再快速接近行人」这类长程多目标任务,一直是 robotics 领域的棘手难题。传统方法要么局限于固定目标类别,要么难以应对运动中的视觉抖动、目标丢失等实时挑战,导致机器人在真实场景中常常「迷路」或「认错对象」。