21万年费彭博终端机被AI复刻!Perplexity俩月憋出新“PC”:整合所有AI功能,以Opus为核心调度19个模型
21万年费彭博终端机被AI复刻!Perplexity俩月憋出新“PC”:整合所有AI功能,以Opus为核心调度19个模型Perplexity发推表示,推出新产品Perplexity Computer,一个基于浏览器的、全能型通用数字员工。按照官方的说法,它能推理、委派、搜索、构建、记忆、编码、交付,部署项目、设计文件、研究课题、管理工作流程……
Perplexity发推表示,推出新产品Perplexity Computer,一个基于浏览器的、全能型通用数字员工。按照官方的说法,它能推理、委派、搜索、构建、记忆、编码、交付,部署项目、设计文件、研究课题、管理工作流程……
最近,专注于量化AI主观决策的基准测试工作室Amplifying.ai,针对Claude Code的工具选择倾向开展了一项系统性研究。研究覆盖3款模型、4种项目类型及20个工具类别,累计分析了2430次工具选择行为。
传统AI模型在稀疏奖励环境中,往往会找不到激励难以学会层次化思考。如今,谷歌团队通过引入元控制器操控模型内部残差流,让智能体学会了「跳跃式思考」。该研究揭示了大模型内部可自发形成了类似人脑的层次化决策机制,为AI在需要多步的复杂任务提供了全新的训练范式。
当GRPO让大模型在数学、代码推理上实现质变,研究团队率先给出答案——首个将强化学习系统性引入文本到3D自回归生成的研究正式诞生,并被CVPR 2026接收。该研究不只是简单移植2D经验,而是针对3D生成的独特挑战,从奖励设计、算法选择、评测基准到训练范式,做了一套完整的系统性探索。
入职Meta「超级智能实验室」仅7个月,华人明星研究员庞若明(Ruoming Pang)转投OpenAI。此前,他曾担任苹果AI/ML基础模型团队负责人,却因内部不合,转身离开。为了挖走庞若明,小扎曾为他开出高达2亿美金薪酬包。在此期间,他主要在MSL中,担任AI基础设施负责人。
近期发表于 TMLR 的论文《Large Language Model Reasoning Failures》对这一问题进行了系统性梳理。该研究并未围绕 “模型是否真正理解” 展开哲学层面的争论,而是采取更加务实的路径 —— 通过整理现有文献中的失败现象,构建统一框架,系统分析大语言模型的推理短板。
刚刚,毕业清华大学数学系,曾在Meta FAIR工作3.75年、主导过SAM与Llama多项核心工作的研究员张鹏川(Pengchuan Zhang)宣布离职。他的下一站,是来到OpenAI,投身于世界模拟与机器人学(World Simulation and Robotics)方向的研究。
SSI-Bench是首个在约束流形中评估模型空间推理能力的基准,强调真实结构与约束条件,通过排序任务考察模型是否能准确理解三维结构的几何与拓扑关系,揭示当前大模型在空间智能上严重依赖2D信息,实际表现远低于人类。研究指出,模型需提升三维构型识别和约束推理能力,才能真正理解空间问题。
大模型的思维链越长,推理能力就越强?谷歌Say No——token数量和推理质量,真没啥正相关,因为token和token还不一样,有些纯凑数,深度思考token才真有用。新研究抛弃字数论,甩出衡量模型推理质量的全新标准DTR,专门揪模型是在真思考还是水字数。
SpeechLLM 是否具备像人类一样解释 “为什么” 做出情绪判断的能力?为此,研究团队提出了EmotionThinker—— 首个面向可解释情感推理(Explainable Emotion Reasoning)的强化学习框架,尝试将 SER 从 “分类任务” 提升为 “多模态证据驱动的推理任务”。