AI资讯新闻榜单内容搜索-LLM

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
搜索: LLM
4B模型幻觉抑制能力超越GPT-5,CMU等提出行为校准强化学习新方法

4B模型幻觉抑制能力超越GPT-5,CMU等提出行为校准强化学习新方法

4B模型幻觉抑制能力超越GPT-5,CMU等提出行为校准强化学习新方法

大语言模型(LLM)的幻觉问题一直是阻碍其在关键领域部署的核心难题。近日,研究人员提出了一种名为行为校准强化学习(Behaviorally Calibrated Reinforcement Learning)的新方法,通过重新设计奖励函数,让模型学会「知之为知之,不知为不知」。

来自主题: AI技术研报
8143 点击    2026-03-13 10:10
速递|黑石投资10亿美元后,联手Anthropic组建AI咨询部队,模式效仿Palantir

速递|黑石投资10亿美元后,联手Anthropic组建AI咨询部队,模式效仿Palantir

速递|黑石投资10亿美元后,联手Anthropic组建AI咨询部队,模式效仿Palantir

Anthropic 正在与包括黑石集团和 Hellman & Friedman 在内的私募股权财团进行谈判,计划成立一家专注于人工智能的合资企业,向这些投资公司资助的企业销售 Claude 制造商的技术。这一消息来自一位参与讨论的人士和另一位了解情况的人士。

来自主题: AI资讯
7937 点击    2026-03-13 10:05
物理AI的「原生」时刻:原力灵机发布具身大模型DM0

物理AI的「原生」时刻:原力灵机发布具身大模型DM0

物理AI的「原生」时刻:原力灵机发布具身大模型DM0

当前,大语言模型(LLMs)和视觉语言模型(VLMs)在语义领域的成功未能直接迁移至物理机器人,归根结底在于其互联网原生的基因。

来自主题: AI技术研报
5823 点击    2026-03-11 15:04
从训练到推理的「瘦身」演进:首篇高效扩散语言模型(dLLM)深度综述

从训练到推理的「瘦身」演进:首篇高效扩散语言模型(dLLM)深度综述

从训练到推理的「瘦身」演进:首篇高效扩散语言模型(dLLM)深度综述

在生成式 AI 的浪潮中,自回归(Autoregressive, AR)模型凭借其卓越的性能占据了统治地位。然而,其「从左到右」逐个预测 Token 的串行机制,天生限制了并行生成的可能性。

来自主题: AI技术研报
6284 点击    2026-03-10 14:29
32B逆袭GPT-5.2:首个端到端GPU编程智能体框架StitchCUDA问世

32B逆袭GPT-5.2:首个端到端GPU编程智能体框架StitchCUDA问世

32B逆袭GPT-5.2:首个端到端GPU编程智能体框架StitchCUDA问世

现有的 LLM 自动化 CUDA 方法大多只能优化单个 Kernel,面对完整的端到端 GPU 程序(如整个 VisionTransformer 推理)往往束手无策。

来自主题: AI技术研报
7932 点击    2026-03-05 14:28
推荐系统进入「双动力」时代!首篇LLM-RL协同推荐综述深度解析

推荐系统进入「双动力」时代!首篇LLM-RL协同推荐综述深度解析

推荐系统进入「双动力」时代!首篇LLM-RL协同推荐综述深度解析

强化学习(RL)将推荐系统建模为序列决策过程,支持长期效益和非连续指标的优化,是推荐系统领域的主流建模范式之一。然而,传统 RL 推荐系统受困于状态建模难、动作空间大、奖励设计复杂、反馈稀疏延迟及模拟环境失真等瓶颈。

来自主题: AI技术研报
9316 点击    2026-03-04 11:23
数据邪修大法好:仅用文本数据就能预训练多模态大模型

数据邪修大法好:仅用文本数据就能预训练多模态大模型

数据邪修大法好:仅用文本数据就能预训练多模态大模型

没有图片,也能预训练多模态大模型?在多模态大模型(MLLM)的研发中,行业内长期遵循着一个昂贵的共识:没有图文对(Image-Text Pairs),就没有多模态能力。

来自主题: AI技术研报
8325 点击    2026-03-03 14:25
字节杀疯了!豆包 Seed 2.0 专家模式已上线

字节杀疯了!豆包 Seed 2.0 专家模式已上线

字节杀疯了!豆包 Seed 2.0 专家模式已上线

我天!感觉 Seed 1.8 发布还没多久,没想到 Doubao-Seed-2.0 这么快就杀到了…今天发都算是晚讯了。据官方介绍,这次 Seed 2.0 多模态理解能力全面升级,还强化了 LLM 与 Agent 能力,模型在真实长链路任务中可以稳定推进。

来自主题: AI资讯
9546 点击    2026-03-02 23:22
让搜索Agent不「傻等」:人大团队依托扩散模型实现「一心二用」,边等搜索结果边思考,加速15%性能不减

让搜索Agent不「傻等」:人大团队依托扩散模型实现「一心二用」,边等搜索结果边思考,加速15%性能不减

让搜索Agent不「傻等」:人大团队依托扩散模型实现「一心二用」,边等搜索结果边思考,加速15%性能不减

中国人民大学团队在论文DLLM-Searcher中,第一次让扩散大语言模型(dLLM)学会了这种“一心二用”的本事。目前主流的搜索Agent,不管是Search-R1还是R1Searcher,用的都是ReAct框架。这个框架的执行流程是严格串行的:

来自主题: AI技术研报
7963 点击    2026-03-02 10:00