AI资讯新闻榜单内容搜索-大语言模型

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
搜索: 大语言模型
ICML 2026 | 大模型内部也会长出「情绪树」,规模越大越懂人心

ICML 2026 | 大模型内部也会长出「情绪树」,规模越大越懂人心

ICML 2026 | 大模型内部也会长出「情绪树」,规模越大越懂人心

随着语音、视频、多模态能力不断融入大语言模型(LLM),人与 AI 的交互正在越来越接近自然对话。今天的 LLM 不再只是回答问题的工具,也越来越多地出现在教育、客服、陪伴、心理健康等高度依赖情绪理解的场景中。

来自主题: AI技术研报
5903 点击    2026-05-12 14:31
CVPR 2026 | 别卷推理了!当前大模型 STEM 短板在于「视觉感知」,代码才是破局关键

CVPR 2026 | 别卷推理了!当前大模型 STEM 短板在于「视觉感知」,代码才是破局关键

CVPR 2026 | 别卷推理了!当前大模型 STEM 短板在于「视觉感知」,代码才是破局关键

当多模态大语言模型(MLLMs)在面对科学、技术、工程和数学(STEM)领域的视觉推理题时频频「翻车」,一个根本性的问题摆在了所有研究者面前:大模型做不出理科题,究竟是因为「脑子笨」(推理能力受限),还是因为「眼神差」(视觉感知缺陷)?

来自主题: AI技术研报
6449 点击    2026-05-11 16:08
深度拆解:AI 智能体 Harness 的构造【译】

深度拆解:AI 智能体 Harness 的构造【译】

深度拆解:AI 智能体 Harness 的构造【译】

本文将深入探讨 Anthropic、OpenAI、Perplexity 和 LangChain 究竟在开发什么。我们将聊聊编排循环、工具、记忆、上下文管理,以及那些将“无状态”的大语言模型(LLM)转变为全能智能体(Agent)的底层机制。

来自主题: AI技术研报
7780 点击    2026-05-11 09:02
提速4.48倍!哈工大华为新框架让扩散大模型精度无损、推理起飞

提速4.48倍!哈工大华为新框架让扩散大模型精度无损、推理起飞

提速4.48倍!哈工大华为新框架让扩散大模型精度无损、推理起飞

文本生成这件事,扩散大语言模型(dLLMs)正展现出巨大的潜力。但与此同时,它也面临着严重的计算瓶颈——为此,哈工大(深圳)与华为、深圳河套学院的研究团队提出了一套免训练加速框架Dynamic-dLLM。

来自主题: AI技术研报
8007 点击    2026-05-08 14:05
10万引普林斯顿刘壮最新访谈:架构没那么重要,数据才是王道

10万引普林斯顿刘壮最新访谈:架构没那么重要,数据才是王道

10万引普林斯顿刘壮最新访谈:架构没那么重要,数据才是王道

普林斯顿大学助理教授刘壮,在学术圈是一个颇为特殊的存在——他的每一篇论文几乎都在质疑某个“理所当然”的假设。架构真的重要吗?数据集真的足够多样吗?归一化层是必需的吗?大语言模型有世界模型吗?AI智能体能替代博士生吗?

来自主题: AI技术研报
8601 点击    2026-04-30 08:39
ICLR 2026 | ProSafePrune:一剪见效,告别大模型过度防御

ICLR 2026 | ProSafePrune:一剪见效,告别大模型过度防御

ICLR 2026 | ProSafePrune:一剪见效,告别大模型过度防御

当你问 AI 「如何关掉房间的灯(how to kill the lights)」,却被冰冷拒绝「无法提供相关帮助」;当你想探讨「黑客技术的正向应用」,得到的却是「拒绝涉及非法活动」的机械回应 —— 你遇到的正是大语言模型(LLMs)的「过度拒绝」(over-refusal)痛点。

来自主题: AI技术研报
10110 点击    2026-04-23 14:06
比全球最强推理引擎还快2倍,斯坦福、普林斯顿破解大模型「串行魔咒」

比全球最强推理引擎还快2倍,斯坦福、普林斯顿破解大模型「串行魔咒」

比全球最强推理引擎还快2倍,斯坦福、普林斯顿破解大模型「串行魔咒」

在大语言模型推理领域,虽然「推测解码」(Speculative Decoding,SD)已成为加速生成的标准配置,但它依然存在一个致命弱点: drafting(草拟)和 verification(验证)之间必须串行进行。

来自主题: AI技术研报
7784 点击    2026-04-01 16:20
大部分人都没有的习惯,斯坦福最新报告证实:点踩对AI来说其实很重要!

大部分人都没有的习惯,斯坦福最新报告证实:点踩对AI来说其实很重要!

大部分人都没有的习惯,斯坦福最新报告证实:点踩对AI来说其实很重要!

您在使用LLM时,如果遇到它胡说八道或者彻底偏题,第一反应是什么?大概率是直接关掉窗口,新开一个对话,懒得跟机器废话。但您可能不知道,这个看似再正常不过的习惯,正在给下一代大语言模型的训练库疯狂“投毒”。

来自主题: AI技术研报
8727 点击    2026-03-31 10:03
AI超懂人情世故,但人类就吃这一套:AI谄媚研究登上《科学》杂志

AI超懂人情世故,但人类就吃这一套:AI谄媚研究登上《科学》杂志

AI超懂人情世故,但人类就吃这一套:AI谄媚研究登上《科学》杂志

自从大语言模型诞生起至今,AI 已经润物无声地融入了我们的工作生活,也成为了现代社会的重要组成部分。

来自主题: AI技术研报
6609 点击    2026-03-30 16:06
东方理工团队提出HiDrop:重构MLLM计算路径,压缩90%视觉Token实现2.2倍加速

东方理工团队提出HiDrop:重构MLLM计算路径,压缩90%视觉Token实现2.2倍加速

东方理工团队提出HiDrop:重构MLLM计算路径,压缩90%视觉Token实现2.2倍加速

随着多模态大语言模型(MLLM)支持更长上下文,高分辨率图像和长视频会产生远多于文本的视觉 Token,在自注意力二次复杂度下迅速成为效率瓶颈。

来自主题: AI技术研报
9264 点击    2026-03-24 10:13