AI资讯新闻榜单内容搜索-压缩

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
搜索: 压缩
「压缩,就是你所需要的全部」!菲尔兹奖得主Michael Freedman新作揭开数学真相

「压缩,就是你所需要的全部」!菲尔兹奖得主Michael Freedman新作揭开数学真相

「压缩,就是你所需要的全部」!菲尔兹奖得主Michael Freedman新作揭开数学真相

当谈及数学时,我们近乎本能地认为,数学是一个严谨、精确、不容置疑的完美逻辑体系,但在菲尔兹奖得主迈克尔・弗里德曼(Michael Freedman)眼中,人类真正创造和关心的数学,本质上是「柔软且可塑」的。

来自主题: AI资讯
9380 点击    2026-04-21 09:36
ICLR 2026|隐式思考模型LRT:「隐式思维链」推理,更快更强!

ICLR 2026|隐式思考模型LRT:「隐式思维链」推理,更快更强!

ICLR 2026|隐式思考模型LRT:「隐式思维链」推理,更快更强!

近日,哈尔滨工业大学(深圳)联合深圳河套学院、Independent Researcher提出了隐式思考模型 LRT(Latent Reasoning Tuning),通过一个轻量级的推理网络,将大模型冗长的「思维链」压缩为紧凑的隐式向量表征,一次前向计算即可完成推理,无需逐 token 生成数千字的中间推理过程。

来自主题: AI技术研报
9533 点击    2026-04-13 09:35
重磅!Anthropic又一个平台级产品炸场:Harness难题一次性解决,把Agent宠物变成牲口

重磅!Anthropic又一个平台级产品炸场:Harness难题一次性解决,把Agent宠物变成牲口

重磅!Anthropic又一个平台级产品炸场:Harness难题一次性解决,把Agent宠物变成牲口

Anthropic推出平台级产品:Claude Managed Agents,开发周期从数月压缩到几天,To B业务更进一步,这是直接给了一个Harness Agent的盒子,用户只管干活就行了,随着产品发布,A厂还发布了一篇Harness(Managed Agents)工程细节文章,感觉A厂就差说在座的都是xx了,再一次遥遥领先!我们一文来说清楚

来自主题: AI资讯
8140 点击    2026-04-09 11:22
ICLR 2026 Oral | 大道至简!斯坦福、英伟达、新国立联合推出InfoTok,用信息论重新定义高效视频分词

ICLR 2026 Oral | 大道至简!斯坦福、英伟达、新国立联合推出InfoTok,用信息论重新定义高效视频分词

ICLR 2026 Oral | 大道至简!斯坦福、英伟达、新国立联合推出InfoTok,用信息论重新定义高效视频分词

在生成式 AI 领域,视觉分词器(Visual Tokenizer)通常采用固定压缩率 —— 无论是单调的监控画面,还是复杂的动作大片,都被切分为等量的 Token。这种 "一刀切" 的做法不仅会造成巨大的计算冗余,也产生了 “信息量” 不同的 Token,不利于下游理解生成任务处理。

来自主题: AI技术研报
5575 点击    2026-03-31 10:03
刚引发存储股暴跌就塌房?Google 刷屏 AI 论文遭指控学术不端

刚引发存储股暴跌就塌房?Google 刷屏 AI 论文遭指控学术不端

刚引发存储股暴跌就塌房?Google 刷屏 AI 论文遭指控学术不端

前几天,Google Research 在 X 平台正式发布了名为 TurboQuant 的 AI 压缩算法,24 小时内浏览量破千万。但就在刚刚,苏黎世联邦理工学院博士后高健扬在知乎发出一封公开澄清信。他是论文里被比较算法 RaBitQ 的第一作者,指出 TurboQuant 存在三处严重问题:

来自主题: AI资讯
7684 点击    2026-03-28 22:15
一篇论文引发存储芯片股暴跌,Google 的「DeepSeek 时刻」来了?

一篇论文引发存储芯片股暴跌,Google 的「DeepSeek 时刻」来了?

一篇论文引发存储芯片股暴跌,Google 的「DeepSeek 时刻」来了?

看过 HBO 神剧《硅谷》(Silicon Valley)的朋友,想必都对那个名为 Pied Piper(魔笛手)的虚构公司念念不忘。

来自主题: AI资讯
9711 点击    2026-03-26 15:23
谷歌一篇论文引爆存储芯片崩盘!AI内存需求暴降6倍,推理狂飙8倍

谷歌一篇论文引爆存储芯片崩盘!AI内存需求暴降6倍,推理狂飙8倍

谷歌一篇论文引爆存储芯片崩盘!AI内存需求暴降6倍,推理狂飙8倍

谷歌一篇论文,直接让存储巨头们「集体失眠」,一夜市值蒸发几百亿!最新博客官宣TurboQuant算法,直接将缓存压到3-bit,内存占用只有1/6。

来自主题: AI资讯
8579 点击    2026-03-26 12:01
对抗KV Cache压缩的脆弱性:两行代码以最坏风险控制防御底层假设崩塌

对抗KV Cache压缩的脆弱性:两行代码以最坏风险控制防御底层假设崩塌

对抗KV Cache压缩的脆弱性:两行代码以最坏风险控制防御底层假设崩塌

随着大模型长上下文能力快速增长,海量 KV Cache 存储需求急剧增加,各类 KV Cache 压缩方法如雨后春笋般涌现。然而,这些方案在真实场景中的工程落地却常常陷入困境。

来自主题: AI技术研报
9022 点击    2026-03-25 13:41
MiniMax 定理:压缩即智能

MiniMax 定理:压缩即智能

MiniMax 定理:压缩即智能

我们在很多地方都看到了一个词,叫「压缩即智能」

来自主题: AI技术研报
7003 点击    2026-03-24 16:30