谷歌黑魔法,没人能看懂的Gemini 3 Flash

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
谷歌黑魔法,没人能看懂的Gemini 3 Flash
8026点击    2025-12-23 15:22

参数越小,智商越高?Gemini 3 Flash用百万级长上下文、白菜价成本,把自家大哥Pro按在地上摩擦。谷歌到底掏出了什么黑魔法,让整个大模型圈开始怀疑人生?


Gemini 3 Flash发布已经有段时间了,速度快3倍的同时智力反超Pro。


但是目前依然没人能够说明白:为啥Flash能比Pro还要「聪明」。


谷歌黑魔法,没人能看懂的Gemini 3 Flash


为何一个在参数规模上显著缩减的模型,能够在更大规模的模型擅长的领域实现超越?


谷歌黑魔法,没人能看懂的Gemini 3 Flash


长期以来,业界奉行着「参数即正义」的信条,认为更大的模型(更多的参数量)必然带来更强的智能表现。


然而,Gemini 3 Flash的出现打破了这一线性逻辑,它不仅在成本和速度上保持了「Flash」系列的轻量级特征,更在多项关键基准测试中,尤其是涉及复杂推理和超长上下文的任务上,击败了前一代甚至当代的「Pro」级模型。


谷歌黑魔法,没人能看懂的Gemini 3 Flash


而且最近有人发现,在长下文测试中,Gemini 3 Flash更是遥遥领先!


在OpenAI的MRCR基准测试中,Gemini 3 Flash在100万上下文长度下达到了90%的准确率!


谷歌黑魔法,没人能看懂的Gemini 3 Flash


这一表现在所有模型中均属最先进水平,大多数顶尖模型甚至无法突破256k的上下文长度。


谷歌黑魔法,没人能看懂的Gemini 3 Flash


那么谷歌到底用了什么黑魔法?


Gemini 3 Flash凭什么在百万长文本与低成本间实现「降维打击」?


知名AI研究员@bycloudai在深入评测后指出,谷歌可能在模型架构研究上已处于「遥遥领先」的隐形地位


这一表现打破了行业常规认知:它既没有像标准注意力机制那样产生高昂算力成本,也没有像常见的线性注意力或SSM混合模型那样导致知识推理能力下降。


Gemini 3 Flash似乎掌握了某种未知的「高效注意力机制」,令外界对其背后的技术原理直呼「看不懂」但大受震撼。


谷歌黑魔法,没人能看懂的Gemini 3 Flash


再挖掘Gemini 3 Flash的黑魔法钱,有必要先介绍一下这个评测标准。


在2023年至2024年间,评估大语言模型长上下文能力的主流方法是「大海捞针」(Needle In A Haystack,NIAH)。


该测试将一个特定的事实(针)插入到长篇文档(大海)的随机位置,要求模型将其检索出来。


然而,随着模型上下文窗口扩展至128k甚至1M token,NIAH测试迅速饱和。


Gemini 1.5 Pro、GPT-4 Turbo等早期模型在该测试中均能达到近乎100%的准确率。


NIAH本质上测试的是检索能力而非推理能力


它要求模型找到信息,但不要求模型理解信息之间的复杂依赖关系。


这导致了一种错觉:似乎所有模型都完美掌握了长上下文。


但在实际的企业级应用(如法律文档分析、代码库理解)中,用户不仅需要模型找到「条款A」,还需要模型理解「条款A」与「条款B」在特定条件下的冲突,这种高阶能力是NIAH无法覆盖的。


正是在这种背景下,Context Arena应运而生。


谷歌黑魔法,没人能看懂的Gemini 3 Flash


这是一个由独立研究者(如Dillon Uzar等人)维护的、专注于长上下文理解能力评估的基准平台。


Context Arena不仅仅是一个排行榜,它是一个针对大模型「注意力缺陷」的诊断工具看,衡量模型「智商」和长程记忆稳定性的试炼场。


Context Arena最具杀伤力的武器是MRCR(Multi-Round Co-Reference Resolution)基准测试。


OpenAI受到Gemini的启发,也搞了一个OpenAI-MRCR,就是一开始上面所说的评测基准。


谷歌黑魔法,没人能看懂的Gemini 3 Flash


这是一个设计精巧的压力测试,旨在击穿那些使用近似注意力机制(如线性注意力或稀疏注意力)的模型的防线。


测试机制是这样的,MRCR会生成一段极长的、多轮次的合成对话或文本。


在这些文本中,系统会植入多个高度相似的「针」(Needles)。


例如,文本中可能包含8首关于「貘」(tapir)的诗,每首诗的风格略有不同但主题一致。


挑战点在于系统会向模型提出极其刁钻的指令,如:「请复述关于貘的第二首诗」或「找出第四次提到貘时的具体描述」。


在Context Arena的MRCR榜单上,Gemini 3 Flash展现出了惊人的统治力。


谷歌黑魔法,没人能看懂的Gemini 3 Flash


这直接证明了Gemini 3 Flash并未为了速度而牺牲核心的「注意力精度」。


猜猜谷歌用了什么技术


我们来对比一下常见的注意力机制。


标准注意力是平方级的,所以诞生了一种新技术叫做线性注意力。


谷歌黑魔法,没人能看懂的Gemini 3 Flash


谷歌黑魔法,没人能看懂的Gemini 3 Flash


另外一种还有稀疏注意力。


稀疏注意力保留了标准注意力的高精度,但通过只计算「重要」的部分来降低计算量。


比如,DeepSeek的DSA(DeepSeek Sparse Attention)。


谷歌黑魔法,没人能看懂的Gemini 3 Flash


DeepSeek认为,对于任何一个查询,绝大多数历史信息都是无关的。因此,没必要计算全量的注意力。


DSA使用一种启发式算法(如Lightning Indexer),快速筛选出最相关的Top-K个 token或块(Block),只对这些部分进行精细计算。


此外还有一些混合架构,比如Gemini的策略。


虽然谷歌未公开细节,但业界推测Gemini 3 Flash也是一种高度复杂的混合架构,可能在底层使用Infini-attention处理超长历史,在顶层使用标准注意力进行逻辑推理,并结合MoE(混合专家模型)来进一步降低计算成本。


总结来说,谷歌之所以能让Gemini 3 Flash实现「轻量级打Pro」,并非依赖单一的黑科技,而是基于TPU硬件、算法架构、训练数据三位一体的深度优化:


  • 数据层面(Data):利用Gemini 3 Pro进行大规模的思维链蒸馏,将高阶推理能力「压缩」进Flash模型,使其具备了超越参数规模的「智商」。
  • 计算层面(Compute):引入Thinking(思考)机制,允许模型在推理时动态分配计算资源。对于难题,Flash模型会像人一样「停下来想一想」,这种时间维度上的算力投入弥补了空间维度(参数量)的不足。
  • 记忆层面(Memory):部署Infini-attentionTitans风格的记忆模块,将指数级的注意力成本降维,实现了在1M+上下文中依然保持高精度的检索能力,彻底解决了长上下文带来的问题。


Gemini 3 Flash的核心战略意义


「Flash」一词在谷歌的产品线中历史悠久,从Gemini 1.5 Flash开始,它就被定位为高吞吐量、低延迟的工具,主要用于简单任务的快速处理。


这种定位在用户心中植入了一个根深蒂固的假设:Flash模型是Pro模型的蒸馏版本。


在传统的模型压缩理论中,蒸馏意味着学生模型只能逼近但永远无法超越教师模型的表现。


因此,当Gemini 3 Flash发布时,绝大多数分析师和开发者将其视为一个更便宜的API端点,而非一个推理引擎的革新。


然而,上面的数据告诉我们,Gemini 3 Flash正在讲述一个完全不同的故事。


这种「轻量级反而更强」的现象,不能简单地用更精细的数据清洗或更长的训练时间来解释。


它暗示了底层架构的根本性变化——一种不再单纯依赖参数规模堆叠,而是依赖于更高效的信息路由与记忆机制的新型架构。


Gemini 3 Flash的核心战略意义在于它打破了AI经济学中的线性增长法则。


在过去,要获得10%的智能提升,通常需要10倍的算力投入。


但Gemini 3 Flash以$0.50/1M输入 token的极低价格,提供了GPQA Diamond基准测试中90.4%的博士级推理能力。


这意味着谷歌不仅仅是在打价格战,而是在进行一场架构层面的降维打击。


当一个模型的推理成本低到可以忽略不计,且其长上下文召回能力达到完美(>99%)时,它就不再仅仅是一个聊天机器人,而是一个可以吞噬整个企业知识库、实时重构代码库、并自主进行多轮迭代的「智能代理」(Agent)。


是的,如果一个模型足够的轻量、又能够记住足够的东西、关键是又很便宜,那其他「智能体」还怎么生存?


这种能力的解锁,使得Gemini 3 Flash成为了当前AI智能体爆发的关键推手。


在Pokémon游戏通关测试和SWE-bench代码修复任务中,Flash模型的表现之所以能超越Pro模型,正是因为其低延迟和低成本允许代理在单位时间内进行更多的「思考-行动-反思」循环。


这种通过高频迭代来弥补单次推理深度不足(甚至在很多时候单次推理并不弱)的策略,正是当前AI进化的主要趋势。


谷歌的终极武器:Titans架构与神经长时记忆


结合Gemini 3 Flash在Context Arena的MRCR基准测试中100万上下文90%准确率的惊人表现,以及其低廉的推理成本,最合理的推测是:


Gemini 3 Flash大规模应用了谷歌DeepMind最新的「Titans」架构或其变体。


谷歌黑魔法,没人能看懂的Gemini 3 Flash


根据谷歌发表的Titans论文,这是一种结合了Transformer和神经记忆的新型架构。


这些框架让AI模型能够更快地工作,并通过更新核心内存在运行时处理大规模上下文。


谷歌黑魔法,没人能看懂的Gemini 3 Flash


Titans包含三个部分:


  • 核心(Core,短期记忆,通常是滑动窗口注意力)
  • 长期记忆(Long-term Memory)
  • 持久记忆(PersistentMemory)。


与传统的RNN(存储固定状态向量)不同,Titans的长期记忆是一个深度神经网络(MLP)


当模型处理输入时,它不仅仅是把信息存入缓存,而是通过梯度下降实时更新这个MLP的权重。


模型在推理阶段(TestTime)实际上是在「学习」当前的上下文。


它利用一个「惊奇度」(Surprise Metric)指标来衡量新信息的重要性。


如果一段信息(比如用户指定的随机哈希码)出乎模型的预料(High Surprise),模型就会通过梯度更新将其刻入长期记忆网络中。


为什么Titans完美解释了Gemini 3 Flash的表现?


1.无限上下文与线性复杂度:

Titans的MAC(Memory as Context)变体允许将历史信息压缩进神经网络权重,而非无限增长的KVCache。这解释了为什么Flash能以极低的内存占用处理百万级 token,且速度极快(线性推理)。


2.MRCR的高分:

在MRCR测试中,模型需要记住非常具体的细节(Needles)。在Titans架构下,这些独特的、重复出现的「Needles」会产生高惊奇度信号,从而被优先「学习」进记忆模块,而大量的干扰文本则会被遗忘门过滤。这比基于相似度检索的传统注意力机制更能抵抗噪声。


3.自适应能力:

用户反馈称Gemini 3 Flash似乎能「学会」用户的纠正。这正是Titans「测试时学习」特性的体现——模型在对话过程中动态调整了参数。


在这两篇新论文《Titans》和《MIRAS》中,谷歌提出了一种架构和理论蓝图,结合了RNN的速度与变换器精度。


Titans是具体的架构(工具),MIRAS是理论框架(蓝图),用于推广这些方法。


它们共同推动了测试时间记忆的概念,即AI模型通过在模型运行时加入更强大的「惊喜」指标(即意外信息片段)来维持长期记忆的能力,无需专门的离线再训练。


谷歌黑魔法,没人能看懂的Gemini 3 Flash


一个有效的学习系统需要不同但相互关联的记忆模块,这反映了人脑对短期记忆和长期记忆的分离。


虽然注意力机制在精确短期记忆方面表现出色,Titans引入了一种新型神经长期记忆模块,它不同于传统RNN中的固定大小向量或矩阵记忆,它充当深度神经网络。


该内存模块提供了显著更高的表达能力,使模型能够在不丢失重要上下文的情况下总结大量信息。模型不仅仅是做笔记,而是理解并综合整个故事。


关键是,泰坦不仅仅是被动存储数据。


它主动学习如何识别并保留连接整个输入中Token的重要关系和概念主题。这项能力的一个关键方面是我们所说的「惊喜指标」。


在人类心理学中,我们知道我们会很快且容易地忘记例行公事、预期中的事件,但会记住打破常规的事情——意外、惊喜或情绪激动的事件。


谷歌黑魔法,没人能看懂的Gemini 3 Flash


在《泰坦》的语境中,「惊讶指标」指的是模型检测到当前记忆与新输入信息之间的巨大差异。


  • 低惊讶:如果新词是「cat」,且模型的记忆状态已经预期动物词,则梯度(惊讶)较低。它可以安全地跳过长期永久状态下的「猫」这个词。


  • 高惊喜:如果模型的记忆状态正在总结一份严肃的财务报告,而新输入是一张香蕉皮的图片(意外事件),那么梯度(惊喜)会非常高。这表明新输入重要或异常,必须优先存储在长期记忆模块中。


该模型将这个内部误差信号(梯度)当作数学上的等价物,比如说:「这是意外且重要!」这使得泰坦架构能够选择性地更新其长期记忆,只包含最新颖且破坏上下文的信息,从而保持整体流程的快速和高效。


泰坦通过整合两个关键要素来完善这一机制:


  1. 动量:模型同时考虑「瞬间惊讶」(当前输入)和「过去惊讶」(近期上下文流)。这确保了后续相关信息也能被捕获,即使这些Token本身并不令人意外。
  2. 遗忘(权重衰减):为了在处理极长序列时管理记忆有限容量,泰坦采用自适应权重衰减机制。这起到遗忘门的作用,允许模型丢弃不再需要的信息。


MIRAS:序列建模的统一视角


序列建模的每一项重大突破,从现代变换器到新的闪电高速线性RNN,本质上都是同一件事:一个高度复杂的联想记忆模块。


因此,MIRAS独特且实用的,在于它对AI建模的看法。它不再看到多样化的架构,而是看到解决同一问题的不同方法:高效地将新信息与旧记忆结合,同时不遗忘核心概念


MIRAS通过四个关键设计选择定义了序列模型:


  • 内存架构:存储信息的结构(例如,矢量、矩阵或深度多层感知器,如泰坦中的结构)。
  • 注意力偏见:模型优化的内部学习目标,决定了其优先考虑的内容。
  • 保留门:内存规范器。MIRAS将「遗忘机制」重新解释为一种特定的正则化形式,平衡新学习与保留过去知识。
  • 内存算法:用于更新内存的优化算法。


谷歌黑魔法,没人能看懂的Gemini 3 Flash


这些新架构最显著的优势是能够处理极长的上下文。


这一点在BABILong基准测试中得到了体现,该任务需要在极长的文档中对事实进行推理。


在这一充满挑战的环境中,Titans的表现优于所有基线,包括像GPT-4这样极其庞大的模型,尽管参数远少于GPT-4。


Titans进一步展示了能够有效扩展到超过200万个令牌的上下文窗口。


谷歌黑魔法,没人能看懂的Gemini 3 Flash


Titans和MIRAS框架的引入标志着序列建模的重大进展。


通过将深度神经网络作为记忆模块,在数据流入时学习记忆,这些方法克服了固定大小的循环状态的局限。


此外,MIRAS提供了强大的理论统一,揭示了在线优化、联想记忆与架构设计之间的联系。


这项研究为新一代序列模型打开了大门,这些模型结合了RNN的高效与长上下文人工智能时代所需的表达能力。


彩蛋


分别向Gemini和GPT询问了Gemini 3 Pro和Flash的参数大小。


Gemini 3 Flash的回答:


基于截至2025年12月的最新行业信息和技术分析,官方并未公开Gemini 3 Pro和Gemini 3 Flash的确切模型参数大小。这是谷歌自 Gemini 1.0以来的一贯策略,主要为了保护架构机密。 


不过,根据技术白皮书的推断、行业泄露信息以及对其性能(Token 生成速度和显存占用)的逆向分析,目前的主流估算(数量级)如下


谷歌黑魔法,没人能看懂的Gemini 3 Flash


GPT 5.2的回答:


谷歌黑魔法,没人能看懂的Gemini 3 Flash


总之,Pro和Flash这两模型的参数数量级差了将近5~10倍(估算)。因此,Flash的使用体验远超预期,才会引起社区广泛的讨论。


参考资料:

https://research.google/blog/titans-miras-helping-ai-have-long-term-memory/

https://x.com/bycloudai/status/2002347892535930934


文章来自于“新智元”,作者 “定慧”。

AITNT-国内领先的一站式人工智能新闻资讯网站
AITNT资源拓展
根据文章内容,系统为您匹配了更有价值的资源信息。内容由AI生成,仅供参考
1
AI代理

【开源免费】Browser-use 是一个用户AI代理直接可以控制浏览器的工具。它能够让AI 自动执行浏览器中的各种任务,如比较价格、添加购物车、回复各种社交媒体等。

项目地址:https://github.com/browser-use/browser-use


2
AI数据分析

【开源免费】DeepBI是一款AI原生的数据分析平台。DeepBI充分利用大语言模型的能力来探索、查询、可视化和共享来自任何数据源的数据。用户可以使用DeepBI洞察数据并做出数据驱动的决策。

项目地址:https://github.com/DeepInsight-AI/DeepBI?tab=readme-ov-file

本地安装:https://www.deepbi.com/

【开源免费airda(Air Data Agent)是面向数据分析的AI智能体,能够理解数据开发和数据分析需求、根据用户需要让数据可视化。

项目地址:https://github.com/hitsz-ids/airda

3
智能体

【开源免费】AutoGPT是一个允许用户创建和运行智能体的(AI Agents)项目。用户创建的智能体能够自动执行各种任务,从而让AI有步骤的去解决实际问题。

项目地址:https://github.com/Significant-Gravitas/AutoGPT


【开源免费】MetaGPT是一个“软件开发公司”的智能体项目,只需要输入一句话的老板需求,MetaGPT即可输出用户故事 / 竞品分析 / 需求 / 数据结构 / APIs / 文件等软件开发的相关内容。MetaGPT内置了各种AI角色,包括产品经理 / 架构师 / 项目经理 / 工程师,MetaGPT提供了一个精心调配的软件公司研发全过程的SOP。

项目地址:https://github.com/geekan/MetaGPT/blob/main/docs/README_CN.md

4
知识库

【开源免费】FASTGPT是基于LLM的知识库开源项目,提供开箱即用的数据处理、模型调用等能力。整体功能和“Dify”“RAGFlow”项目类似。很多接入微信,飞书的AI项目都基于该项目二次开发。

项目地址:https://github.com/labring/FastGPT

5
RAG

【开源免费】graphrag是微软推出的RAG项目,与传统的通过 RAG 方法使用向量相似性作为搜索技术不同,GraphRAG是使用知识图谱在推理复杂信息时大幅提高问答性能。

项目地址:https://github.com/microsoft/graphrag

【开源免费】Dify是最早一批实现RAG,Agent,模型管理等一站式AI开发的工具平台,并且项目方一直持续维护。其中在任务编排方面相对领先对手,可以帮助研发实现像字节扣子那样的功能。

项目地址:https://github.com/langgenius/dify


【开源免费】RAGFlow是和Dify类似的开源项目,该项目在大文件解析方面做的更出色,拓展编排方面相对弱一些。

项目地址:https://github.com/infiniflow/ragflow/tree/main


【开源免费】phidata是一个可以实现将数据转化成向量存储,并通过AI实现RAG功能的项目

项目地址:https://github.com/phidatahq/phidata


【开源免费】TaskingAI 是一个提供RAG,Agent,大模型管理等AI项目开发的工具平台,比LangChain更强大的中间件AI平台工具。

项目地址:https://github.com/TaskingAI/TaskingAI