视觉推理模型Top1易主了,智谱GLM-4.6V开源

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
视觉推理模型Top1易主了,智谱GLM-4.6V开源
7527点击    2025-12-09 00:50

这一次,AI真的是快要砸掉我的饭碗了。


因为如果你现在想根据NeurIPS 2025的最佳论文写一篇公众号文章,只需要把它丢给AI并且附上一句话:


帮我解读这篇论文,并写一个图文并茂的微信公众号推送来介绍这篇文章。


看完最新国产AI写的公众号文章,我慌了!


只需静候几分钟,AI就水灵灵地把完整的微信公众号科普文章给呈现了出来,来感受一下这个feel:


看完最新国产AI写的公众号文章,我慌了!


不得不说啊,这个AI从标题开始就真的把最最最重要的关键信息“NeurIPS 2025最佳论文”精准抓了出来。


并且“Gates一下”,更是把名词动词化,是有点语言编辑功底在身上的。


回头细看这个AI处理的过程。


首先,它会根据这篇论文的内容,先处理文字的部分,将文章分为了引言、核心问题、破局之道、实验结果、深入分析、结论与展望这六大部分,是符合一篇论文解读文章的逻辑。


然后AI会把论文中要引用的图片和表格进行适当的裁剪和标注,并插进文章里面,还会在图片下方附上图注:


看完最新国产AI写的公众号文章,我慌了!


一气呵成,真的是“文字+图片+排版”一气呵成。


那么这到底是何许AI是也?


不卖关子,它就是智谱最新升级的新一代视觉推理模型——GLM-4.6V


看完最新国产AI写的公众号文章,我慌了!


在深度体验一波之后,我们发现写图文并茂的公众号推文,还只是GLM-4.6V能力的一隅。


接下来,老规矩,一波实测,走起~


学生党看论文,更方便了


首先来到智谱的官网(https://chat.z.ai/),在左上方模型下拉菜单中选择GLM-4.6V。


看完最新国产AI写的公众号文章,我慌了!


然后根据任务的需求,我们可以在输入框下方快速选择任务类型,也可以在工具选项中勾选图像识别、图像处理、图像搜索或购物搜索等工具。


像刚才我们写公众号文章时,就选择了“文档智读”功能(会默认勾选“图像处理”工具)


看完最新国产AI写的公众号文章,我慌了!


研究论文、报告,更方便了


同样是在“文档智读”功能下,看论文这件事已经变得太便捷了。


例如我们上传Transformer和Mamba两篇论文,然后附上一句Prompt:


结合这两篇论文的图表,对比一下Transformer和Mamba模型的异同,并帮我思考一下大模型架构下一步该如何发展?


看完最新国产AI写的公众号文章,我慌了!


同样是几分钟后,一份图文并茂的对比分析就诞生了(上下滑动浏览)


看完最新国产AI写的公众号文章,我慌了!


可以看到,GLM-4.6V先是对Transformer和Mamba架构分别做了核心特点的介绍;然后以表格和图文的形式对二者进行了关键维度上的对比;最后也是对大模型架构的未来发展方向做出了总结。


如此功能之下,不仅仅是对比看论文,像是研究、分析报告这类任务也会派上大用场。


这一次,我直接“喂”给GLM-4.6V四份财报(苹果、谷歌、亚马逊和Meta)


帮我对比这四家公司Q3财报,图表形式做分析。


看完最新国产AI写的公众号文章,我慌了!


GLM-4.6V的思考过程同样是调取了各个财报中的关键图表和数据,然后先是汇总成了一份对比表格,再对关键指标做了逐一的解析,最终给出了关键性结论。


甚至你可以不用提供任何资料,只需要一句话就能生成报告:


搜索一下最近新出“豆包AI手机”,并生成图文并茂的报告。


看完最新国产AI写的公众号文章,我慌了!


由此可见,在GLM-4.6V的加持之下,解读论文、报告,统统都变成了一句话的事儿。


一张图复刻B站网页版


GLM-4.6V还有一个特别有意思的功能,它只需要看一眼网站,就能高度复刻出来!


我们先截取B站首页的截图:


看完最新国产AI写的公众号文章,我慌了!


然后开启“图片识别”和“图片处理”两个工具,并简单一句话下达指令:


复刻这个网站,网站里包含的图片也要复刻出来。


然后GLM-4.6V就开始唰唰唰地“敲代码”:


视觉推理模型Top1易主了,智谱GLM-4.6V开源


同样是几分钟的时间,一个高度还原B站首页的完整HTML和CSS代码就搞定了:


看完最新国产AI写的公众号文章,我慌了!


我们还可以对初始结果做进一步的优化,例如来上一句:


把主题变成深色模式。


看完最新国产AI写的公众号文章,我慌了!


再细如页面里的排版布局,统统都可以通过自然语言的方式来做调整。


不得不说,这种玩法可以给前端程序员省了不少的工作量;而且还有个福利哦——价格更便宜了


GLM-4.6V系列相较于GLM-4.5V降价50%,API 调用价格低至输入 1 元/百万tokens输出 3 元/百万 tokens


看完最新国产AI写的公众号文章,我慌了!


而且据说GLM-4.6V已经进入到智谱的Coding Plan套餐里喽~


长视频也是能hold住


在文档、图片之后,另一种多模态——视频,GLM-4.6V也能处理。


我们以Ilya在多伦多大学的一段演讲为例:

视觉推理模型Top1易主了,智谱GLM-4.6V开源


这一次,我们点击输入框下面的“视频理解”功能,然后让GLM-4.6V来对视频内容做总结:


看完最新国产AI写的公众号文章,我慌了!


10分钟时长的视频内容,GLM-4.6V只需要几十秒的时间就能将其总结到位:


看完最新国产AI写的公众号文章,我慌了!


进一步的,你还可以要求GLM-4.6V来翻译视频中Ilya演讲的所有内容:


看完最新国产AI写的公众号文章,我慌了!


以后看AI大佬英文演讲的视频,真的是方便太多了。


万物皆可GLM-4.6V


除了我们上面提到的案例之外,还有好多好多真实场景都能用的上GLM-4.6V.


例如想解一下一道考研数学真题的解法,咱们就把题目截图丢给它:


帮我解答这道题。


看完最新国产AI写的公众号文章,我慌了!


GLM-4.6V会很快分析解题的详细过程并给出正确答案:C。


看完最新国产AI写的公众号文章,我慌了!


再如你看到一张可视化的图表,想要把它转换成数据


看完最新国产AI写的公众号文章,我慌了!


同样的操作,同样一句话,就可以完成了:


看完最新国产AI写的公众号文章,我慌了!


值得一提的是,哪怕是手机拍照拍下来的图片、表格等,也都是可以一键OCR的哦~


包括古文手稿


看完最新国产AI写的公众号文章,我慌了!


GLM-4.6V知道需要按照从右到左、从上到下的顺序来阅读:


看完最新国产AI写的公众号文章,我慌了!


还有视觉任务中经常用的目标检测,在GLM-4.6V这里也是可以搞定的。


例如我们给一张猫咪们的合影,然后Prompt如下:


识别图中所有猫的品种。请以合法的JSON格式返回结果,结果是一个list,每一个list元素对应一个目标检测结果dict,dict的key由label、bbox_2d组成,值分别为检测到的猫的品种和结果坐标框。例如:[

{‘label’: ‘金渐层-1’, ‘bbox_2d’: [1,2,3,4]}, {‘label’: ‘金渐层-2’, ‘bbox_2d’: [4,5,6,7]}]


看完最新国产AI写的公众号文章,我慌了!


不一会儿的功夫,GLM-4.6V就会框出所有猫咪:


{“label”: “虎斑猫-1”, “bbox_2d”: [95,152,192,825]}, 

{“label”: “虎斑猫-2”, “bbox_2d”: [185,332,310,852]}, 

{“label”: “暹罗猫-1”, “bbox_2d”: [295,352,428,902]}, 

{“label”: “美短-1”, “bbox_2d”: [415,520,508,922]}, 

{“label”: “缅因猫-1”, “bbox_2d”: [498,262,603,852]}, 

{“label”: “英短-1”, “bbox_2d”: [603,452,697,872]}, 

{“label”: “挪威森林猫-1”, “bbox_2d”: [685,120,797,832]}, 

{“label”: “虎斑猫-3”, “bbox_2d”: [802,482,882,832]}


再经过渲染,我们就得到了经典的目标检测效果:


看完最新国产AI写的公众号文章,我慌了!


已经是开源里的SOTA了


从整体实测过程和结果来看,GLM-4.6V在体感上是非常丝滑的。


而之所以如此,也离不开它背后自身实力的迭代升级。


这次智谱升级的GLM-4.6V分为了两个版本,分别是:


  • GLM-4.6V(106B-A12B):面向云端与高性能集群场景的基础版
  • GLM-4.6V-Flash(9B):面向本地部署与低延迟应用的轻量版


智谱不仅将这个版本的视觉推理模型的上下文窗口大小提升到了128K tokens,在MMBench、MathVista、OCRBench等30多个主流多模态评测Benchmark中,也是取得了同级别SOTA的结果!


看完最新国产AI写的公众号文章,我慌了!


其中9B版本的GLM-4.6V-Flash整体表现超过Qwen3-VL-8B,106B参数12B激活的GLM-4.6V表现比肩2倍参数量的Qwen3-VL-235B。


除了评测榜单结果之外,智谱还将GLM-4.6V背后的技术细节也亮了出来——


首次在模型架构中将Function Call(工具调用)能力原生融入视觉模型,打通从“视觉感知”到“可执行行动”(Action)的链路,为真实业务场景中的多模态 Agent 提供统一的技术底座。


评测结果、技术实力固然重要,但到了AI发展的现阶段,到底实不实用、好不好用才是真正能让AI应用杀出自己一片天地的护城河。


从这次深度实测结果来看,GLM-4.6V,绝对是做到了这一点的那个AI。


最后,如果小伙伴对GLM-4.6V感兴趣,链接就放下面了,赶紧去体验吧~


GLM-4.6V地址:https://chat.z.ai


文章来自于微信公众号 “量子位”,作者 “量子位”

AITNT-国内领先的一站式人工智能新闻资讯网站
AITNT资源拓展
根据文章内容,系统为您匹配了更有价值的资源信息。内容由AI生成,仅供参考
1
智能体

【开源免费】AutoGPT是一个允许用户创建和运行智能体的(AI Agents)项目。用户创建的智能体能够自动执行各种任务,从而让AI有步骤的去解决实际问题。

项目地址:https://github.com/Significant-Gravitas/AutoGPT


【开源免费】MetaGPT是一个“软件开发公司”的智能体项目,只需要输入一句话的老板需求,MetaGPT即可输出用户故事 / 竞品分析 / 需求 / 数据结构 / APIs / 文件等软件开发的相关内容。MetaGPT内置了各种AI角色,包括产品经理 / 架构师 / 项目经理 / 工程师,MetaGPT提供了一个精心调配的软件公司研发全过程的SOP。

项目地址:https://github.com/geekan/MetaGPT/blob/main/docs/README_CN.md

2
prompt

【开源免费】LangGPT 是一个通过结构化和模板化的方法,编写高质量的AI提示词的开源项目。它可以让任何非专业的用户轻松创建高水平的提示词,进而高质量的帮助用户通过AI解决问题。

项目地址:https://github.com/langgptai/LangGPT/blob/main/README_zh.md

在线使用:https://kimi.moonshot.cn/kimiplus/conpg00t7lagbbsfqkq0