
只用图像也能思考,强化学习造就推理模型新范式!复杂场景规划能力Max
只用图像也能思考,强化学习造就推理模型新范式!复杂场景规划能力Max近年来,LLM 及其多模态扩展(MLLM)在多种任务上的推理能力不断提升。然而, 现有 MLLM 主要依赖文本作为表达和构建推理过程的媒介,即便是在处理视觉信息时也是如此 。
近年来,LLM 及其多模态扩展(MLLM)在多种任务上的推理能力不断提升。然而, 现有 MLLM 主要依赖文本作为表达和构建推理过程的媒介,即便是在处理视觉信息时也是如此 。
不再依赖语言,仅凭图像就能完成模型推理?
仅调整5%的骨干网络参数,就能超越全参数微调效果?!
对于AI视觉多模态大模型只关注显著信息这一根本性缺陷,哈工大GiVE实现突破!
当前,所有主流的视觉基础模型(如 SigLIP、DINOv2 等)都仍然在低分辨率(如 384 * 384 分辨率)下进行预训练。对比人类视觉系统可以轻松达到 10K 等效分辨率,这种低分辨率预训练极大地限制了视觉模型对于高清细节的理解能力。
传统科技公司、尤其是 2B 的公司,其信息、视觉传达都是以公司、产品、技术创新为中心的。但是,处在现代最前沿技术之一的 AI 公司,似乎想做一些不一样的传达。我们将近距离看一下 OpenAI,Cohere,Anthropic 这三家 AI 模型公司的信息、视觉传达,看看他们怎么是从传统科技公司的风格中,做出一些不一样的、以人为本的品牌设计的。
大家还记得那个 ICLR 2025 首次满分接收、彻底颠覆静态图像光照编辑的工作 IC-Light 吗?
想象一下,耗费动画大师宫崎骏数十年心血、一帧一画精雕细琢的艺术风格——比如《起风了》中耗时一年多的四秒人群场景,或是《幽灵公主》里那个生物钻地镜头背后一年零七个月的 5300 帧手绘,如今,在GPT-4o手中,似乎变得“唾手可得”。
给AI一张全新的照片,它能以相当高的准确率还猜出照片在哪个城市拍摄的。在新研究中,表现最好的AI模型,猜出图片所在城市的正确率比人类高62.6%!以后网上晒图可要当心了,AI可能知道你在哪里!
OpenAI o1视觉能力还是最强,模型们普遍“过于自信”!