AI资讯新闻榜单内容搜索-视觉

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
搜索: 视觉
ICLR 2026|新版「图灵测试」:当VLA走进生物实验室

ICLR 2026|新版「图灵测试」:当VLA走进生物实验室

ICLR 2026|新版「图灵测试」:当VLA走进生物实验室

现有 VLA 模型的研究和基准测试多局限于家庭场景(如整理餐桌、折叠衣物),缺乏对专业科学场景(尤其是生物实验室)的适配。生物实验室具有实验流程结构化、操作精度要求高、多模态交互复杂(透明容器、数字界面)等特点,是评估 VLA 模型精准操作、视觉推理和指令遵循能力的理想场景之一。

来自主题: AI技术研报
6485 点击    2026-02-20 13:00
苹果 AI 硬件三件套曝光,iPhone 将迎来史诗级加强

苹果 AI 硬件三件套曝光,iPhone 将迎来史诗级加强

苹果 AI 硬件三件套曝光,iPhone 将迎来史诗级加强

据彭博社记者 Mark Gurman 爆料,苹果正在加速推进三款全新的 AI 可穿戴设备。这三款产品都将围绕 Siri 数字助手构建,通过摄像头获取视觉上下文来执行各种操作。

来自主题: AI资讯
9659 点击    2026-02-18 13:37
阿里千问你别太荒谬!Qwen AI Slides 连漫画PPT都能一键生成?我以前那些夜真是白熬了

阿里千问你别太荒谬!Qwen AI Slides 连漫画PPT都能一键生成?我以前那些夜真是白熬了

阿里千问你别太荒谬!Qwen AI Slides 连漫画PPT都能一键生成?我以前那些夜真是白熬了

千问前脚刚把Qwen-Image-2.0甩出来,后脚就又放大招,冲着牛马党学生党的「痛处」下手了——就在这两天,重磅发布了AI PPT生成工具:Qwen AI Slides(幻灯片),据说从内容结构到视觉配图,一套全包……

来自主题: AI资讯
8859 点击    2026-02-16 11:24
视听分离SOTA提速6倍!清华发布首个6M高性能模型|ICLR'26

视听分离SOTA提速6倍!清华发布首个6M高性能模型|ICLR'26

视听分离SOTA提速6倍!清华发布首个6M高性能模型|ICLR'26

清华大学团队推出的Dolphin模型突破了「高性能必高能耗」的瓶颈:仅用6M参数(较主流模型减半),通过离散化视觉编码和物理启发的热扩散注意力机制,实现单次推理即可精准分离语音,速度提升6倍以上,在多项基准测试中刷新纪录,为智能助听器、手机等端侧设备部署高清语音分离开辟新路。

来自主题: AI技术研报
8329 点击    2026-02-14 10:28
Attention真的可靠吗?上海大学联合南开大学揭示多模态模型中一个被忽视的重要偏置问题

Attention真的可靠吗?上海大学联合南开大学揭示多模态模型中一个被忽视的重要偏置问题

Attention真的可靠吗?上海大学联合南开大学揭示多模态模型中一个被忽视的重要偏置问题

近年来,Vision-Language Models(视觉 — 语言模型)在多模态理解任务中取得了显著进展,并逐渐成为通用人工智能的重要技术路线。然而,这类模型在实际应用中往往面临推理开销大、效率受限的问题,研究者通常依赖 visual token pruning 等策略降低计算成本,其中 attention 机制被广泛视为衡量视觉信息重要性的关键依据。

来自主题: AI技术研报
9281 点击    2026-02-06 10:39
刚刚,面壁小钢炮开源进阶版「Her」,9B模型居然有了「活人感」

刚刚,面壁小钢炮开源进阶版「Her」,9B模型居然有了「活人感」

刚刚,面壁小钢炮开源进阶版「Her」,9B模型居然有了「活人感」

面壁开源了行业首个全双工全模态大模型 MiniCPM-o 4.5,相比已有多模态模型,MiniCPM-o 4.5 首次实现了「边看边听边说」以及「自主交互」的全模态能力,模型不再只是把视觉、语音作为静态输入处理,而是能够在实时、多模态信息流中持续感知环境变化,并在输出的同时保持对外界的理解。

来自主题: AI资讯
8772 点击    2026-02-04 22:39
VL-LN Bench:模拟「边走边问找具体目标」的真实导航场景

VL-LN Bench:模拟「边走边问找具体目标」的真实导航场景

VL-LN Bench:模拟「边走边问找具体目标」的真实导航场景

如果将一台在视觉语言导航(VLN)任务中表现优异的机器人直接搬进家庭场景,往往会遇到不少实际问题。

来自主题: AI技术研报
7618 点击    2026-02-03 08:43
VLM剪枝新SOTA:无需重训练,注意力去偏置超越6大主流方案

VLM剪枝新SOTA:无需重训练,注意力去偏置超越6大主流方案

VLM剪枝新SOTA:无需重训练,注意力去偏置超越6大主流方案

近年来,Vision-Language Models(视觉—语言模型)在多模态理解任务中取得了显著进展,并逐渐成为通用人工智能的重要技术路线。

来自主题: AI技术研报
5859 点击    2026-01-31 12:30
Gemini 3「开眼」像素级操控!谷歌回应DeepSeek-OCR2

Gemini 3「开眼」像素级操控!谷歌回应DeepSeek-OCR2

Gemini 3「开眼」像素级操控!谷歌回应DeepSeek-OCR2

没想到吧,Google DeepMind刚刚为Gemini 3 Flash推出了一个重量级新能力:Agentic Vision(智能体视觉)。(难道是被DeepSeek-OCR2给刺激到了?)

来自主题: AI资讯
9558 点击    2026-01-28 18:06