AI资讯新闻榜单内容搜索-视觉

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
搜索: 视觉
复旦校友,造14万AI工人:年入11亿,港股上市

复旦校友,造14万AI工人:年入11亿,港股上市

复旦校友,造14万AI工人:年入11亿,港股上市

一位复旦教授,造出14万AI工人,最近冲刺IPO。2000年,思谋科技创始人贾佳亚从复旦毕业时,计算机视觉还是个冷门方向。他没想到,二十多年后,自己会给中国工厂造出14万个“AI工人”。

来自主题: AI资讯
8100 点击    2026-03-22 09:40
CVPR 2026 | EmoStyle:情感也能“风格化”?深大VCC带你见证魔法!

CVPR 2026 | EmoStyle:情感也能“风格化”?深大VCC带你见证魔法!

CVPR 2026 | EmoStyle:情感也能“风格化”?深大VCC带你见证魔法!

EmoStyle 由深圳大学可视计算研究中心黄惠教授课题组独立完成,第一作者为杨景媛助理教授,第二作者为研二硕士生柏梓桓。深圳大学可视计算研究中心(VCC)以计算机图形学、计算机视觉、人机交互、机器学习、具身智能、可视化和可视分析为学科基础,致力前沿探索与跨学科创新。

来自主题: AI技术研报
7220 点击    2026-03-20 10:18
LaPha:你的Agent轨迹其实嵌入在一个Poincaré球?

LaPha:你的Agent轨迹其实嵌入在一个Poincaré球?

LaPha:你的Agent轨迹其实嵌入在一个Poincaré球?

在经典强化学习问题中,动作空间通常是离散且有限的。例如在围棋中,一步棋就是一次行动;在机器人控制或视觉 - 语言 - 行动(VLA)模型中,动作往往来自一个有限的控制指令集合。

来自主题: AI技术研报
5963 点击    2026-03-18 14:54
打破视频推理「先看后想」惯性,实现真正的「边看边想」丨CVPR'26

打破视频推理「先看后想」惯性,实现真正的「边看边想」丨CVPR'26

打破视频推理「先看后想」惯性,实现真正的「边看边想」丨CVPR'26

今天的大型视觉语言模型(VLM)做离线视频分析很强,但一到实时场景就尴尬: 视频在往前走,模型还在“补作业”。

来自主题: AI技术研报
6922 点击    2026-03-18 14:12
在「想象」中练就真机能力:RISE,让VLA强化学习告别真机试错

在「想象」中练就真机能力:RISE,让VLA强化学习告别真机试错

在「想象」中练就真机能力:RISE,让VLA强化学习告别真机试错

在具身智能的发展路径中,视觉 - 语言 - 动作(VLA)模型正逐步成为通用操作任务的核心框架。但当任务进入长程规划、柔性物体操作、精细双臂协同、动态交互等复杂场景时,VLA 仍然面临两个根本性挑战:

来自主题: AI技术研报
5537 点击    2026-03-18 14:05
CVPR 2026 | 从视觉Token内在变化量出发,实现VLM无损加速1.87倍

CVPR 2026 | 从视觉Token内在变化量出发,实现VLM无损加速1.87倍

CVPR 2026 | 从视觉Token内在变化量出发,实现VLM无损加速1.87倍

随着高分辨率图像理解与长视频处理需求的爆发式增长,大型视觉语言模型(LVLMs)所需处理的视觉 Token 数量急剧膨胀,推理效率成为落地部署的核心瓶颈。Token 压缩是缩短序列、提升吞吐的直接手段,但现有方法普遍依赖注意力权重来判断 Token 重要性,这一路线暗藏两个致命缺陷:

来自主题: AI技术研报
9057 点击    2026-03-17 08:49
全新线性注意力范式!哈工深张正团队提出模长感知线性注意力!显存直降92.3%!

全新线性注意力范式!哈工深张正团队提出模长感知线性注意力!显存直降92.3%!

全新线性注意力范式!哈工深张正团队提出模长感知线性注意力!显存直降92.3%!

当 Transformer 席卷计算机视觉领域,高分辨率图像、超长序列任务带来的算力与显存瓶颈愈发凸显:标准 Softmax 注意力的二次复杂度,让 70K+token 的超分辨率任务直接显存爆炸,高分辨率图像分割、检测的推理延迟居高不下。

来自主题: AI技术研报
5498 点击    2026-03-17 08:48
500行极简开源框架,硬刚GPT/Gemini视觉极限!

500行极简开源框架,硬刚GPT/Gemini视觉极限!

500行极简开源框架,硬刚GPT/Gemini视觉极限!

多模态模型代码写得像老司机,却在数手指、量柱子时频频翻车?UniPat AI用五百行代码打造的SWE-Vision,让模型「掏出Python尺子」自我验证,一举拿下五大视觉相关基准SOTA。

来自主题: AI资讯
7940 点击    2026-03-16 15:08
UniPat AI开源SWE-Vision:五百行代码打造SOTA视觉智能体!

UniPat AI开源SWE-Vision:五百行代码打造SOTA视觉智能体!

UniPat AI开源SWE-Vision:五百行代码打造SOTA视觉智能体!

多模态大模型在代码能力上进步惊人,但在基础视觉任务上却频繁失误。UniPat AI 构建了一个极简的视觉智能体框架 ——SWE-Vision,让模型可以编写并执行 Python 代码来处理和验证自己的视觉判断。在五个主流视觉基准测试中,SWE-Vision 均达到了当前最优水平。

来自主题: AI技术研报
9374 点击    2026-03-16 14:25