AI资讯新闻榜单内容搜索-CVPR

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
搜索: CVPR
10万+,超大规模人手交互视频数据集!面向可泛化机器人操作|CVPR 2025

10万+,超大规模人手交互视频数据集!面向可泛化机器人操作|CVPR 2025

10万+,超大规模人手交互视频数据集!面向可泛化机器人操作|CVPR 2025

香港中文大学(深圳)的研究团队发布TASTE-Rob数据集,含100856个精准匹配语言指令的交互视频,助力机器人通过模仿学习提升操作泛化能力。团队还开发三阶段视频生成流程,优化手部姿态,显著提升视频真实感和机器人操作准确度。

来自主题: AI技术研报
6994 点击    2025-04-26 15:57
CVPR 2025|视频抠图MatAnyone来了,一次指定全程追踪,发丝级还原

CVPR 2025|视频抠图MatAnyone来了,一次指定全程追踪,发丝级还原

CVPR 2025|视频抠图MatAnyone来了,一次指定全程追踪,发丝级还原

视频人物抠像技术在电影、游戏、短视频制作和实时视频通讯中具有广泛的应用价值,但面对复杂背景和多目标干扰时,如何实现一套兼顾发丝级细节精度及分割级语义稳定的视频抠图系统,始终是个挑战。

来自主题: AI技术研报
4327 点击    2025-04-18 10:13
CVPR 2025 | 2D 大模型赋能3D Affordance 预测,GEAL助力可泛化的3D场景可交互区域识别

CVPR 2025 | 2D 大模型赋能3D Affordance 预测,GEAL助力可泛化的3D场景可交互区域识别

CVPR 2025 | 2D 大模型赋能3D Affordance 预测,GEAL助力可泛化的3D场景可交互区域识别

在现实世界中,如何让智能体理解并挖掘 3D 场景中可交互的部位(Affordance)对于机器人操作与人机交互至关重要。所谓 3D Affordance Learning,就是希望模型能够根据视觉和语言线索,自动推理出物体可供哪些操作、以及可交互区域的空间位置,从而为机器人或人工智能系统提供对物体潜在操作方式的理解。

来自主题: AI技术研报
4734 点击    2025-04-11 09:55
铰链物体的通用世界模型,超越扩散方法,入选CVPR 2025

铰链物体的通用世界模型,超越扩散方法,入选CVPR 2025

铰链物体的通用世界模型,超越扩散方法,入选CVPR 2025

基于当前观察,预测铰链物体的的运动,尤其是 part-level 级别的运动,是实现世界模型的关键一步。

来自主题: AI技术研报
8234 点击    2025-04-07 15:03