
Zero-shot重建物理高斯资产,清华&光轮视觉大模型让机器人理解物理属性|ICRA 2025
Zero-shot重建物理高斯资产,清华&光轮视觉大模型让机器人理解物理属性|ICRA 2025理解物体的物理属性,对机器人执行操作十分重要,但是应该如何实现呢?
理解物体的物理属性,对机器人执行操作十分重要,但是应该如何实现呢?
近年来,视觉大模型(Large Vision Language Models, LVLMs)领域经历了迅猛的发展,这些模型在图像理解、视觉对话以及其他跨模态任务中展现出了卓越的能力。然而,随着 LVLMs 复杂性和能力的增长,「幻觉现象」的挑战也日益凸显。
视觉模型仍是IDEA的研究重点——IDEA正式发布的最新通用视觉大模型DINO-X,可以拥有真正的物体级别理解能力。
36氪获悉,近日, 深圳个元科技有限公司(以下简称“个元科技”)完成4600万美元B轮融资,本轮融资由 UP Partners 领投,融得资金将主要用于扩张市场、加大技术研发。
还能玩纸牌游戏。
不用打标签,也能解决视觉大模型的偏好对齐问题了。
CVPR正在进行中,中国科研力量再次成为场内外焦点之一。
与 DeiT 等使用 ViT 和 Vision-Mamba (Vim) 方法的模型相比,ViL 的性能更胜一筹。
Transformer 在大模型领域的地位可谓是难以撼动。不过,这个AI 大模型的主流架构在模型规模的扩展和需要处理的序列变长后,局限性也愈发凸显了。Mamba的出现,正在强力改变着这一切。它优秀的性能立刻引爆了AI圈。