
具身VLA后训练:TeleAI提出潜空间引导的VLA跨本体泛化方法
具身VLA后训练:TeleAI提出潜空间引导的VLA跨本体泛化方法在多模态大模型的基座上,视觉 - 语言 - 动作(Visual-Language-Action, VLA)模型使用大量机器人操作数据进行预训练,有望实现通用的具身操作能力。
在多模态大模型的基座上,视觉 - 语言 - 动作(Visual-Language-Action, VLA)模型使用大量机器人操作数据进行预训练,有望实现通用的具身操作能力。
具身智能机器人赛道又迎来一笔重磅融资。ZP独家获悉,智平方(AI² Robotics)近期完成由深创投领投的新一轮A系列融资,深创投单家超过亿元投资。
“机器人运动会结束以来,公司的400咨询电话一直没有停过,比赛后第二周就有十几家酒店客户来公司参观。”优理奇(Unix AI)的创始人、CEO杨丰瑜告诉《智能涌现》。
仅凭少量后训练微调,机器人就能完全自主、连续不断地完成床铺整理任务。 而它的每一步思考与动作实时投放在大屏幕上。
8 月 11 日,在世界机器人大会上,阿里达摩院宣布开源自研的 VLA 模型 RynnVLA-001-7B、世界理解模型 RynnEC、以及机器人上下文协议 RynnRCP ,推动数据、模型和机器人的兼容适配,打通具身智能开发全流程。
硅星人独家了解到,星海图即将开源全球首个开放场景高质量真机数据集Galaxea Open-World Dataset,及其G0-快慢双系统全身智能VLA模型。这一举动无疑在相对各自为战的机器人行业打开了一条新的路径。
理想最新纯电车型 i8 发布会上,创始人李想花费大量篇幅介绍车机的智能化,以及 VLA 技术下的智驾进化。 遥想上半年李想的「AI Talk」直播,在让人想夸一句「厂长实在是太想进步了」之外,不得不说马斯克对于「特斯拉从汽车公司」、「新能源公司」再到「AI 公司」的定位,对同行们的影响还是有点大了。
尽管当前的机器人视觉语言操作模型(VLA)展现出一定的泛化能力,但其操作模式仍以准静态的抓取与放置(pick-and-place)为主。相比之下,人类在操作物体时常常采用推动、翻转等更加灵活的方式。若机器人仅掌握抓取,将难以应对现实环境中的复杂任务。
为什么机器人能听懂指令却做不对动作?语言大模型指挥机器人,真的是最优解吗?端到端的范式到底是不是通向 AGI 的唯一道路?这些问题背后,藏着机器智能的未来密码。
如何让机器人从看懂世界,到理解意图,再到做出动作,是具身智能领域当下最受关注的技术重点。 但真机数据的匮乏,正在使对应的视觉-语言-动作(VLA)模型面临发展瓶颈。