摘要
本发明涉及机器人控制与人工智能领域,尤其涉及基于焦点视觉和相对位置不变性的双手机器人协调方法,包括:对多视角图像与语言指令进行处理,建立多视角图像特征与语言特征融合的输入处理框架;在输入处理框架内构建双臂协调模型,模型包括:焦点解码器、相对解码器和转换器;利用服务器对双臂协调模型进行多模态损失联合训练,得到训练好的双臂协调模型;将实时感知数据输入训练好的双臂协调模型,输出可执行双臂指令。本发明的有益效果在于:协调性大幅增加,同步任务成功率有突破性进展;通过模拟人类视觉行为,解决传统方法因单臂持续操作导致的定位漂移问题;采用焦点引导的区域过滤,仅处理视觉关键区域,减少参数复杂程度。