摘要
本发明提出了一种自适应视觉力觉融合的显微定位控制方法及系统,其中:控制方法包括以下步骤:图像捕获;动态时间戳对齐;空间坐标系非线性映射;视觉数据增强与特征提取;力觉信号动态校准;多模态数据时空配准;基于注意力机制的特征融合;融合位姿生成与误差修正;强化学习参数实时优化;模糊滑模抗扰控制指令生成;动态阻抗保护与实时回撤;故障恢复;性能标定。本发明通过双线性插值时间戳对齐与基于深度学习的非线性坐标映射,消除视觉与力觉数据的时空异步性和量纲异构性,实现亚微米级的融合定位精度;基于注意力机制和力梯度补偿,动态分配视觉与力觉权重。