摘要
本发明公开了一种基于深度学习的动态场景视觉SLAM方法,包括以下步骤:获取原始场景图像,并提取图像场景中的ORB特征点;基于改进的目标检测网络,对原始场景图像进行动态目标检测,得到图像场景中的动态目标框;采用关键帧同步机制关联所述动态目标框和ORB特征点,剔除所述动态目标框对应的ORB特征点;得到一次剔除后的特征场景图像;采用对极几何约束对相邻的特征场景图像中不匹配的ORB特征点进行二次剔除,得到静态特征场景图像;并基于所述静态特征场景图像对应的ORB特征点进行位姿估计和/或地图构建。本发明通过改进目标检测网络进行动态目标的动态特征点提取,又采用对极几何约束二次剔除动态特征点,提高定位精度有助于进行准确的地图构建。