基于特征融合和Transformer的多模态图像配准方法
申请号:CN202411030082
申请日期:2024-07-30
公开号:CN118799366A
公开日期:2024-10-18
类型:发明专利
摘要
本发明提供了一种基于特征融合和Transformer的多模态图像配准方法。首先,获取多模态图像对数据集;然后,构建特征检测与匹配网络模型网络模型,以获取的数据集中的图像对为输入量,以其匹配点对为输出量,对该网络进行训练;接着,利用训练好的网络提取得到待配准图像的匹配点对,并利用GSM算法进行误匹配点剔除,得到最终的空间变换模型;最后,对待配准图像进行图像变换,并通过薄板样条插值法得到配准结果。本发明结合了深度学习方法和几何特征方法的优点,在挖掘深层语义信息的同时保留了空间细节信息,能够确保特征匹配的准确性和有效性,提高多模态图像配准的精度和鲁棒性。
技术关键词
图像配准方法
匹配网络模型
空间变换模型
特征金字塔网络
误匹配点剔除
多尺度特征提取
解码器
编码器
图像特征点
特征提取网络
薄板样条
融合特征
卷积模块
多模态
前馈神经网络
注意力
深度学习方法
插值法