摘要
本发明公开了一种基于残差融合结构的端对端图像融合方法,通过构建RFN‑Nest网络框架,该方法有效提取红外与可见光图像的多尺度深度特征,利用残差融合网络单元RFN精细融合这些特征,结合红外图像的热辐射信息和可见光图像的细节纹理信息,生成高质量融合图像,损失函数结合像素损失Lpi xe l和结构相似性损失Lss im,确保融合图像在像素和结构上与真实图像一致,同时,引入背景细节信息保持损失Ldetai l和目标特征增强损失Lfeature,提升网络保持图像细节和增强目标特征的能力,采用两阶段训练策略,先训练自编码网络学习基本特征,再针对特定任务训练RFN网络,加快收敛速度,提高泛化能力,该方法应用于建筑结构检测上,能够提高建筑检测效率和准确度。