摘要
一种基于深度学习的跨模态图像融合方法,涉及计算机视觉与图像处理技术,旨在解决现有图像融合方法中存在的结构失真、纹理丢失及计算开销过高的问题。本发明首先引入状态空间模型,在建模远距离依赖时具备线性复杂度,大幅减少计算开销,在保证融合质量的同时提升了系统运行效率,适用于资源受限场景的部署与应用。本发明还通过动态特征增强与跨模态融合机制,可自动提取差异性与互补信息,有效避免传统方法中因人工特征选择而导致的细节遗漏或信息偏置问题。基于本发明的方案,可以充分融合来自不同模态的图像信息,自动生成具备更强细节保留和结构一致性的融合图像,便于后续目标检测、医学诊断等任务的开展,提升图像使用效率和智能化水平。