摘要
本发明提供了一种基于深度特征融合的3D高斯溅射方法,包括:通过多视图Transformer网络和预训练的单目深度估计模型分别提取多视图特征与单目深度特征;通过内容引导注意力模块动态融合两类特征;使用2D U‑Net网络对融合后的特征进行深度回归,得到鲁棒的深度分布;将深度分布反投影至3D空间得到高斯中心,再通过2DU‑Net网络预测其他高斯参数;根据所有的高斯参数通过光栅化渲染出高质量的三维模型。该3D高斯溅射方法,通过结合多视图特征匹配与单目深度先验的互补优势,显著提升了复杂场景的重建质量,解决了传统特征匹配方法在复杂场景中匹配不准确或匹配信息缺失导致的场景重建质量低下的问题。