多源数据融合的场景空间模型自适应建模方法

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
多源数据融合的场景空间模型自适应建模方法
申请号:CN202411885885
申请日期:2024-12-20
公开号:CN119339007B
公开日期:2025-04-08
类型:发明专利
摘要
本申请实施例提供一种多源数据融合的场景空间模型自适应建模方法,通过融合视频序列、点云数据和IMU数据构建完整的场景信息。采用深度学习网络进行场景分析,基于规模系数、遮挡程度和几何形变系数计算场景复杂度评分,实现建模策略的智能匹配。同时,利用光流算法、几何变形场和相机位姿变化预测场景动态区域,通过重建误差监控建模质量,实现建模算法的自适应切换。该方法有效解决了传统建模方案在复杂动态场景下精度不稳定、适应性差的问题,提升了三维场景重建的质量和效率。
技术关键词
场景 建模算法 重建误差 建模方法 策略数据库 姿态特征 点云 卡尔曼滤波算法 递归神经网络 复杂度 序列 视频 投影方法 直方图 特征点 动态 规模 卡尔曼滤波估计 RANSAC算法