多源数据融合的场景空间模型自适应建模方法
# 热门搜索 #
大模型
人工智能
openai
融资
chatGPT
AITNT公众号
AITNT APP
AITNT交流群
搜索
首页
AI资讯
AI技术研报
AI监管政策
AI产品测评
AI商业项目
AI产品热榜
AI专利库
寻求报道
多源数据融合的场景空间模型自适应建模方法
申请号:
CN202411885885
申请日期:
2024-12-20
公开号:
CN119339007B
公开日期:
2025-04-08
类型:
发明专利
摘要
本申请实施例提供一种多源数据融合的场景空间模型自适应建模方法,通过融合视频序列、点云数据和IMU数据构建完整的场景信息。采用深度学习网络进行场景分析,基于规模系数、遮挡程度和几何形变系数计算场景复杂度评分,实现建模策略的智能匹配。同时,利用光流算法、几何变形场和相机位姿变化预测场景动态区域,通过重建误差监控建模质量,实现建模算法的自适应切换。该方法有效解决了传统建模方案在复杂动态场景下精度不稳定、适应性差的问题,提升了三维场景重建的质量和效率。
技术关键词
场景
建模算法
重建误差
建模方法
策略数据库
姿态特征
点云
卡尔曼滤波算法
递归神经网络
复杂度
序列
视频
投影方法
直方图
特征点
动态
规模
卡尔曼滤波估计
RANSAC算法