摘要
本发明涉及人机交互技术领域,具体涉及基于多模态感知的机器人行为模式动态调整方法,包括以下步骤:S1:实时采集目标场景的视觉图像、语音信号及环境参数;S2:提取各模态特征;S3:动态分配权重,生成融合特征向量;S4:识别当前场景类型及用户属性;S5:基于S4识别的场景类型及用户属性,从预设策略库中匹配对应的交互模式;S6:执行S5中匹配的交互模式,并根据反馈数据更新权重分配规则。本发明,通过多模态感知技术融合视觉、语音及环境特征,基于自适应加权融合算法动态调整机器人行为模式,并结合用户反馈优化交互策略,从而提升机器人在不同场景和用户属性下的交互精准度及智能化水平。