摘要
本申请提供一种多模态融合的AR眼镜智能控制方法和系统,涉及人工智能和AR眼镜应用技术领域,该方法包括:采集用户的脑电信号、眼动信号、心率信号和皮电信号,建立用户生理特征数据库;通过与用户当前的实时生理特征数据对比识别用户的交互意图;再结合视线焦点位置生成交互控制指令和内容呈现参数对AR眼镜显示内容的空间分布进行调节;分别依据用户的视觉疲劳程度和实时生理特征数据,生成视觉舒适性参数和生理状态参数;依据加权结果调整AR眼镜的光学显示参数。实施该方法,使得用户即使在双手无法操作且语音交互受限的特殊工作环境下,也能实现AR眼镜的自然、稳定的交互控制,提升了系统在复杂场景下的实用性。