摘要
本申请涉及数字人驱动交互技术领域,其具体地公开了一种虚拟数字人的实时驱动交互方法及系统,其采用基于深度学习的人工智能技术对数字人的对话输入文本进行语义解析,充分理解所述对话输入文本中各个动词之间的上下文语义关联,将各个动词的上下文语义特征与目标对象的人脸特征进行特征交互筛选,以将动作语义信息融入人脸特征中,进而基于融合动作语义信息的人脸特征,采用图像生成模型将其转化为连贯的数字人动作图像,以实现虚拟数字人的实时驱动与交互,可以有效提升虚拟数字人的动作表现能力,从而提高了交互的自然性和流畅性。