摘要
本发明公开了一种基于面部肌肉运动分析的脸部表情动画驱动方法,所述方法包括如下步骤:一、获取目标表情的归一化地标数据分布LandMark;二、确定基础表情,建立脸部网格模型,每个地标点与相邻地标点连线,组成单个弹簧S,针对对应的肌肉分配相应的弹簧集C;三、当表情发生变化时,通过计算获得纵向形变弹簧的形变系数集Vc与径向形变弹簧的形变系数集Hc;四、根据Vc与Hc控制虚拟角色表皮下的肌肉的径向形变与纵向形变,然后设置肌肉权重驱动角色表皮的变化。该方法不仅减少了面部目标融合表情模型的制作数量,还缩减了最终动画模型文件的数据量,而且不会出现脸部表情塌陷的情况,能够更真实地反映表情的皮下肌肉运动效果。