摘要

目的设计一个通用、动态、自学习的虚拟数字人手势生成模型,为生成丰富情感表现力的虚拟数字人提供数据和模型基础。方法首先总结隐喻手势的语义分类方法,构建手势的量化描述语言,为手势的语义可计算提供量化方法;然后构建针对不同应用场景的情感语料库,标注手势的情感、手势隐喻语义和手势的量化描述,挖掘不同场景下虚拟数字人的行为模式,为虚拟数字人手势生成研究提供数据基础;最终提出基于应用场景的虚拟数字人手势生成算法,建立抽象的交流意图与手势的物理实现之间的映射,为生成具有环境认知能力的虚拟数字人提供模型支持。结果通过两个案例验证了该方法的有效性,解决了虚拟数字人对环境认知和互动不足的问题,使虚拟数字人具有了行为的交互性和思想的智能性。结论研究成果可推动虚拟数字人技术的发展,为虚拟数字人在不同场景下的广泛应用提供数据和模型基础,具有广泛的学术意义和应用前景。

全文