摘要

为了从单幅图像或者多幅图像中重建出可变形的着装人体,提出了一种采用蒙皮多人线性模型(skinned multi-personlinear model, SMPL)的多级拓扑构建的图卷积神经网络(multi-leveltopology graph convolutional network,MTGCN).首先,通过现有方法从图像中预计算对应姿势和体型的光滑人体SMPL模型,并通过图像特征提取网络得到人体的局部特征图;然后,将SMPL模型顶点投影到特征图中,以获取具体位置的局部特征;最后,利用MTGCN对模型顶点偏移产生着装效果,其下采样与上采样模块可融合局部特征从而获取全局特征,并结合残差模块用于弥补全局特征中丢失的局部信息,从而提升重建的人体质量.在使用MGN与SURREAL合成的图像数据集上,实验结果表明,与目前类似的工作相比,该方法能够产生更低的倒角距离误差与点到曲面的距离误差,并且在人体服装细节与人体部位等方面展示出了更好的结果.此外,生成的三维人体模型可以直接在姿势或者体型上变形,以快速生成着装人体动画.