小时候看动画片时,总是震撼于动画梦工厂里能让一幅画动起来的操作。也幻想过有朝一日成为神笔马良,能够让照片的人物动起来,而现在已经有了让照片面部表情动态化的成熟产品。那么给定一个人的照片,能不能让这个人模仿规定的动作动起来呢?与照片面部表情的动态生成相比,这个挑战更为复杂,因为它涉及对人体姿势随时间变化的理解,以及学习有关人类外观和服装细节的先验知识。近期,加州大学伯克利分校的研究团队提出了3DHM,这是一个基于扩散模型的两阶段框架,可以利用单张照片生成人物动画。首先,通过学习关于人体和服装的先验知识,以及单张照片中服装和纹理与动作的映射,然后渲染3D人物,从而合成一系列与目标动作相符,且与输入