话不多说,先看视频 1.AnimateDiff的技术原理AnimateDiff可以搭配扩散模型算法(StableDiffusion)来生成高质量的动态视频,其中动态模型(MotionModels)用来实时跟踪人物的动作以及画面的改变。我们使用 AnimaeDiff实现时间一致性,使用ControlNet复制参考视频的运动,然后改变不同时间点的提示prompt,打造多种场景再组合成视频。它克服了 AnimateDiff运动不佳的弱点,并保持了较高的帧间一致性。工作流程文件执行的操作为1.将视频作为输入。2.将OpenPose预处理器应用于视频帧以提取人体姿势。3.将