CV大佬朱俊彦的新论文,让动画师感觉危了。只需要一句话,模型就能将其生成一个风格一致,画质细腻的动画。以梵高星之夜为参考,创作一个山前小溪流过的画面。又或以阿夫列莫夫的风格,创作一个瀑布从山间飞跃而下的景观。近日,来自CMU和Snap机构的研究人员,构建了一个根据文本描述创建电影画面的全自动方法——Text2Cinemagraph。图片论文地址:https://arxiv.org/pdf/2307.03190.pdf另外,研究人员展示了2个扩展功能,为现有绘画制作动画,以及使用文本控制运动方向。不如,我们先看一波演示吧。演示来袭上面梵高星之夜的小溪流向,动动嘴就能控制。比如,从左到右。再从右到
图像生成是当前AIGC领域最热门的方向之一。近期发布的图像生成模型如DALL・E2、Imagen、StableDiffusion等等,开创了图像生成的新时代,实现了前所未有的图像质量和模型灵活性水平。扩散模型也成为目前占据主导地位的范式。然而,扩散模型依赖于迭代推理,这是一把双刃剑,因为迭代方法可以实现具有简单目标的稳定训练,但推理过程需要高昂的计算成本。在扩散模型之前,生成对抗网络(GAN)是图像生成模型中常用的基础架构。相比于扩散模型,GAN通过单个前向传递生成图像,因此本质上是更高效的,但由于训练过程的不稳定性,扩展GAN需要仔细调整网络架构和训练因素。因此,GAN擅长对单个或多个对象类
图像生成是当前AIGC领域最热门的方向之一。近期发布的图像生成模型如DALL・E2、Imagen、StableDiffusion等等,开创了图像生成的新时代,实现了前所未有的图像质量和模型灵活性水平。扩散模型也成为目前占据主导地位的范式。然而,扩散模型依赖于迭代推理,这是一把双刃剑,因为迭代方法可以实现具有简单目标的稳定训练,但推理过程需要高昂的计算成本。在扩散模型之前,生成对抗网络(GAN)是图像生成模型中常用的基础架构。相比于扩散模型,GAN通过单个前向传递生成图像,因此本质上是更高效的,但由于训练过程的不稳定性,扩展GAN需要仔细调整网络架构和训练因素。因此,GAN擅长对单个或多个对象类