jjzjj

Python将头像照片转换为漫画,采用GAN深度学习,无噪点

程序员小西 2023-03-28 原文

传统的照片转漫画,使用边缘检测、双边滤波器和降采样,得到图像如下,可以看到,噪点很多,有些关键线条也没有展现出来。

本次采用GAN,GAN网络使用的方法是根据图像对去不断地学习,如输入图像1和对应已有的漫画B,GAN网络从图片1中获取关键特征,不停地生成一张图像C,当C与B的差值很小时停止,当有很多这样地图像对时,我们就有了一个模型。输入一张图像,就可以生成一张对应地漫画图像,我这次使用的GAN(White-box Cartoon)生成。生成效果:

图片.png
图片.png

原始图片大小建议为256*256像素

完整程序代码


import os
import cv2
import torch
import numpy as np
import torch.nn as nn

class ResBlock(nn.Module):
    def __init__(self, num_channel):
        super(ResBlock, self).__init__()
        self.conv_layer = nn.Sequential(
        nn.Conv2d(num_channel, num_channel, 3, 1, 1),
        nn.BatchNorm2d(num_channel),
        nn.ReLU(inplace=True),
        nn.Conv2d(num_channel, num_channel, 3, 1, 1),
        nn.BatchNorm2d(num_channel))
        self.activation = nn.ReLU(inplace=True)
        
        def forward(self, inputs):
            output = self.conv_layer(inputs)
            output = self.activation(output + inputs)
            return output
            
            
            class DownBlock(nn.Module):
                def __init__(self, in_channel, out_channel):
                    super(DownBlock, self).__init__()
                    self.conv_layer = nn.Sequential(
                    nn.Conv2d(in_channel, out_channel, 3, 2, 1),
                    nn.BatchNorm2d(out_channel),
                    nn.ReLU(inplace=True),
                    nn.Conv2d(out_channel, out_channel, 3, 1, 1),
                    nn.BatchNorm2d(out_channel),
                    nn.ReLU(inplace=True))
                    
                    
                    def forward(self, inputs):
                        output = self.conv_layer(inputs)
                        return output
                        
                        
                        class UpBlock(nn.Module):
                            def __init__(self, in_channel, out_channel, is_last=False):
                                super(UpBlock, self).__init__()
                                self.is_last = is_last
                                self.conv_layer = nn.Sequential(
                                nn.Conv2d(in_channel, in_channel, 3, 1, 1),
                                nn.BatchNorm2d(in_channel),
                                nn.ReLU(inplace=True),
                                nn.Upsample(scale_factor=2),
                                nn.Conv2d(in_channel, out_channel, 3, 1, 1))
                                self.act = nn.Sequential(
                                nn.BatchNorm2d(out_channel),
                                nn.ReLU(inplace=True))
                                self.last_act = nn.Tanh()
                                
                                
                                def forward(self, inputs):
                                    output = self.conv_layer(inputs)
                                    if self.is_last:
                                        output = self.last_act(output)
                                    else:
                                        output = self.act(output)
                                        return output
                                        
                                        
                                        
                                        class SimpleGenerator(nn.Module):
                                            def __init__(self, num_channel=32, num_blocks=4):
                                                super(SimpleGenerator, self).__init__()
                                                self.down1 = DownBlock(3, num_channel)
                                                self.down2 = DownBlock(num_channel, num_channel*2)
                                                self.down3 = DownBlock(num_channel*2, num_channel*3)
                                                self.down4 = DownBlock(num_channel*3, num_channel*4)
                                                res_blocks = [ResBlock(num_channel*4)]*num_blocks
                                                self.res_blocks = nn.Sequential(*res_blocks)
                                                self.up1 = UpBlock(num_channel*4, num_channel*3)
                                                self.up2 = UpBlock(num_channel*3, num_channel*2)
                                                self.up3 = UpBlock(num_channel*2, num_channel)
                                                self.up4 = UpBlock(num_channel, 3, is_last=True)
                                                
                                                def forward(self, inputs):
                                                    down1 = self.down1(inputs)
                                                    down2 = self.down2(down1)
                                                    down3 = self.down3(down2)
                                                    down4 = self.down4(down3)
                                                    down4 = self.res_blocks(down4)
                                                    up1 = self.up1(down4)
                                                    up2 = self.up2(up1+down3)
                                                    up3 = self.up3(up2+down2)
                                                    up4 = self.up4(up3+down1)
                                                    return up4
                                                    weight = torch.load('weight.pth', map_location='cpu')
                                                    model = SimpleGenerator()
                                                    model.load_state_dict(weight)
                                                    model.eval()
                                                    
                                                    img = cv2.imread(r'input.jpg')
                                                    
                                                    image = img/127.5 - 1
                                                    image = image.transpose(2, 0, 1)
                                                    image = torch.tensor(image).unsqueeze(0)
                                                    output = model(image.float())
                                                    output = output.squeeze(0).detach().numpy()
                                                    output = output.transpose(1, 2, 0)
                                                    output = (output + 1) * 127.5
                                                    output = np.clip(output, 0, 255).astype(np.uint8)
                                                    cv2.imwrite('output.jpg', output)### unterminated keywords

需要完整源码,可以私信。

有关Python将头像照片转换为漫画,采用GAN深度学习,无噪点的更多相关文章

  1. python - 如何使用 Ruby 或 Python 创建一系列高音调和低音调的蜂鸣声? - 2

    关闭。这个问题是opinion-based.它目前不接受答案。想要改进这个问题?更新问题,以便editingthispost可以用事实和引用来回答它.关闭4年前。Improvethisquestion我想在固定时间创建一系列低音和高音调的哔哔声。例如:在150毫秒时发出高音调的蜂鸣声在151毫秒时发出低音调的蜂鸣声200毫秒时发出低音调的蜂鸣声250毫秒的高音调蜂鸣声有没有办法在Ruby或Python中做到这一点?我真的不在乎输出编码是什么(.wav、.mp3、.ogg等等),但我确实想创建一个输出文件。

  2. Python 相当于 Perl/Ruby ||= - 2

    这个问题在这里已经有了答案:关闭10年前。PossibleDuplicate:Pythonconditionalassignmentoperator对于这样一个简单的问题表示歉意,但是谷歌搜索||=并不是很有帮助;)Python中是否有与Ruby和Perl中的||=语句等效的语句?例如:foo="hey"foo||="what"#assignfooifit'sundefined#fooisstill"hey"bar||="yeah"#baris"yeah"另外,类似这样的东西的通用术语是什么?条件分配是我的第一个猜测,但Wikipediapage跟我想的不太一样。

  3. java - 什么相当于 ruby​​ 的 rack 或 python 的 Java wsgi? - 2

    什么是ruby​​的rack或python的Java的wsgi?还有一个路由库。 最佳答案 来自Python标准PEP333:Bycontrast,althoughJavahasjustasmanywebapplicationframeworksavailable,Java's"servlet"APImakesitpossibleforapplicationswrittenwithanyJavawebapplicationframeworktoruninanywebserverthatsupportstheservletAPI.ht

  4. 华为OD机试用Python实现 -【明明的随机数】 2023Q1A - 2

    华为OD机试题本篇题目:明明的随机数题目输入描述输出描述:示例1输入输出说明代码编写思路最近更新的博客华为od2023|什么是华为od,od薪资待遇,od机试题清单华为OD机试真题大全,用Python解华为机试题|机试宝典【华为OD机试】全流程解析+经验分享,题型分享,防作弊指南华为o

  5. python - 如何读取 MIDI 文件、更改其乐器并将其写回? - 2

    我想解析一个已经存在的.mid文件,改变它的乐器,例如从“acousticgrandpiano”到“violin”,然后将它保存回去或作为另一个.mid文件。根据我在文档中看到的内容,该乐器通过program_change或patch_change指令进行了更改,但我找不到任何在已经存在的MIDI文件中执行此操作的库.他们似乎都只支持从头开始创建的MIDI文件。 最佳答案 MIDIpackage会为您完成此操作,但具体方法取决于midi文件的原始内容。一个MIDI文件由一个或多个音轨组成,每个音轨是十六个channel中任何一个上的

  6. 「Python|Selenium|场景案例」如何定位iframe中的元素? - 2

    本文主要介绍在使用Selenium进行自动化测试或者任务时,对于使用了iframe的页面,如何定位iframe中的元素文章目录场景描述解决方案具体代码场景描述当我们在使用Selenium进行自动化测试的时候,可能会遇到一些界面或者窗体是使用HTML的iframe标签进行承载的。对于iframe中的标签,如果直接查找是无法找到的,会抛出没有找到元素的异常。比如近在咫尺的例子就是,CSDN的登录窗体就是使用的iframe,大家可以尝试通过F12开发者模式查看到的tag_name,class_name,id或者xpath来定位中的页面元素,会抛出NoSuchElementException异常。解决

  7. LC滤波器设计学习笔记(一)滤波电路入门 - 2

    目录前言滤波电路科普主要分类实际情况单位的概念常用评价参数函数型滤波器简单分析滤波电路构成低通滤波器RC低通滤波器RL低通滤波器高通滤波器RC高通滤波器RL高通滤波器部分摘自《LC滤波器设计与制作》,侵权删。前言最近需要学习放大电路和滤波电路,但是由于只在之前做音乐频谱分析仪的时候简单了解过一点点运放,所以也是相当从零开始学习了。滤波电路科普主要分类滤波器:主要是从不同频率的成分中提取出特定频率的信号。有源滤波器:由RC元件与运算放大器组成的滤波器。可滤除某一次或多次谐波,最普通易于采用的无源滤波器结构是将电感与电容串联,可对主要次谐波(3、5、7)构成低阻抗旁路。无源滤波器:无源滤波器,又称

  8. CAN协议的学习与理解 - 2

    最近在学习CAN,记录一下,也供大家参考交流。推荐几个我觉得很好的CAN学习,本文也是在看了他们的好文之后做的笔记首先是瑞萨的CAN入门,真的通透;秀!靠这篇我竟然2天理解了CAN协议!实战STM32F4CAN!原文链接:https://blog.csdn.net/XiaoXiaoPengBo/article/details/116206252CAN详解(小白教程)原文链接:https://blog.csdn.net/xwwwj/article/details/105372234一篇易懂的CAN通讯协议指南1一篇易懂的CAN通讯协议指南1-知乎(zhihu.com)视频推荐CAN总线个人知识总

  9. 深度学习部署:Windows安装pycocotools报错解决方法 - 2

    深度学习部署:Windows安装pycocotools报错解决方法1.pycocotools库的简介2.pycocotools安装的坑3.解决办法更多Ai资讯:公主号AiCharm本系列是作者在跑一些深度学习实例时,遇到的各种各样的问题及解决办法,希望能够帮助到大家。ERROR:Commanderroredoutwithexitstatus1:'D:\Anaconda3\python.exe'-u-c'importsys,setuptools,tokenize;sys.argv[0]='"'"'C:\\Users\\46653\\AppData\\Local\\Temp\\pip-instal

  10. python ffmpeg 使用 pyav 转换 一组图像 到 视频 - 2

    2022/8/4更新支持加入水印水印必须包含透明图像,并且水印图像大小要等于原图像的大小pythonconvert_image_to_video.py-f30-mwatermark.pngim_dirout.mkv2022/6/21更新让命令行参数更加易用新的命令行使用方法pythonconvert_image_to_video.py-f30im_dirout.mkvFFMPEG命令行转换一组JPG图像到视频时,是将这组图像视为MJPG流。我需要转换一组PNG图像到视频,FFMPEG就不认了。pyav内置了ffmpeg库,不需要系统带有ffmpeg工具因此我使用ffmpeg的python包装p

随机推荐