jjzjj

【商业案例】IP-Adapter + tag 画风转绘

 其他方法参考:【商业案例】tile转绘-CSDN博客模型下载地址:https://huggingface.co/lllyasviel/sd_control_collection/tree/7cf256327b341fedc82e00b0d7fb5481ad693210https://huggingface.co/lllyasviel/sd_control_collection/tree/7cf256327b341fedc82e00b0d7fb5481ad693210模型存放目录:sd-webui-aki\models\ControlNet单独使用IP-Adapter并不好用1:反推获得图片提

AI作画,国风油画风随心定制~ Stable Diffusion模型使用,三步就上手

前言最近,AIGC(即AIGeneratedContent,是指利用人工智能技术来生成内容)真的是火出了天际。除了被挤到服务器满负荷的chatGPT,另一个也颇受瞩目的领域当属AI作画了。利用开源的一类“扩散(diffusion)”模型,你可以随时用AI进行绘画创作。除了常见的网页版注册->输入文本->调用API->等待画作生成->截图或下载保存的流程,当然,作为一个不想被限制的开发者,相信一定有小伙伴想在自己的电脑上、畅行无阻的进行创作。那么就跟随我们下面的简单三个步骤,来看看怎么样在自己的电脑上就能方便快速地搭建好运行StableDiffusion模型pipeline的环境、随心所欲的让A

AI作画,国风油画风随心定制~ Stable Diffusion模型使用,三步就上手

前言最近,AIGC(即AIGeneratedContent,是指利用人工智能技术来生成内容)真的是火出了天际。除了被挤到服务器满负荷的chatGPT,另一个也颇受瞩目的领域当属AI作画了。利用开源的一类“扩散(diffusion)”模型,你可以随时用AI进行绘画创作。除了常见的网页版注册->输入文本->调用API->等待画作生成->截图或下载保存的流程,当然,作为一个不想被限制的开发者,相信一定有小伙伴想在自己的电脑上、畅行无阻的进行创作。那么就跟随我们下面的简单三个步骤,来看看怎么样在自己的电脑上就能方便快速地搭建好运行StableDiffusion模型pipeline的环境、随心所欲的让A

Intel第二代酷睿Ultra处理器画风突变:自研2nm没了

Intel处理器产品路线,似乎又发生了微妙变化。博主金猪升级包爆料ArrowLake(箭头湖)放弃了Intel20A工艺,取而代之的是Intel3或者外部代工厂。随后,另一位国外大神Xinoassassin1修正称,ArrowLake并非Intel3,而是台积电N3B。第二代酷睿Ultra!IntelArrowLake处理器画风突变:自研2nm换用台积电3nm还不清楚Intel20A或者Intel3遇到了什么问题,还是说Intel宣布转型拥抱外部代工后发现,台积电的3nm更能满足需求。因为前不久Intel对处理器命名进行了一次大调整,首次引入CoreUltra5/7/9和Core3/5/7,外

【Midjourney】Midjourney 的 Prompt 指令类型 ( 画风指令 | 人物细节指令 | 灯光镜头指令 | 艺术家风格指令 )

文章目录一、Midjourney的Prompt详细指令规则二、Midjourney的画风指令关键词1、超现实主义2、注重细节描写3、Artstation画风4、数字绘画风格5、漫画风格6、线条艺术三、Midjourney的人物细节描写关键词1、面部特征描写2、身体描写3、生成示例14、生成示例2四、Midjourney添加灯光照明1、灯光照明提示词2、镜头光晕提示词效果3、电影照明提示词效果五、Midjourney艺术家风格1、艺术家风格提示词2、萨尔瓦多·达利超现实主义实例3、詹姆斯格尼概念艺术实例一、Midjourney的Prompt详细指令规则在Midjourney中,使用简单的指令,如

ControlNet大更新:仅靠提示词就能精准P图,保持画风不变,网友:效果堪比定制大模型

本文经AI新媒体量子位(公众号ID:QbitAI)授权转载,转载请联系出处。StableDiffusion插件、“AI绘画细节控制大师”ControlNet迎来重磅更新:只需使用文本提示词,就能在保持图像主体特征的前提下,任意修改图像细节。比如给美女从头发到衣服都换身造型,表情更亲和一点:抑或是让模特从甜美邻家女孩切换到高冷御姐,身体和头部的朝向、背景都换个花样儿:——不管细节怎么修改,原图的“灵魂”都还在。除了这种风格,动漫类型的它也能驾驭得恰到好处:来自推特的AI设计博主@sundyme就称:效果比想象得要好!只需要一张参考图就能完成以上转变,部分图片几乎可以达到定制大模型的效果了。咳咳,

基于 PyTorch 和神经网络给 GirlFriend 制作漫画风头像

摘要:本文中我们介绍的AnimeGAN就是GitHub上一款爆火的二次元漫画风格迁移工具,可以实现快速的动画风格迁移。本文分享自华为云社区《AnimeGANv2照片动漫化:如何基于PyTorch和神经网络给GirlFriend制作漫画风头像?【秋招特训】》,作者:白鹿第一帅。前言将现实世界场景的照片转换为动漫风格图像的方法,这是计算机视觉和艺术风格转换中一项有意义且具有挑战性的任务,而本文中我们介绍的AnimeGAN就是GitHub上一款爆火的二次元漫画风格迁移工具,可以实现快速的动画风格迁移。该工具是基于神经风格迁移和生成对抗网络(GAN)技术打造的,相比于传统的神经网络模型,GAN是一种全

基于 PyTorch 和神经网络给 GirlFriend 制作漫画风头像

摘要:本文中我们介绍的AnimeGAN就是GitHub上一款爆火的二次元漫画风格迁移工具,可以实现快速的动画风格迁移。本文分享自华为云社区《AnimeGANv2照片动漫化:如何基于PyTorch和神经网络给GirlFriend制作漫画风头像?【秋招特训】》,作者:白鹿第一帅。前言将现实世界场景的照片转换为动漫风格图像的方法,这是计算机视觉和艺术风格转换中一项有意义且具有挑战性的任务,而本文中我们介绍的AnimeGAN就是GitHub上一款爆火的二次元漫画风格迁移工具,可以实现快速的动画风格迁移。该工具是基于神经风格迁移和生成对抗网络(GAN)技术打造的,相比于传统的神经网络模型,GAN是一种全

基于 Serverless 架构的头像漫画风处理小程序

作者:刘宇(花名:江昱)前言我一直都想要有一个漫画版的头像,奈何手太笨,用了很多软件“捏不出来”,所以就在想着,是否可以基于AI实现这样一个功能,并部署到Serverless架构上让更多人来尝试使用呢?后端项目后端项目采用业界鼎鼎有名的动漫风格转化滤镜库AnimeGAN的v2版本,效果大概如下:关于这个模型的具体的信息,在这里不做详细的介绍和说明。通过与PythonWeb框架结合,将AI模型通过接口对外暴露:fromPILimportImageimportioimporttorchimportbase64importbottleimportrandomimportjsoncacheDir='/

基于 Serverless 架构的头像漫画风处理小程序

作者:刘宇(花名:江昱)前言我一直都想要有一个漫画版的头像,奈何手太笨,用了很多软件“捏不出来”,所以就在想着,是否可以基于AI实现这样一个功能,并部署到Serverless架构上让更多人来尝试使用呢?后端项目后端项目采用业界鼎鼎有名的动漫风格转化滤镜库AnimeGAN的v2版本,效果大概如下:关于这个模型的具体的信息,在这里不做详细的介绍和说明。通过与PythonWeb框架结合,将AI模型通过接口对外暴露:fromPILimportImageimportioimporttorchimportbase64importbottleimportrandomimportjsoncacheDir='/
12