输入“/”快速插入内容

AI 绘画 Stable Diffusion模型全网最详细入门手册

2023年4月13日创建
12195
AI 绘画 Stable Diffusion模型全网最详细入门手册
AIGC
admin
关注私信
在 Midjourney 关闭免费通道后,本地部署似乎才是更快乐的玩法。经过两天折腾,我深深迷上了 Stable Diffusion。
AI 零基础的我也在探索中,不断学习。AI 绘画背后的技术值得每一个人去学习,对技术的好奇心远比玩弄一个工具更有趣!
Stable Diffusion 是 2022 年发布的深度学习文字到图像生成模型。它主要用于根据文字的描述产生详细图像,能够在几秒钟内创作出令人惊叹的艺术作品,本文是一篇使用入门教程。
首先去Civitai 社区感受一下AI绘图的震撼效果
Civitai :是一个稳定扩散 AI 艺术模型的社区平台。收集了来自 250 多位创作者的 1,700 多个模型。还收集了来自社区的 1200 条评论以及 12,000 多张带有提示的图像,来帮助你入门。
Stable Diffusion开源地址
什么是 Stable Diffusion?
2022 年发布的稳定扩散(Stable Diffusion([1])) 是一个文本到图像生成的深度学习模型。它主要用于根据文本的描述产生详细图像,尽管它也可以应用于其他任务,如内补绘制、外补绘制,以及基于文本提示(英文)生成图像到图像的转换。该模型是由初创公司 Stability AI([2]) 与一些学术研究机构和非营利组织合作开发的。
Stable Diffusion 是一种潜在扩散模型,它的开发由初创公司 Stability AI 资助和塑造,模型的技术许可证由慕尼黑大学的 CompVis 小组发布。开发工作由 Runway([3]) 的 Patrick Esser 和 CompVis([4]) 的 Robin Rombach 领导,他们是早期发明稳定扩散使用的潜在扩散模型架构的研究人员之一。Stability AI 还将 EleutherAI([5]) 和 LAION([6])(一家德国非营利组织,他们组织了 Stable Diffusion 训练的数据集)列为该项目的支持者。
Stable Diffusion 的代码和模型权重已开源,并且可以在大多数消费级硬件上运行,配备至少 8 GB VRAM(Video random-access memory([7]))的适度 GPU。而以前的专有文生图模型(如 DALL-E([8]) 和 Midjourney([9]))只能通过云服务访问。
如何使用Stable Diffusion?
一、在线使用Stable Diffusion
虽然使用简单,但是大部分为阉割版(不支持模型选择,不支持否定提示(Negative Prompt),不支持插件等等),无法发挥其更大的能力。
Stable Diffusion 2.1 Demo([10]): Stable Diffusion 2.1 是 StabilityAI 最新的文本到图像模型。
此模型卡侧重于与 Stable Diffusion v2-1 模型相关联的模型,代码库可在此处获取。
stable-diffusion-2-1模型是从stable-diffusion-2 ( 768-v-ema.ckpt) 对同一数据集(使用 )进行额外 55k 步微调punsafe=0.1,然后使用 对另外 155k 步进行微调punsafe=0.98
在线版图片生成主要包含四部分:
Prompt 输入框:输入提示,即需要生成图片的文字描述,一般为英文短句或单词,以逗号进行分隔。
Negative Prompt 输入框:除了一些功能阉割网站不支持此功能外,Stable Diffusion 早期版本也不支持。否定提示也是一种输入提示,用来指定生成的图像中不应包含的内容。这些提示可用于微调模型的输出并确保它不会生成包含某些元素或特征的图像(达到过滤的目的)。和提示用法一样,以逗号进行分隔。(注意:否定提示可以阻止生成特定的事物、样式或修复某些图像异常,但并非 100% 有效)
Generate image 按钮:提示输入完成后,点击此按钮则开始生成图片。
图片展示区:此区域用来展示图片生成后的结果。
二、本地机器使用Stable Diffusion