Revise the space problem about Training-SD-with-Dreambooth-cn.md
#13
by
innovation64
- opened
Training-SD-with-Dreambooth-cn.md
CHANGED
@@ -1,36 +1,36 @@
|
|
1 |
-
# 使用Diffusers 通过Dreambooth技术来训练Stable Diffusion
|
2 |
|
3 |
[Dreambooth](https://dreambooth.github.io/) 是一种使用专门的微调形式来训练 [Stable Diffusion](https://huggingface.co/blog/stable_diffusion) 的新概念技术。一些人用他仅仅使用很少的他们的照片训练出了一个很棒的照片,有一些人用他去尝试新的风格。[🧨 Diffusers](https://github.com/huggingface/diffusers)提供一个Dreambooth[训练脚本](https://github.com/huggingface/diffusers/tree/main/examples/dreambooth).这使得训练不会花费很长时间,但是他比较难筛选正确的超参数并且容易过拟合。
|
4 |
|
5 |
-
我们做了许多实验来分析不同设置下Dreambooth的效果。本文展示了我们的发现和一些小技巧来帮助你在用Dreambooth微调Stable Diffusion的时候提升结果。
|
6 |
|
7 |
-
在开始之前,请注意该方法禁止应用在恶意行为上,来生成一些有害的东西,或者在没有相关背景下冒充某人。该模型的训练参照CreativeML Open RAIL-M
|
8 |
|
9 |
-
*注意:该帖子的先前版本已出版为W&B报告*
|
10 |
|
11 |
## TL;DR:推荐设置
|
12 |
|
13 |
-
- Dreambooth很容易快速过拟合,为了获取高质量图片,我们必须找到一个"sweet spot"在训练步骤和学习率之间。我们推荐使用低学习率和逐步增加步数直到达到比较满意的状态策略。
|
14 |
-
- Dreambooth需要更多的脸部训练步数。在我们的实验中,当BS设置为2,学习率设置为1e-6,800-1200步训练的很好。
|
15 |
- 先前提到的对于当训练脸部时避免过拟合非常重要。但对于其他主题可能影响就没那么大了。
|
16 |
-
- 如果你看到生成的图片噪声很大质量很低。这通常意味着过拟合了。首先,先尝试上述步骤去避免他。如果生成的图片依旧充满噪声。使用DDIM 调度器或者运行更多推理步骤(对于我们的实验大概100左右就很好了)
|
17 |
-
- 训练文本编码器对于UNet的质量有很大影响。我们最优的实验配置包括使用文本编码器微调,低学习率和一个适合的步数。但是,微调文本编码器需要更多的内存,所以理想设置是一个至少24G显存的GPU.使用像8bit adam,fp 16 ,或梯度累计技巧有可能在像Colab或Kaggle提供的16G的GPU上训练。
|
18 |
-
- EMA对于微调不重要
|
19 |
-
- 没有必要用sks词汇训练Dreambooth。最早的实现之一是因为它在词汇中是罕见的token,但实际上是一种rifle.我们的实验或其他像[@nitrosocke](https://huggingface.co/nitrosocke)的例子都表明使用自然语言描述你的目标是没问题的。
|
20 |
|
21 |
## 学习率影响
|
22 |
|
23 |
-
Dreambooth
|
24 |
|
25 |
## 实验设置
|
26 |
|
27 |
-
所有的实验使用[train_deambooth.py](https://github.com/huggingface/diffusers/tree/main/examples/dreambooth)脚本,使用AdamW优化器在2X40G的A00机器上运行。我们采用相同的随机种子和保持所有超参相同,除了学习率,训练步骤和先前保留配置。
|
28 |
|
29 |
-
对于前三个例子(不同对象),我们微调模型配置为bs=4(每个GPU分2个),400
|
30 |
|
31 |
-
最后一个实验尝试把人加入模型,我们使用先去保留配置同时bs=2(每个GPU分1个),800-1200
|
32 |
|
33 |
-
你可以使用8bit adam,fp16精度训练,梯度累计去减少内存的需要,并执行相同的实验在一个16G显存的机器上。
|
34 |
|
35 |
#### Toy 猫
|
36 |
|
@@ -96,7 +96,7 @@ Dreambooth很容易过拟合,为了获得好的结果,设置针对你数据
|
|
96 |
|
97 |
## 调度程序的效果
|
98 |
|
99 |
-
在前面的示例中,我们使用PNDM调度程序在推理过程中示例图像。我们观察到,当模型过度时,DDIM通常比PNDM和LMSDISCRETE好得多。此外,通过推断更多步骤可以提高质量:100似乎是一个不错的选择。附加步骤有助于将一些噪声贴在图像详细信息中。
|
100 |
|
101 |
PNDM, Kramer 脸
|
102 |
|
@@ -126,7 +126,7 @@ DDIM, 土豆头
|
|
126 |
|
127 |
## 微调文本编码器
|
128 |
|
129 |
-
原始的Dreambooth论文讲述了一个微调UNet网络部分但是冻结文本编码部分的方法。然而我们观察到微调文本编码会获得更好的效果。在看到其他Dreambooth实施中使用的方法后,我们尝试了这种方法,结果令人惊讶!
|
130 |
|
131 |
冻结文本编码器
|
132 |
|
@@ -142,11 +142,11 @@ DDIM, 土豆头
|
|
142 |
|
143 |
我们还进行了最后一个实验,将[Textual Inversion](https://textual-inversion.github.io/)与Dreambooth结合在一起。两种技术都有相似的目标,但是它们的方法不同。
|
144 |
|
145 |
-
在本次实验中我们首先用Textual Inversion跑了2000步。接着那个模型我们又跑了Dreambooth额外的500步,学习率为1e-6。结果如下:
|
146 |
|
147 |
![](https://huggingface.co/datasets/huggingface/documentation-images/resolve/main/blog/dreambooth-assets/h_textual_inversion_dreambooth.jpg)
|
148 |
|
149 |
-
我们认为,结果比进行简单的Dreambooth要好得多,但不如我们调整整个文本编码器时那样好。它似乎可以更多地复制训练图像的样式,因此对它们可能会过度拟合。我们没有进一步探索这种组合,但是这可能是改善Dreambooth适合16GB GPU的过程的有趣替代方法。欢迎随时探索并告诉我们您的结果!
|
150 |
|
151 |
<hr>
|
152 |
|
|
|
1 |
+
# 使用 Diffusers 通过 Dreambooth 技术来训练 Stable Diffusion
|
2 |
|
3 |
[Dreambooth](https://dreambooth.github.io/) 是一种使用专门的微调形式来训练 [Stable Diffusion](https://huggingface.co/blog/stable_diffusion) 的新概念技术。一些人用他仅仅使用很少的他们的照片训练出了一个很棒的照片,有一些人用他去尝试新的风格。[🧨 Diffusers](https://github.com/huggingface/diffusers)提供一个Dreambooth[训练脚本](https://github.com/huggingface/diffusers/tree/main/examples/dreambooth).这使得训练不会花费很长时间,但是他比较难筛选正确的超参数并且容易过拟合。
|
4 |
|
5 |
+
我们做了许多实验来分析不同设置下 Dreambooth 的效果。本文展示了我们的发现和一些小技巧来帮助你在用 Dreambooth 微调 Stable Diffusion 的时候提升结果。
|
6 |
|
7 |
+
在开始之前,请注意该方法禁止应用在恶意行为上,来生成一些有害的东西,或者在没有相关背景下冒充某人。该模型的训练参照 CreativeML Open RAIL-M 许可。
|
8 |
|
9 |
+
*注意:该帖子的先前版本已出版为 W&B 报告*
|
10 |
|
11 |
## TL;DR:推荐设置
|
12 |
|
13 |
+
- Dreambooth 很容易快速过拟合,为了获取高质量图片,我们必须找到一个 "sweet spot" 在训练步骤和学习率之间。我们推荐使用低学习率和逐步增加步数直到达到比较满意的状态策略。
|
14 |
+
- Dreambooth 需要更多的脸部训练步数。在我们的实验中,当 BS 设置为2,学习率设置为1e-6,800-1200步训练的很好。
|
15 |
- 先前提到的对于当训练脸部时避免过拟合非常重要。但对于其他主题可能影响就没那么大了。
|
16 |
+
- 如果你看到生成的图片噪声很大质量很低。这通常意味着过拟合了。首先,先尝试上述步骤去避免他。如果生成的图片依旧充满噪声。使用 DDIM 调度器或者运行更多推理步骤(对于我们的实验大概100左右就很好了)
|
17 |
+
- 训练文本编码器对于UNet的质量有很大影响。我们最优的实验配置包括使用文本编码器微调,低学习率和一个适合的步数。但是,微调文本编码器需要更多的内存,所以理想设置是一个至少24G显存的GPU.使用像 8bit adam,fp 16 ,或梯度累计技巧有可能在像Colab或Kaggle提供的16G的GPU上训练。
|
18 |
+
- EMA 对于微调不重要
|
19 |
+
- 没有必要用sks词汇训练 Dreambooth 。最早的实现之一是因为它在词汇中是罕见的 token ,但实际上是一种 rifle .我们的实验或其他像[@nitrosocke](https://huggingface.co/nitrosocke)的例子都表明使用自然语言描述你的目标是没问题的。
|
20 |
|
21 |
## 学习率影响
|
22 |
|
23 |
+
Dreambooth 很容易过拟合,为了获得好的结果,设置针对你数据集合理的学习率和训练步数。在我们的实验中(细节如下),我们微调了四种不同的数据集用不同的高或低的��习率。总的来说,我们在低学习率的情况下获得了更好的结果。
|
24 |
|
25 |
## 实验设置
|
26 |
|
27 |
+
所有的实验使用[train_deambooth.py](https://github.com/huggingface/diffusers/tree/main/examples/dreambooth)脚本,使用 AdamW 优化器在2X40G的A00机器上运行。我们采用相同的随机种子和保持所有超参相同,除了学习率,训练步骤和先前保留配置。
|
28 |
|
29 |
+
对于前三个例子(不同对象),我们微调模型配置为 bs = 4(每个GPU分2个),400步。一个高学习率 = 5e-6,一个低学习率 = 2e-6。无先前保留配置。
|
30 |
|
31 |
+
最后一个实验尝试把人加入模型,我们使用先去保留配置同时 bs = 2(每个GPU分1个),800-1200步.一个高学习率 = 5e-6,一个低学习率 = 2e-6.
|
32 |
|
33 |
+
你可以使用 8bit adam,fp16 精度训练,梯度累计去减少内存的需要,并执行相同的实验在一个16G显存的机器上。
|
34 |
|
35 |
#### Toy 猫
|
36 |
|
|
|
96 |
|
97 |
## 调度程序的效果
|
98 |
|
99 |
+
在前面的示例中,我们使用 PNDM 调度程序在推理过程中示例图像。我们观察到,当模型过度时,DDIM 通常比 PNDM 和 LMSDISCRETE 好得多。此外,通过推断更多步骤可以提高质量:100似乎是一个不错的选择。附加步骤有助于将一些噪声贴在图像详细信息中。
|
100 |
|
101 |
PNDM, Kramer 脸
|
102 |
|
|
|
126 |
|
127 |
## 微调文本编码器
|
128 |
|
129 |
+
原始的 Dreambooth 论文讲述了一个微调 UNet 网络部分但是冻结文本编码部分的方法。然而我们观察到微调文本编码会获得更好的效果。在看到其他 Dreambooth 实施中使用的方法后,我们尝试了这种方法,结果令人惊讶!
|
130 |
|
131 |
冻结文本编码器
|
132 |
|
|
|
142 |
|
143 |
我们还进行了最后一个实验,将[Textual Inversion](https://textual-inversion.github.io/)与Dreambooth结合在一起。两种技术都有相似的目标,但是它们的方法不同。
|
144 |
|
145 |
+
在本次实验中我们首先用 Textual Inversion 跑了2000步。接着那个模型我们又跑了 Dreambooth 额外的500步,学习率为1e-6。结果如下:
|
146 |
|
147 |
![](https://huggingface.co/datasets/huggingface/documentation-images/resolve/main/blog/dreambooth-assets/h_textual_inversion_dreambooth.jpg)
|
148 |
|
149 |
+
我们认为,结果比进行简单的 Dreambooth 要好得多,但不如我们调整整个文本编码器时那样好。它似乎可以更多地复制训练图像的样式,因此对它们可能会过度拟合。我们没有进一步探索这种组合,但是这可能是改善 Dreambooth 适合16GB GPU的过程的有趣替代方法。欢迎随时探索并告诉我们您的结果!
|
150 |
|
151 |
<hr>
|
152 |
|