Update setfit-cn.md
Browse filesUpdate link to the images.
- setfit-cn.md +26 -13
setfit-cn.md
CHANGED
@@ -4,6 +4,13 @@
|
|
4 |
<p align="center">
|
5 |
<img src="assets/103_setfit/setfit_curves.png" width=500>
|
6 |
</p>
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
7 |
<p align="center">
|
8 |
<em > 与标准微调相比,SetFit 能更高效地利用训练样本,同时对噪声也更鲁棒。</em>
|
9 |
</p>
|
@@ -26,12 +33,13 @@ HuggingFace 非常高兴向大家介绍 SetFit:一个基于 [Sentence Transfor
|
|
26 |
|
27 |
在设计 SetFit 时,我们始终牢记高效、简单两个原则。SetFit 主要包含两个阶段:首先在少量标注样例(典型值是每类 8 个或 16 个样例)上微调一个 Sentence Transformer 模型。然后,用微调得到的 Sentence Tranformer 的模型生成文本的嵌入(embedding),并用这些嵌入训练一个分类头(classification head)。
|
28 |
|
29 |
-
<
|
30 |
-
|
31 |
-
|
32 |
-
|
|
|
33 |
<em>SetFit 的两阶段训练过程 </em>
|
34 |
-
</
|
35 |
|
36 |
SetFit 利用 Sentence Transformer 的能力去生成基于句对(paired sentences)的稠密嵌入。在第一步微调阶段,它使用对比训练(contrastive training)来最大化利用有限的标注数据。首先,通过选择类内(in-class)和类外(out-class)句子来构造正句对和负句对,然后在这些句对(或三元组(triplets))上训练 Sentence Transformer 模型并生成每个样本的稠密向量。第二步,根据每个样本的嵌入向量和各自的类标签,训练分类头。推理时,未见过的样本通过微调后的 Sentence Transformer 并生成嵌入,生成的嵌入随后被送入分类头并输出类标签的预测。
|
37 |
|
@@ -55,18 +63,23 @@ SetFit 利用 Sentence Transformer 的能力去生成基于句对(paired sente
|
|
55 |
|
56 |
在其他的数据集上,SeiFit 在各种各样的任务中也展示出了鲁棒的性能。如下图所示,每类仅需 8 个样本,其典型性能就超越了 PERFECT、ADAPET 以及微调后的原始 transformer 模型。SetFit 还取得了与 T-Few 3B 相当的结果,尽管它无需提示且模型小了 27 倍。
|
57 |
|
58 |
-
<
|
59 |
-
|
60 |
-
|
61 |
-
|
|
|
|
|
62 |
<em > 在 3 个分类数据集上比较 SetFit 与其他方法的性能 </em>
|
63 |
-
</
|
64 |
|
65 |
## 快速训练与推理
|
66 |
|
67 |
-
<
|
68 |
-
|
69 |
-
|
|
|
|
|
|
|
70 |
<p align="center">
|
71 |
在每类 8 个标注样本的条件下,比较 T-Few 3B 和 SetFit(MPNet)的训练成本和平均性能。
|
72 |
</p>
|
|
|
4 |
<p align="center">
|
5 |
<img src="assets/103_setfit/setfit_curves.png" width=500>
|
6 |
</p>
|
7 |
+
|
8 |
+
<div style="width:500px; margin:0 auto;">
|
9 |
+
|
10 |
+
![](assets/103_setfit/setfit_curves.png)
|
11 |
+
|
12 |
+
</div>
|
13 |
+
|
14 |
<p align="center">
|
15 |
<em > 与标准微调相比,SetFit 能更高效地利用训练样本,同时对噪声也更鲁棒。</em>
|
16 |
</p>
|
|
|
33 |
|
34 |
在设计 SetFit 时,我们始终牢记高效、简单两个原则。SetFit 主要包含两个阶段:首先在少量标注样例(典型值是每类 8 个或 16 个样例)上微调一个 Sentence Transformer 模型。然后,用微调得到的 Sentence Tranformer 的模型生成文本的嵌入(embedding),并用这些嵌入训练一个分类头(classification head)。
|
35 |
|
36 |
+
<div style="width: 700px; margin:0 auto;">
|
37 |
+
|
38 |
+
![](assets/103_setfit/setfit_diagram_process.png)
|
39 |
+
</div>
|
40 |
+
<div style="margin:0 auto;">
|
41 |
<em>SetFit 的两阶段训练过程 </em>
|
42 |
+
</div>
|
43 |
|
44 |
SetFit 利用 Sentence Transformer 的能力去生成基于句对(paired sentences)的稠密嵌入。在第一步微调阶段,它使用对比训练(contrastive training)来最大化利用有限的标注数据。首先,通过选择类内(in-class)和类外(out-class)句子来构造正句对和负句对,然后在这些句对(或三元组(triplets))上训练 Sentence Transformer 模型并生成每个样本的稠密向量。第二步,根据每个样本的嵌入向量和各自的类标签,训练分类头。推理时,未见过的样本通过微调后的 Sentence Transformer 并生成嵌入,生成的嵌入随后被送入分类头并输出类标签的预测。
|
45 |
|
|
|
63 |
|
64 |
在其他的数据集上,SeiFit 在各种各样的任务中也展示出了鲁棒的性能。如下图所示,每类仅需 8 个样本,其典型性能就超越了 PERFECT、ADAPET 以及微调后的原始 transformer 模型。SetFit 还取得了与 T-Few 3B 相当的结果,尽管它无需提示且模型小了 27 倍。
|
65 |
|
66 |
+
<div style="margin:0 auto; width:700px">
|
67 |
+
|
68 |
+
![](assets/103_setfit/three-tasks.png)
|
69 |
+
|
70 |
+
</div>
|
71 |
+
<div style="margin:0 auto;">
|
72 |
<em > 在 3 个分类数据集上比较 SetFit 与其他方法的性能 </em>
|
73 |
+
</div>
|
74 |
|
75 |
## 快速训练与推理
|
76 |
|
77 |
+
<div style="margin:0 auto; width:400px">
|
78 |
+
|
79 |
+
![](assets/103_setfit/bars.png)
|
80 |
+
|
81 |
+
</div>
|
82 |
+
|
83 |
<p align="center">
|
84 |
在每类 8 个标注样本的条件下,比较 T-Few 3B 和 SetFit(MPNet)的训练成本和平均性能。
|
85 |
</p>
|