Datasets:

Modalities:
Image
Size:
< 1K
Libraries:
Datasets
License:
xianbao HF staff commited on
Commit
255b5b2
1 Parent(s): 70bea8a

Update setfit-cn.md

Browse files

Update link to the images.

Files changed (1) hide show
  1. setfit-cn.md +26 -13
setfit-cn.md CHANGED
@@ -4,6 +4,13 @@
4
  <p align="center">
5
  <img src="assets/103_setfit/setfit_curves.png" width=500>
6
  </p>
 
 
 
 
 
 
 
7
  <p align="center">
8
  <em > 与标准微调相比,SetFit 能更高效地利用训练样本,同时对噪声也更鲁棒。</em>
9
  </p>
@@ -26,12 +33,13 @@ HuggingFace 非常高兴向大家介绍 SetFit:一个基于 [Sentence Transfor
26
 
27
  在设计 SetFit 时,我们始终牢记高效、简单两个原则。SetFit 主要包含两个阶段:首先在少量标注样例(典型值是每类 8 个或 16 个样例)上微调一个 Sentence Transformer 模型。然后,用微调得到的 Sentence Tranformer 的模型生成文本的嵌入(embedding),并用这些嵌入训练一个分类头(classification head)。
28
 
29
- <p align="center">
30
- <img src="assets/103_setfit/setfit_diagram_process.png" width=700>
31
- </p>
32
- <p align="center">
 
33
  <em>SetFit 的两阶段训练过程 </em>
34
- </p>
35
 
36
  SetFit 利用 Sentence Transformer 的能力去生成基于句对(paired sentences)的稠密嵌入。在第一步微调阶段,它使用对比训练(contrastive training)来最大化利用有限的标注数据。首先,通过选择类内(in-class)和类外(out-class)句子来构造正句对和负句对,然后在这些句对(或三元组(triplets))上训练 Sentence Transformer 模型并生成每个样本的稠密向量。第二步,根据每个样本的嵌入向量和各自的类标签,训练分类头。推理时,未见过的样本通过微调后的 Sentence Transformer 并生成嵌入,生成的嵌入随后被送入分类头并输出类标签的预测。
37
 
@@ -55,18 +63,23 @@ SetFit 利用 Sentence Transformer 的能力去生成基于句对(paired sente
55
 
56
  在其他的数据集上,SeiFit 在各种各样的任务中也展示出了鲁棒的性能。如下图所示,每类仅需 8 个样本,其典型性能就超越了 PERFECT、ADAPET 以及微调后的原始 transformer 模型。SetFit 还取得了与 T-Few 3B 相当的结果,尽管它无需提示且模型小了 27 倍。
57
 
58
- <p align="center">
59
- <img src="assets/103_setfit/three-tasks.png" width=700>
60
- </p>
61
- <p align="center">
 
 
62
  <em > 在 3 个分类数据集上比较 SetFit 与其他方法的性能 </em>
63
- </p>
64
 
65
  ## 快速训练与推理
66
 
67
- <p align="center">
68
- <img src="assets/103_setfit/bars.png" width=400>
69
- </p>
 
 
 
70
  <p align="center">
71
  在每类 8 个标注样本的条件下,比较 T-Few 3B 和 SetFit(MPNet)的训练成本和平均性能。
72
  </p>
 
4
  <p align="center">
5
  <img src="assets/103_setfit/setfit_curves.png" width=500>
6
  </p>
7
+
8
+ <div style="width:500px; margin:0 auto;">
9
+
10
+ ![](assets/103_setfit/setfit_curves.png)
11
+
12
+ </div>
13
+
14
  <p align="center">
15
  <em > 与标准微调相比,SetFit 能更高效地利用训练样本,同时对噪声也更鲁棒。</em>
16
  </p>
 
33
 
34
  在设计 SetFit 时,我们始终牢记高效、简单两个原则。SetFit 主要包含两个阶段:首先在少量标注样例(典型值是每类 8 个或 16 个样例)上微调一个 Sentence Transformer 模型。然后,用微调得到的 Sentence Tranformer 的模型生成文本的嵌入(embedding),并用这些嵌入训练一个分类头(classification head)。
35
 
36
+ <div style="width: 700px; margin:0 auto;">
37
+
38
+ ![](assets/103_setfit/setfit_diagram_process.png)
39
+ </div>
40
+ <div style="margin:0 auto;">
41
  <em>SetFit 的两阶段训练过程 </em>
42
+ </div>
43
 
44
  SetFit 利用 Sentence Transformer 的能力去生成基于句对(paired sentences)的稠密嵌入。在第一步微调阶段,它使用对比训练(contrastive training)来最大化利用有限的标注数据。首先,通过选择类内(in-class)和类外(out-class)句子来构造正句对和负句对,然后在这些句对(或三元组(triplets))上训练 Sentence Transformer 模型并生成每个样本的稠密向量。第二步,根据每个样本的嵌入向量和各自的类标签,训练分类头。推理时,未见过的样本通过微调后的 Sentence Transformer 并生成嵌入,生成的嵌入随后被送入分类头并输出类标签的预测。
45
 
 
63
 
64
  在其他的数据集上,SeiFit 在各种各样的任务中也展示出了鲁棒的性能。如下图所示,每类仅需 8 个样本,其典型性能就超越了 PERFECT、ADAPET 以及微调后的原始 transformer 模型。SetFit 还取得了与 T-Few 3B 相当的结果,尽管它无需提示且模型小了 27 倍。
65
 
66
+ <div style="margin:0 auto; width:700px">
67
+
68
+ ![](assets/103_setfit/three-tasks.png)
69
+
70
+ </div>
71
+ <div style="margin:0 auto;">
72
  <em > 在 3 个分类数据集上比较 SetFit 与其他方法的性能 </em>
73
+ </div>
74
 
75
  ## 快速训练与推理
76
 
77
+ <div style="margin:0 auto; width:400px">
78
+
79
+ ![](assets/103_setfit/bars.png)
80
+
81
+ </div>
82
+
83
  <p align="center">
84
  在每类 8 个标注样本的条件下,比较 T-Few 3B 和 SetFit(MPNet)的训练成本和平均性能。
85
  </p>