cbpuschmann commited on
Commit
a865dba
·
verified ·
1 Parent(s): 759dc57

Add SetFit model

Browse files
1_Pooling/config.json ADDED
@@ -0,0 +1,10 @@
 
 
 
 
 
 
 
 
 
 
 
1
+ {
2
+ "word_embedding_dimension": 1024,
3
+ "pooling_mode_cls_token": false,
4
+ "pooling_mode_mean_tokens": true,
5
+ "pooling_mode_max_tokens": false,
6
+ "pooling_mode_mean_sqrt_len_tokens": false,
7
+ "pooling_mode_weightedmean_tokens": false,
8
+ "pooling_mode_lasttoken": false,
9
+ "include_prompt": true
10
+ }
README.md ADDED
@@ -0,0 +1,214 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ ---
2
+ tags:
3
+ - setfit
4
+ - sentence-transformers
5
+ - text-classification
6
+ - generated_from_setfit_trainer
7
+ widget:
8
+ - text: Die Forderungen sind landesweit die gleichen. Es geht um die Wiedereinführung
9
+ eines 9-Euro-Tickets und ein Tempolimit von 100 km/h auf den Autobahnen. Außerdem
10
+ fordern wir die Einführung eines Gesellschaftsrats. Dieser soll Maßnahmen erarbeiten,
11
+ wie Deutschland bis 2030 emissionsfrei wird. Die Lösungsansätze sollen von der
12
+ Bundesregierung anerkannt und in der Politik umgesetzt werden.
13
+ - text: Die aktivist bezeichnen sich als ›DLG›. Sie fordern von Bundeswirtschaftsminister
14
+ Robert Habeck Grüne, auf fossile Energie zu verzichten. Zudem verlangen sie eine
15
+ Lebenserklärung der Rektorin der Leipziger Universität. Diese soll sich ›offiziell,
16
+ öffentlich und gerichtet an Robert Habeck gegen den Bau und die Finanzierung neuer
17
+ fossiler Infrastruktur aussprechen. Insbesondere gegen neue Ölbohrungen in der
18
+ Nordsee sowie neue Flüssiggas-Terminals›, hieß es in einer Mitteilung der Gruppe
19
+ am Donnerstag.
20
+ - text: Am Montag war es erneut das Amtsgericht Tiergarten, in dem ein Anwalt die
21
+ Aktionen der ›DLG› mit einem fragwürdigen historischen Vergleich rechtfertigte.
22
+ Verhandelt wurde an dem Tag gegen den 63-jährigen Winfried L. Wegen fünf Straßenblockaden,
23
+ bei denen er teilweise seine Hand auf der Straße angeklebt hatte, musste sich
24
+ L. wegen der Vorwürfe Nötigung und Widerstand gegen Vollstreckungsbeamte verantworten.
25
+ - text: 'In einer am Morgen verbreiteten Mitteilung begründete die Gruppe ihre Aktion.
26
+ Mit der Sitzblockade habe der "fossile Alltag" auf der Straße unterbrochen werden
27
+ sollen. Auf Transparenten seien Forderungen deutlich gemacht worden: ein 9-Euro-Ticket
28
+ für alle, ein Tempolimit von 100 Stundenkilometern auf Autobahnen und die Bildung
29
+ eines Gesellschaftsrats zum Thema Ende der fossilen Brennstoffe bis 2030.'
30
+ - text: 'aktivist feiern Festival für mehr Klimaschutz Xanten wer Die Ortsgruppe Xanten
31
+ von FFF hat am Freitagnachmittag wieder für mehr Klimaschutz protestiert – aber
32
+ anders als sonst. Die aktivist organisierten an der Kriemhildmühle im Kurpark
33
+ ein Festival mit Musik, Essen, Getränken und Vorträgen. Viele Menschen kamen,
34
+ genossen das schöne Wetter und die entspannte Atmosphäre, lauschten den Liedern
35
+ und sangen mit. Ansprachen gab es auch: Seit Jahrzehnten warne die Wissenschaft
36
+ vor den Folgen des Klimawandels, trotzdem unternehme die Politik zu wenig, und
37
+ die Bevölkerung müsse unter den Folgen wie Dürren, Überschwemmungen und Hitze
38
+ leiden, kritisierte Frederik Krohn von der Xantener Ortsgruppe der Klimaschutzbewegung.
39
+ Deshalb gehe FFF immer wieder auf die Straße, um der Politik zu sagen, dass es
40
+ so nicht weitergehe. Die große Teilnahme am Festival in Xanten und damit am Klimaschutz-Protest
41
+ sei ein ›starkes Zeichen›, sagte Krohn.'
42
+ metrics:
43
+ - accuracy
44
+ pipeline_tag: text-classification
45
+ library_name: setfit
46
+ inference: true
47
+ base_model: deutsche-telekom/gbert-large-paraphrase-cosine
48
+ ---
49
+
50
+ # SetFit with deutsche-telekom/gbert-large-paraphrase-cosine
51
+
52
+ This is a [SetFit](https://github.com/huggingface/setfit) model that can be used for Text Classification. This SetFit model uses [deutsche-telekom/gbert-large-paraphrase-cosine](https://huggingface.co/deutsche-telekom/gbert-large-paraphrase-cosine) as the Sentence Transformer embedding model. A [LogisticRegression](https://scikit-learn.org/stable/modules/generated/sklearn.linear_model.LogisticRegression.html) instance is used for classification.
53
+
54
+ The model has been trained using an efficient few-shot learning technique that involves:
55
+
56
+ 1. Fine-tuning a [Sentence Transformer](https://www.sbert.net) with contrastive learning.
57
+ 2. Training a classification head with features from the fine-tuned Sentence Transformer.
58
+
59
+ ## Model Details
60
+
61
+ ### Model Description
62
+ - **Model Type:** SetFit
63
+ - **Sentence Transformer body:** [deutsche-telekom/gbert-large-paraphrase-cosine](https://huggingface.co/deutsche-telekom/gbert-large-paraphrase-cosine)
64
+ - **Classification head:** a [LogisticRegression](https://scikit-learn.org/stable/modules/generated/sklearn.linear_model.LogisticRegression.html) instance
65
+ - **Maximum Sequence Length:** 512 tokens
66
+ - **Number of Classes:** 3 classes
67
+ <!-- - **Training Dataset:** [Unknown](https://huggingface.co/datasets/unknown) -->
68
+ <!-- - **Language:** Unknown -->
69
+ <!-- - **License:** Unknown -->
70
+
71
+ ### Model Sources
72
+
73
+ - **Repository:** [SetFit on GitHub](https://github.com/huggingface/setfit)
74
+ - **Paper:** [Efficient Few-Shot Learning Without Prompts](https://arxiv.org/abs/2209.11055)
75
+ - **Blogpost:** [SetFit: Efficient Few-Shot Learning Without Prompts](https://huggingface.co/blog/setfit)
76
+
77
+ ### Model Labels
78
+ | Label | Examples |
79
+ |:-----------|:--------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|
80
+ | neutral | <ul><li>'Die Ampelkoalition hat sich auf Gesetzesinitiativen zur flächendeckenden Einführung von Wärmepumpen geeinigt. Das sogenannte "Heizungsgesetz" zielt darauf ab, den Einsatz erneuerbarer Energien bei Heizsystemen zu fördern und die Abhängigkeit von fossilen Brennstoffen zu reduzieren. Die Maßnahmen sollen bis 2024 umgesetzt werden.'</li><li>'Die Bundesregierung plant, mit dem neuen Gebäudeenergiegesetz die flächendeckende Einführung von Wärmepumpen voranzutreiben. Ziel der Initiative ist es, den CO2-Ausstoß im Gebäudesektor zu reduzieren und die Energiewende zu unterstützen. Kritiker und Befürworter diskutieren weiterhin über die wirtschaftlichen und praktischen Auswirkungen des Gesetzes.'</li><li>'Das Bundeskabinett hat heute einen Gesetzesentwurf zur flächendeckenden Einführung von Wärmepumpen gebilligt. Demnach sollen neue Gas- und Ölheizungen nur noch in Kombination mit Wärmepumpen genehmigt werden, nachdem die jeweiligen Städte und Kommunen einen sogenannten "Wärmeplan" vorgelegt haben. Die Regelung könnte in einigen Städten wie Berlin frühestens 2026 in Kraft treten.'</li></ul> |
81
+ | opposed | <ul><li>'Das sogenannte "Heizungsgesetz" zur flächendeckenden Einführung von Wärmepumpen ist ein weiterer Schritt in der überzogenen Grünfärberei unserer Energiepolitik. Während Eigentümer bereits unter steigenden Steuern und Sanierungspflichten leiden, drohen nun massive Kosten für den Wechsel zu unbewährten Technologien wie Wärmepumpen. Diese Initiative ignoriert die praktischen Herausforderungen und könnte langfristig mehr Schaden anrichten als nützen.'</li><li>'Berlin Die flächendeckende Einführung von Wärmepumpen durch das Heizungsgesetz sorgt für Unmut in der Wirtschaft: Ein Unternehmer, der anonym bleiben möchte, berichtet von Kurzarbeit und drohenden Entlassungen aufgrund der unsicheren Förderpolitik und widersprüchlichen Signale aus Berlin. Die Zukunft seiner Firma steht auf dem Spiel, während die Regierung auf eine Technologie setzt, die für viele Betriebe kaum umsetzbar scheint.'</li><li>'Die Bundesregierung will mit dem sogenannten Heizungsgesetz die flächendeckende Einführung von Wärmepumpen vorantreiben. Doch hinter der grünen Fassade verbirgt sich ein lukrativer Deal für die Heizungsindustrie: Durch das staatlich verordnete Heizungsverbot werden die Unternehmen in die Lage versetzt, ihre Preise für alternative Heizungen in die Höhe zu treiben und so die Fördergelder einstreichen. Während die Bürger mit höheren Kosten belastet werden, dürften die Heizungsunternehmen zu den Hauptprofiteuren des Gesetzes gehören.'</li></ul> |
82
+ | supportive | <ul><li>'Obwohl das geplante "Heizungsgesetz" auf gemischte Reaktionen stößt, ist es ein wichtiger Schritt in Richtung Energiewende. Kritiker monieren die möglichen finanziellen Belastungen für Hausbesitzer, doch Grünen-Fraktionsvorsitzende Katharina Dröge verteidigt den Entwurf als pragmatische und soziale Maßnahme. Der Bundestag könnte das Gesetz noch vor der Sommerpause verabschieden.'</li><li>'Das Heizungsgesetz, das die flächendeckende Einführung von Wärmepumpen vorsieht, stößt auf Kritik, doch es bietet auch Chancen für eine nachhaltige Energiezukunft. Trotz der hohen Anfangsinvestitionen könnte es langfristig sowohl Umwelt als auch Verbraucher entlasten. Entscheidend wird sein, wie pragmatisch und sozial die Umsetzung gestaltet wird.'</li><li>'Die von der Regierungskoalition geplanten Gesetzesinitiativen zur flächendeckenden Einführung von Wärmepumpen stoßen auf gemischte Reaktionen. Während die weitreichenden Förderprogramme für die Gebäudesanierung und den Heizungsaustausch bis zu 70 Prozent der Kosten übernehmen und damit Anreize setzen, umweltfreundliche Alternativen zu wählen, bleibt die Frage nach der praktischen Umsetzbarkeit und der Auswirkung auf die Haushaltskassen offen. Trotz dieser Bedenken werden die Pläne, die auch nach dem Karlsruher Urteil unangetastet bleiben, als Schritt in die richtige Richtung gewertet.'</li></ul> |
83
+
84
+ ## Uses
85
+
86
+ ### Direct Use for Inference
87
+
88
+ First install the SetFit library:
89
+
90
+ ```bash
91
+ pip install setfit
92
+ ```
93
+
94
+ Then you can load this model and run inference.
95
+
96
+ ```python
97
+ from setfit import SetFitModel
98
+
99
+ # Download from the 🤗 Hub
100
+ model = SetFitModel.from_pretrained("cbpuschmann/klimacoder2_v0.7b")
101
+ # Run inference
102
+ preds = model("Die Forderungen sind landesweit die gleichen. Es geht um die Wiedereinführung eines 9-Euro-Tickets und ein Tempolimit von 100 km/h auf den Autobahnen. Außerdem fordern wir die Einführung eines Gesellschaftsrats. Dieser soll Maßnahmen erarbeiten, wie Deutschland bis 2030 emissionsfrei wird. Die Lösungsansätze sollen von der Bundesregierung anerkannt und in der Politik umgesetzt werden.")
103
+ ```
104
+
105
+ <!--
106
+ ### Downstream Use
107
+
108
+ *List how someone could finetune this model on their own dataset.*
109
+ -->
110
+
111
+ <!--
112
+ ### Out-of-Scope Use
113
+
114
+ *List how the model may foreseeably be misused and address what users ought not to do with the model.*
115
+ -->
116
+
117
+ <!--
118
+ ## Bias, Risks and Limitations
119
+
120
+ *What are the known or foreseeable issues stemming from this model? You could also flag here known failure cases or weaknesses of the model.*
121
+ -->
122
+
123
+ <!--
124
+ ### Recommendations
125
+
126
+ *What are recommendations with respect to the foreseeable issues? For example, filtering explicit content.*
127
+ -->
128
+
129
+ ## Training Details
130
+
131
+ ### Training Set Metrics
132
+ | Training set | Min | Median | Max |
133
+ |:-------------|:----|:--------|:----|
134
+ | Word count | 24 | 57.7302 | 97 |
135
+
136
+ | Label | Training Sample Count |
137
+ |:-----------|:----------------------|
138
+ | neutral | 42 |
139
+ | opposed | 42 |
140
+ | supportive | 42 |
141
+
142
+ ### Training Hyperparameters
143
+ - batch_size: (32, 32)
144
+ - num_epochs: (2, 2)
145
+ - max_steps: -1
146
+ - sampling_strategy: oversampling
147
+ - num_iterations: 100
148
+ - body_learning_rate: (2e-05, 2e-05)
149
+ - head_learning_rate: 2e-05
150
+ - loss: ContrastiveLoss
151
+ - distance_metric: cosine_distance
152
+ - margin: 0.25
153
+ - end_to_end: False
154
+ - use_amp: False
155
+ - warmup_proportion: 0.1
156
+ - l2_weight: 0.01
157
+ - seed: 42
158
+ - eval_max_steps: -1
159
+ - load_best_model_at_end: False
160
+
161
+ ### Training Results
162
+ | Epoch | Step | Training Loss | Validation Loss |
163
+ |:------:|:----:|:-------------:|:---------------:|
164
+ | 0.0051 | 1 | 0.0604 | - |
165
+ | 0.2538 | 50 | 0.0215 | - |
166
+ | 0.5076 | 100 | 0.0001 | - |
167
+ | 0.7614 | 150 | 0.0 | - |
168
+ | 1.0152 | 200 | 0.0 | - |
169
+ | 1.2690 | 250 | 0.0 | - |
170
+ | 1.5228 | 300 | 0.0 | - |
171
+ | 1.7766 | 350 | 0.0 | - |
172
+
173
+ ### Framework Versions
174
+ - Python: 3.11.11
175
+ - SetFit: 1.1.1
176
+ - Sentence Transformers: 3.4.1
177
+ - Transformers: 4.49.0
178
+ - PyTorch: 2.4.1.post300
179
+ - Datasets: 3.4.1
180
+ - Tokenizers: 0.21.0
181
+
182
+ ## Citation
183
+
184
+ ### BibTeX
185
+ ```bibtex
186
+ @article{https://doi.org/10.48550/arxiv.2209.11055,
187
+ doi = {10.48550/ARXIV.2209.11055},
188
+ url = {https://arxiv.org/abs/2209.11055},
189
+ author = {Tunstall, Lewis and Reimers, Nils and Jo, Unso Eun Seo and Bates, Luke and Korat, Daniel and Wasserblat, Moshe and Pereg, Oren},
190
+ keywords = {Computation and Language (cs.CL), FOS: Computer and information sciences, FOS: Computer and information sciences},
191
+ title = {Efficient Few-Shot Learning Without Prompts},
192
+ publisher = {arXiv},
193
+ year = {2022},
194
+ copyright = {Creative Commons Attribution 4.0 International}
195
+ }
196
+ ```
197
+
198
+ <!--
199
+ ## Glossary
200
+
201
+ *Clearly define terms in order to be accessible across audiences.*
202
+ -->
203
+
204
+ <!--
205
+ ## Model Card Authors
206
+
207
+ *Lists the people who create the model card, providing recognition and accountability for the detailed work that goes into its construction.*
208
+ -->
209
+
210
+ <!--
211
+ ## Model Card Contact
212
+
213
+ *Provides a way for people who have updates to the Model Card, suggestions, or questions, to contact the Model Card authors.*
214
+ -->
config.json ADDED
@@ -0,0 +1,25 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ {
2
+ "_name_or_path": "deutsche-telekom/gbert-large-paraphrase-cosine",
3
+ "architectures": [
4
+ "BertModel"
5
+ ],
6
+ "attention_probs_dropout_prob": 0.1,
7
+ "classifier_dropout": null,
8
+ "hidden_act": "gelu",
9
+ "hidden_dropout_prob": 0.1,
10
+ "hidden_size": 1024,
11
+ "initializer_range": 0.02,
12
+ "intermediate_size": 4096,
13
+ "layer_norm_eps": 1e-12,
14
+ "max_position_embeddings": 512,
15
+ "model_type": "bert",
16
+ "num_attention_heads": 16,
17
+ "num_hidden_layers": 24,
18
+ "pad_token_id": 0,
19
+ "position_embedding_type": "absolute",
20
+ "torch_dtype": "float32",
21
+ "transformers_version": "4.49.0",
22
+ "type_vocab_size": 2,
23
+ "use_cache": true,
24
+ "vocab_size": 31102
25
+ }
config_sentence_transformers.json ADDED
@@ -0,0 +1,10 @@
 
 
 
 
 
 
 
 
 
 
 
1
+ {
2
+ "__version__": {
3
+ "sentence_transformers": "3.4.1",
4
+ "transformers": "4.49.0",
5
+ "pytorch": "2.4.1.post300"
6
+ },
7
+ "prompts": {},
8
+ "default_prompt_name": null,
9
+ "similarity_fn_name": "cosine"
10
+ }
config_setfit.json ADDED
@@ -0,0 +1,8 @@
 
 
 
 
 
 
 
 
 
1
+ {
2
+ "labels": [
3
+ "neutral",
4
+ "opposed",
5
+ "supportive"
6
+ ],
7
+ "normalize_embeddings": false
8
+ }
model.safetensors ADDED
@@ -0,0 +1,3 @@
 
 
 
 
1
+ version https://git-lfs.github.com/spec/v1
2
+ oid sha256:197204ce08858cc46a363078b41c7f0587dd770a125924399abfdbb180b46dff
3
+ size 1342988112
model_head.pkl ADDED
@@ -0,0 +1,3 @@
 
 
 
 
1
+ version https://git-lfs.github.com/spec/v1
2
+ oid sha256:c5a233eee792a2203ef505a0e6fd07fd0b7d6dc662eb1ad82d9ae23b1396ddcf
3
+ size 25567
modules.json ADDED
@@ -0,0 +1,14 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ [
2
+ {
3
+ "idx": 0,
4
+ "name": "0",
5
+ "path": "",
6
+ "type": "sentence_transformers.models.Transformer"
7
+ },
8
+ {
9
+ "idx": 1,
10
+ "name": "1",
11
+ "path": "1_Pooling",
12
+ "type": "sentence_transformers.models.Pooling"
13
+ }
14
+ ]
sentence_bert_config.json ADDED
@@ -0,0 +1,4 @@
 
 
 
 
 
1
+ {
2
+ "max_seq_length": 512,
3
+ "do_lower_case": false
4
+ }
special_tokens_map.json ADDED
@@ -0,0 +1,37 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ {
2
+ "cls_token": {
3
+ "content": "[CLS]",
4
+ "lstrip": false,
5
+ "normalized": false,
6
+ "rstrip": false,
7
+ "single_word": false
8
+ },
9
+ "mask_token": {
10
+ "content": "[MASK]",
11
+ "lstrip": false,
12
+ "normalized": false,
13
+ "rstrip": false,
14
+ "single_word": false
15
+ },
16
+ "pad_token": {
17
+ "content": "[PAD]",
18
+ "lstrip": false,
19
+ "normalized": false,
20
+ "rstrip": false,
21
+ "single_word": false
22
+ },
23
+ "sep_token": {
24
+ "content": "[SEP]",
25
+ "lstrip": false,
26
+ "normalized": false,
27
+ "rstrip": false,
28
+ "single_word": false
29
+ },
30
+ "unk_token": {
31
+ "content": "[UNK]",
32
+ "lstrip": false,
33
+ "normalized": false,
34
+ "rstrip": false,
35
+ "single_word": false
36
+ }
37
+ }
tokenizer.json ADDED
The diff for this file is too large to render. See raw diff
 
tokenizer_config.json ADDED
@@ -0,0 +1,66 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ {
2
+ "added_tokens_decoder": {
3
+ "0": {
4
+ "content": "[PAD]",
5
+ "lstrip": false,
6
+ "normalized": false,
7
+ "rstrip": false,
8
+ "single_word": false,
9
+ "special": true
10
+ },
11
+ "101": {
12
+ "content": "[UNK]",
13
+ "lstrip": false,
14
+ "normalized": false,
15
+ "rstrip": false,
16
+ "single_word": false,
17
+ "special": true
18
+ },
19
+ "102": {
20
+ "content": "[CLS]",
21
+ "lstrip": false,
22
+ "normalized": false,
23
+ "rstrip": false,
24
+ "single_word": false,
25
+ "special": true
26
+ },
27
+ "103": {
28
+ "content": "[SEP]",
29
+ "lstrip": false,
30
+ "normalized": false,
31
+ "rstrip": false,
32
+ "single_word": false,
33
+ "special": true
34
+ },
35
+ "104": {
36
+ "content": "[MASK]",
37
+ "lstrip": false,
38
+ "normalized": false,
39
+ "rstrip": false,
40
+ "single_word": false,
41
+ "special": true
42
+ }
43
+ },
44
+ "clean_up_tokenization_spaces": false,
45
+ "cls_token": "[CLS]",
46
+ "do_basic_tokenize": true,
47
+ "do_lower_case": false,
48
+ "extra_special_tokens": {},
49
+ "mask_token": "[MASK]",
50
+ "max_len": 512,
51
+ "max_length": 512,
52
+ "model_max_length": 512,
53
+ "never_split": null,
54
+ "pad_to_multiple_of": null,
55
+ "pad_token": "[PAD]",
56
+ "pad_token_type_id": 0,
57
+ "padding_side": "right",
58
+ "sep_token": "[SEP]",
59
+ "stride": 0,
60
+ "strip_accents": false,
61
+ "tokenize_chinese_chars": true,
62
+ "tokenizer_class": "BertTokenizer",
63
+ "truncation_side": "right",
64
+ "truncation_strategy": "longest_first",
65
+ "unk_token": "[UNK]"
66
+ }
vocab.txt ADDED
The diff for this file is too large to render. See raw diff