Add SetFit model
Browse files- 1_Pooling/config.json +10 -0
- README.md +232 -0
- config.json +25 -0
- config_sentence_transformers.json +10 -0
- config_setfit.json +8 -0
- model.safetensors +3 -0
- model_head.pkl +3 -0
- modules.json +14 -0
- sentence_bert_config.json +4 -0
- special_tokens_map.json +37 -0
- tokenizer.json +0 -0
- tokenizer_config.json +66 -0
- vocab.txt +0 -0
1_Pooling/config.json
ADDED
@@ -0,0 +1,10 @@
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
1 |
+
{
|
2 |
+
"word_embedding_dimension": 1024,
|
3 |
+
"pooling_mode_cls_token": false,
|
4 |
+
"pooling_mode_mean_tokens": true,
|
5 |
+
"pooling_mode_max_tokens": false,
|
6 |
+
"pooling_mode_mean_sqrt_len_tokens": false,
|
7 |
+
"pooling_mode_weightedmean_tokens": false,
|
8 |
+
"pooling_mode_lasttoken": false,
|
9 |
+
"include_prompt": true
|
10 |
+
}
|
README.md
ADDED
@@ -0,0 +1,232 @@
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
1 |
+
---
|
2 |
+
tags:
|
3 |
+
- setfit
|
4 |
+
- sentence-transformers
|
5 |
+
- text-classification
|
6 |
+
- generated_from_setfit_trainer
|
7 |
+
widget:
|
8 |
+
- text: Die Forderungen sind landesweit die gleichen. Es geht um die Wiedereinführung
|
9 |
+
eines 9-Euro-Tickets und ein Tempolimit von 100 km/h auf den Autobahnen. Außerdem
|
10 |
+
fordern wir die Einführung eines Gesellschaftsrats. Dieser soll Maßnahmen erarbeiten,
|
11 |
+
wie Deutschland bis 2030 emissionsfrei wird. Die Lösungsansätze sollen von der
|
12 |
+
Bundesregierung anerkannt und in der Politik umgesetzt werden.
|
13 |
+
- text: Die aktivist bezeichnen sich als ›DLG›. Sie fordern von Bundeswirtschaftsminister
|
14 |
+
Robert Habeck Grüne, auf fossile Energie zu verzichten. Zudem verlangen sie eine
|
15 |
+
Lebenserklärung der Rektorin der Leipziger Universität. Diese soll sich ›offiziell,
|
16 |
+
öffentlich und gerichtet an Robert Habeck gegen den Bau und die Finanzierung neuer
|
17 |
+
fossiler Infrastruktur aussprechen. Insbesondere gegen neue Ölbohrungen in der
|
18 |
+
Nordsee sowie neue Flüssiggas-Terminals›, hieß es in einer Mitteilung der Gruppe
|
19 |
+
am Donnerstag.
|
20 |
+
- text: Am Montag war es erneut das Amtsgericht Tiergarten, in dem ein Anwalt die
|
21 |
+
Aktionen der ›DLG› mit einem fragwürdigen historischen Vergleich rechtfertigte.
|
22 |
+
Verhandelt wurde an dem Tag gegen den 63-jährigen Winfried L. Wegen fünf Straßenblockaden,
|
23 |
+
bei denen er teilweise seine Hand auf der Straße angeklebt hatte, musste sich
|
24 |
+
L. wegen der Vorwürfe Nötigung und Widerstand gegen Vollstreckungsbeamte verantworten.
|
25 |
+
- text: 'In einer am Morgen verbreiteten Mitteilung begründete die Gruppe ihre Aktion.
|
26 |
+
Mit der Sitzblockade habe der "fossile Alltag" auf der Straße unterbrochen werden
|
27 |
+
sollen. Auf Transparenten seien Forderungen deutlich gemacht worden: ein 9-Euro-Ticket
|
28 |
+
für alle, ein Tempolimit von 100 Stundenkilometern auf Autobahnen und die Bildung
|
29 |
+
eines Gesellschaftsrats zum Thema Ende der fossilen Brennstoffe bis 2030.'
|
30 |
+
- text: 'aktivist feiern Festival für mehr Klimaschutz Xanten wer Die Ortsgruppe Xanten
|
31 |
+
von FFF hat am Freitagnachmittag wieder für mehr Klimaschutz protestiert – aber
|
32 |
+
anders als sonst. Die aktivist organisierten an der Kriemhildmühle im Kurpark
|
33 |
+
ein Festival mit Musik, Essen, Getränken und Vorträgen. Viele Menschen kamen,
|
34 |
+
genossen das schöne Wetter und die entspannte Atmosphäre, lauschten den Liedern
|
35 |
+
und sangen mit. Ansprachen gab es auch: Seit Jahrzehnten warne die Wissenschaft
|
36 |
+
vor den Folgen des Klimawandels, trotzdem unternehme die Politik zu wenig, und
|
37 |
+
die Bevölkerung müsse unter den Folgen wie Dürren, Überschwemmungen und Hitze
|
38 |
+
leiden, kritisierte Frederik Krohn von der Xantener Ortsgruppe der Klimaschutzbewegung.
|
39 |
+
Deshalb gehe FFF immer wieder auf die Straße, um der Politik zu sagen, dass es
|
40 |
+
so nicht weitergehe. Die große Teilnahme am Festival in Xanten und damit am Klimaschutz-Protest
|
41 |
+
sei ein ›starkes Zeichen›, sagte Krohn.'
|
42 |
+
metrics:
|
43 |
+
- accuracy
|
44 |
+
pipeline_tag: text-classification
|
45 |
+
library_name: setfit
|
46 |
+
inference: true
|
47 |
+
base_model: deutsche-telekom/gbert-large-paraphrase-cosine
|
48 |
+
---
|
49 |
+
|
50 |
+
# SetFit with deutsche-telekom/gbert-large-paraphrase-cosine
|
51 |
+
|
52 |
+
This is a [SetFit](https://github.com/huggingface/setfit) model that can be used for Text Classification. This SetFit model uses [deutsche-telekom/gbert-large-paraphrase-cosine](https://huggingface.co/deutsche-telekom/gbert-large-paraphrase-cosine) as the Sentence Transformer embedding model. A [LogisticRegression](https://scikit-learn.org/stable/modules/generated/sklearn.linear_model.LogisticRegression.html) instance is used for classification.
|
53 |
+
|
54 |
+
The model has been trained using an efficient few-shot learning technique that involves:
|
55 |
+
|
56 |
+
1. Fine-tuning a [Sentence Transformer](https://www.sbert.net) with contrastive learning.
|
57 |
+
2. Training a classification head with features from the fine-tuned Sentence Transformer.
|
58 |
+
|
59 |
+
## Model Details
|
60 |
+
|
61 |
+
### Model Description
|
62 |
+
- **Model Type:** SetFit
|
63 |
+
- **Sentence Transformer body:** [deutsche-telekom/gbert-large-paraphrase-cosine](https://huggingface.co/deutsche-telekom/gbert-large-paraphrase-cosine)
|
64 |
+
- **Classification head:** a [LogisticRegression](https://scikit-learn.org/stable/modules/generated/sklearn.linear_model.LogisticRegression.html) instance
|
65 |
+
- **Maximum Sequence Length:** 512 tokens
|
66 |
+
- **Number of Classes:** 3 classes
|
67 |
+
<!-- - **Training Dataset:** [Unknown](https://huggingface.co/datasets/unknown) -->
|
68 |
+
<!-- - **Language:** Unknown -->
|
69 |
+
<!-- - **License:** Unknown -->
|
70 |
+
|
71 |
+
### Model Sources
|
72 |
+
|
73 |
+
- **Repository:** [SetFit on GitHub](https://github.com/huggingface/setfit)
|
74 |
+
- **Paper:** [Efficient Few-Shot Learning Without Prompts](https://arxiv.org/abs/2209.11055)
|
75 |
+
- **Blogpost:** [SetFit: Efficient Few-Shot Learning Without Prompts](https://huggingface.co/blog/setfit)
|
76 |
+
|
77 |
+
### Model Labels
|
78 |
+
| Label | Examples |
|
79 |
+
|:-----------|:--------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|
|
80 |
+
| neutral | <ul><li>'Die Ampelkoalition hat sich auf Gesetzesinitiativen zur flächendeckenden Einführung von Wärmepumpen geeinigt. Das sogenannte "Heizungsgesetz" zielt darauf ab, den Einsatz erneuerbarer Energien bei Heizsystemen zu fördern und die Abhängigkeit von fossilen Brennstoffen zu reduzieren. Die Maßnahmen sollen bis 2024 umgesetzt werden.'</li><li>'Die Bundesregierung plant, mit dem neuen Gebäudeenergiegesetz die flächendeckende Einführung von Wärmepumpen voranzutreiben. Ziel der Initiative ist es, den CO2-Ausstoß im Gebäudesektor zu reduzieren und die Energiewende zu unterstützen. Kritiker und Befürworter diskutieren weiterhin über die wirtschaftlichen und praktischen Auswirkungen des Gesetzes.'</li><li>'Das Bundeskabinett hat heute einen Gesetzesentwurf zur flächendeckenden Einführung von Wärmepumpen gebilligt. Demnach sollen neue Gas- und Ölheizungen nur noch in Kombination mit Wärmepumpen genehmigt werden, nachdem die jeweiligen Städte und Kommunen einen sogenannten "Wärmeplan" vorgelegt haben. Die Regelung könnte in einigen Städten wie Berlin frühestens 2026 in Kraft treten.'</li></ul> |
|
81 |
+
| opposed | <ul><li>'Das sogenannte "Heizungsgesetz" zur flächendeckenden Einführung von Wärmepumpen ist ein weiterer Schritt in der überzogenen Grünfärberei unserer Energiepolitik. Während Eigentümer bereits unter steigenden Steuern und Sanierungspflichten leiden, drohen nun massive Kosten für den Wechsel zu unbewährten Technologien wie Wärmepumpen. Diese Initiative ignoriert die praktischen Herausforderungen und könnte langfristig mehr Schaden anrichten als nützen.'</li><li>'Berlin Die flächendeckende Einführung von Wärmepumpen durch das Heizungsgesetz sorgt für Unmut in der Wirtschaft: Ein Unternehmer, der anonym bleiben möchte, berichtet von Kurzarbeit und drohenden Entlassungen aufgrund der unsicheren Förderpolitik und widersprüchlichen Signale aus Berlin. Die Zukunft seiner Firma steht auf dem Spiel, während die Regierung auf eine Technologie setzt, die für viele Betriebe kaum umsetzbar scheint.'</li><li>'Die Bundesregierung will mit dem sogenannten Heizungsgesetz die flächendeckende Einführung von Wärmepumpen vorantreiben. Doch hinter der grünen Fassade verbirgt sich ein lukrativer Deal für die Heizungsindustrie: Durch das staatlich verordnete Heizungsverbot werden die Unternehmen in die Lage versetzt, ihre Preise für alternative Heizungen in die Höhe zu treiben und so die Fördergelder einstreichen. Während die Bürger mit höheren Kosten belastet werden, dürften die Heizungsunternehmen zu den Hauptprofiteuren des Gesetzes gehören.'</li></ul> |
|
82 |
+
| supportive | <ul><li>'Obwohl das geplante "Heizungsgesetz" auf gemischte Reaktionen stößt, ist es ein wichtiger Schritt in Richtung Energiewende. Kritiker monieren die möglichen finanziellen Belastungen für Hausbesitzer, doch Grünen-Fraktionsvorsitzende Katharina Dröge verteidigt den Entwurf als pragmatische und soziale Maßnahme. Der Bundestag könnte das Gesetz noch vor der Sommerpause verabschieden.'</li><li>'Das Heizungsgesetz, das die flächendeckende Einführung von Wärmepumpen vorsieht, stößt auf Kritik, doch es bietet auch Chancen für eine nachhaltige Energiezukunft. Trotz der hohen Anfangsinvestitionen könnte es langfristig sowohl Umwelt als auch Verbraucher entlasten. Entscheidend wird sein, wie pragmatisch und sozial die Umsetzung gestaltet wird.'</li><li>'Die von der Regierungskoalition geplanten Gesetzesinitiativen zur flächendeckenden Einführung von Wärmepumpen stoßen auf gemischte Reaktionen. Während die weitreichenden Förderprogramme für die Gebäudesanierung und den Heizungsaustausch bis zu 70 Prozent der Kosten übernehmen und damit Anreize setzen, umweltfreundliche Alternativen zu wählen, bleibt die Frage nach der praktischen Umsetzbarkeit und der Auswirkung auf die Haushaltskassen offen. Trotz dieser Bedenken werden die Pläne, die auch nach dem Karlsruher Urteil unangetastet bleiben, als Schritt in die richtige Richtung gewertet.'</li></ul> |
|
83 |
+
|
84 |
+
## Uses
|
85 |
+
|
86 |
+
### Direct Use for Inference
|
87 |
+
|
88 |
+
First install the SetFit library:
|
89 |
+
|
90 |
+
```bash
|
91 |
+
pip install setfit
|
92 |
+
```
|
93 |
+
|
94 |
+
Then you can load this model and run inference.
|
95 |
+
|
96 |
+
```python
|
97 |
+
from setfit import SetFitModel
|
98 |
+
|
99 |
+
# Download from the 🤗 Hub
|
100 |
+
model = SetFitModel.from_pretrained("cbpuschmann/klimacoder2_v0.9")
|
101 |
+
# Run inference
|
102 |
+
preds = model("Die Forderungen sind landesweit die gleichen. Es geht um die Wiedereinführung eines 9-Euro-Tickets und ein Tempolimit von 100 km/h auf den Autobahnen. Außerdem fordern wir die Einführung eines Gesellschaftsrats. Dieser soll Maßnahmen erarbeiten, wie Deutschland bis 2030 emissionsfrei wird. Die Lösungsansätze sollen von der Bundesregierung anerkannt und in der Politik umgesetzt werden.")
|
103 |
+
```
|
104 |
+
|
105 |
+
<!--
|
106 |
+
### Downstream Use
|
107 |
+
|
108 |
+
*List how someone could finetune this model on their own dataset.*
|
109 |
+
-->
|
110 |
+
|
111 |
+
<!--
|
112 |
+
### Out-of-Scope Use
|
113 |
+
|
114 |
+
*List how the model may foreseeably be misused and address what users ought not to do with the model.*
|
115 |
+
-->
|
116 |
+
|
117 |
+
<!--
|
118 |
+
## Bias, Risks and Limitations
|
119 |
+
|
120 |
+
*What are the known or foreseeable issues stemming from this model? You could also flag here known failure cases or weaknesses of the model.*
|
121 |
+
-->
|
122 |
+
|
123 |
+
<!--
|
124 |
+
### Recommendations
|
125 |
+
|
126 |
+
*What are recommendations with respect to the foreseeable issues? For example, filtering explicit content.*
|
127 |
+
-->
|
128 |
+
|
129 |
+
## Training Details
|
130 |
+
|
131 |
+
### Training Set Metrics
|
132 |
+
| Training set | Min | Median | Max |
|
133 |
+
|:-------------|:----|:-------|:----|
|
134 |
+
| Word count | 24 | 61.46 | 111 |
|
135 |
+
|
136 |
+
| Label | Training Sample Count |
|
137 |
+
|:-----------|:----------------------|
|
138 |
+
| neutral | 42 |
|
139 |
+
| opposed | 42 |
|
140 |
+
| supportive | 116 |
|
141 |
+
|
142 |
+
### Training Hyperparameters
|
143 |
+
- batch_size: (32, 32)
|
144 |
+
- num_epochs: (2, 2)
|
145 |
+
- max_steps: -1
|
146 |
+
- sampling_strategy: oversampling
|
147 |
+
- num_iterations: 200
|
148 |
+
- body_learning_rate: (5e-05, 5e-05)
|
149 |
+
- head_learning_rate: 5e-05
|
150 |
+
- loss: ContrastiveLoss
|
151 |
+
- distance_metric: cosine_distance
|
152 |
+
- margin: 0.25
|
153 |
+
- end_to_end: False
|
154 |
+
- use_amp: False
|
155 |
+
- warmup_proportion: 0.1
|
156 |
+
- l2_weight: 0.01
|
157 |
+
- seed: 42
|
158 |
+
- eval_max_steps: -1
|
159 |
+
- load_best_model_at_end: False
|
160 |
+
|
161 |
+
### Training Results
|
162 |
+
| Epoch | Step | Training Loss | Validation Loss |
|
163 |
+
|:------:|:----:|:-------------:|:---------------:|
|
164 |
+
| 0.0016 | 1 | 0.0653 | - |
|
165 |
+
| 0.08 | 50 | 0.0245 | - |
|
166 |
+
| 0.16 | 100 | 0.0002 | - |
|
167 |
+
| 0.24 | 150 | 0.0 | - |
|
168 |
+
| 0.32 | 200 | 0.0 | - |
|
169 |
+
| 0.4 | 250 | 0.0 | - |
|
170 |
+
| 0.48 | 300 | 0.0 | - |
|
171 |
+
| 0.56 | 350 | 0.0 | - |
|
172 |
+
| 0.64 | 400 | 0.0 | - |
|
173 |
+
| 0.72 | 450 | 0.0 | - |
|
174 |
+
| 0.8 | 500 | 0.0 | - |
|
175 |
+
| 0.88 | 550 | 0.0 | - |
|
176 |
+
| 0.96 | 600 | 0.0 | - |
|
177 |
+
| 1.04 | 650 | 0.0 | - |
|
178 |
+
| 1.12 | 700 | 0.0 | - |
|
179 |
+
| 1.2 | 750 | 0.0 | - |
|
180 |
+
| 1.28 | 800 | 0.0 | - |
|
181 |
+
| 1.3600 | 850 | 0.0 | - |
|
182 |
+
| 1.44 | 900 | 0.0 | - |
|
183 |
+
| 1.52 | 950 | 0.0 | - |
|
184 |
+
| 1.6 | 1000 | 0.0 | - |
|
185 |
+
| 1.6800 | 1050 | 0.0 | - |
|
186 |
+
| 1.76 | 1100 | 0.0 | - |
|
187 |
+
| 1.8400 | 1150 | 0.0 | - |
|
188 |
+
| 1.92 | 1200 | 0.0 | - |
|
189 |
+
| 2.0 | 1250 | 0.0 | - |
|
190 |
+
|
191 |
+
### Framework Versions
|
192 |
+
- Python: 3.11.11
|
193 |
+
- SetFit: 1.1.1
|
194 |
+
- Sentence Transformers: 3.4.1
|
195 |
+
- Transformers: 4.49.0
|
196 |
+
- PyTorch: 2.4.1.post300
|
197 |
+
- Datasets: 3.4.1
|
198 |
+
- Tokenizers: 0.21.0
|
199 |
+
|
200 |
+
## Citation
|
201 |
+
|
202 |
+
### BibTeX
|
203 |
+
```bibtex
|
204 |
+
@article{https://doi.org/10.48550/arxiv.2209.11055,
|
205 |
+
doi = {10.48550/ARXIV.2209.11055},
|
206 |
+
url = {https://arxiv.org/abs/2209.11055},
|
207 |
+
author = {Tunstall, Lewis and Reimers, Nils and Jo, Unso Eun Seo and Bates, Luke and Korat, Daniel and Wasserblat, Moshe and Pereg, Oren},
|
208 |
+
keywords = {Computation and Language (cs.CL), FOS: Computer and information sciences, FOS: Computer and information sciences},
|
209 |
+
title = {Efficient Few-Shot Learning Without Prompts},
|
210 |
+
publisher = {arXiv},
|
211 |
+
year = {2022},
|
212 |
+
copyright = {Creative Commons Attribution 4.0 International}
|
213 |
+
}
|
214 |
+
```
|
215 |
+
|
216 |
+
<!--
|
217 |
+
## Glossary
|
218 |
+
|
219 |
+
*Clearly define terms in order to be accessible across audiences.*
|
220 |
+
-->
|
221 |
+
|
222 |
+
<!--
|
223 |
+
## Model Card Authors
|
224 |
+
|
225 |
+
*Lists the people who create the model card, providing recognition and accountability for the detailed work that goes into its construction.*
|
226 |
+
-->
|
227 |
+
|
228 |
+
<!--
|
229 |
+
## Model Card Contact
|
230 |
+
|
231 |
+
*Provides a way for people who have updates to the Model Card, suggestions, or questions, to contact the Model Card authors.*
|
232 |
+
-->
|
config.json
ADDED
@@ -0,0 +1,25 @@
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
1 |
+
{
|
2 |
+
"_name_or_path": "deutsche-telekom/gbert-large-paraphrase-cosine",
|
3 |
+
"architectures": [
|
4 |
+
"BertModel"
|
5 |
+
],
|
6 |
+
"attention_probs_dropout_prob": 0.1,
|
7 |
+
"classifier_dropout": null,
|
8 |
+
"hidden_act": "gelu",
|
9 |
+
"hidden_dropout_prob": 0.1,
|
10 |
+
"hidden_size": 1024,
|
11 |
+
"initializer_range": 0.02,
|
12 |
+
"intermediate_size": 4096,
|
13 |
+
"layer_norm_eps": 1e-12,
|
14 |
+
"max_position_embeddings": 512,
|
15 |
+
"model_type": "bert",
|
16 |
+
"num_attention_heads": 16,
|
17 |
+
"num_hidden_layers": 24,
|
18 |
+
"pad_token_id": 0,
|
19 |
+
"position_embedding_type": "absolute",
|
20 |
+
"torch_dtype": "float32",
|
21 |
+
"transformers_version": "4.49.0",
|
22 |
+
"type_vocab_size": 2,
|
23 |
+
"use_cache": true,
|
24 |
+
"vocab_size": 31102
|
25 |
+
}
|
config_sentence_transformers.json
ADDED
@@ -0,0 +1,10 @@
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
1 |
+
{
|
2 |
+
"__version__": {
|
3 |
+
"sentence_transformers": "3.4.1",
|
4 |
+
"transformers": "4.49.0",
|
5 |
+
"pytorch": "2.4.1.post300"
|
6 |
+
},
|
7 |
+
"prompts": {},
|
8 |
+
"default_prompt_name": null,
|
9 |
+
"similarity_fn_name": "cosine"
|
10 |
+
}
|
config_setfit.json
ADDED
@@ -0,0 +1,8 @@
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
1 |
+
{
|
2 |
+
"labels": [
|
3 |
+
"neutral",
|
4 |
+
"opposed",
|
5 |
+
"supportive"
|
6 |
+
],
|
7 |
+
"normalize_embeddings": false
|
8 |
+
}
|
model.safetensors
ADDED
@@ -0,0 +1,3 @@
|
|
|
|
|
|
|
|
|
1 |
+
version https://git-lfs.github.com/spec/v1
|
2 |
+
oid sha256:de3ecbf979b288567a636127f1cfd6c38232d6af95dcfef1c4d3ccd34c39ff63
|
3 |
+
size 1342988112
|
model_head.pkl
ADDED
@@ -0,0 +1,3 @@
|
|
|
|
|
|
|
|
|
1 |
+
version https://git-lfs.github.com/spec/v1
|
2 |
+
oid sha256:e83c8e63eeb1f8a75ddbf74feffc0565eb485203c94c699ff87930c949633699
|
3 |
+
size 25567
|
modules.json
ADDED
@@ -0,0 +1,14 @@
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
1 |
+
[
|
2 |
+
{
|
3 |
+
"idx": 0,
|
4 |
+
"name": "0",
|
5 |
+
"path": "",
|
6 |
+
"type": "sentence_transformers.models.Transformer"
|
7 |
+
},
|
8 |
+
{
|
9 |
+
"idx": 1,
|
10 |
+
"name": "1",
|
11 |
+
"path": "1_Pooling",
|
12 |
+
"type": "sentence_transformers.models.Pooling"
|
13 |
+
}
|
14 |
+
]
|
sentence_bert_config.json
ADDED
@@ -0,0 +1,4 @@
|
|
|
|
|
|
|
|
|
|
|
1 |
+
{
|
2 |
+
"max_seq_length": 512,
|
3 |
+
"do_lower_case": false
|
4 |
+
}
|
special_tokens_map.json
ADDED
@@ -0,0 +1,37 @@
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
1 |
+
{
|
2 |
+
"cls_token": {
|
3 |
+
"content": "[CLS]",
|
4 |
+
"lstrip": false,
|
5 |
+
"normalized": false,
|
6 |
+
"rstrip": false,
|
7 |
+
"single_word": false
|
8 |
+
},
|
9 |
+
"mask_token": {
|
10 |
+
"content": "[MASK]",
|
11 |
+
"lstrip": false,
|
12 |
+
"normalized": false,
|
13 |
+
"rstrip": false,
|
14 |
+
"single_word": false
|
15 |
+
},
|
16 |
+
"pad_token": {
|
17 |
+
"content": "[PAD]",
|
18 |
+
"lstrip": false,
|
19 |
+
"normalized": false,
|
20 |
+
"rstrip": false,
|
21 |
+
"single_word": false
|
22 |
+
},
|
23 |
+
"sep_token": {
|
24 |
+
"content": "[SEP]",
|
25 |
+
"lstrip": false,
|
26 |
+
"normalized": false,
|
27 |
+
"rstrip": false,
|
28 |
+
"single_word": false
|
29 |
+
},
|
30 |
+
"unk_token": {
|
31 |
+
"content": "[UNK]",
|
32 |
+
"lstrip": false,
|
33 |
+
"normalized": false,
|
34 |
+
"rstrip": false,
|
35 |
+
"single_word": false
|
36 |
+
}
|
37 |
+
}
|
tokenizer.json
ADDED
The diff for this file is too large to render.
See raw diff
|
|
tokenizer_config.json
ADDED
@@ -0,0 +1,66 @@
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
1 |
+
{
|
2 |
+
"added_tokens_decoder": {
|
3 |
+
"0": {
|
4 |
+
"content": "[PAD]",
|
5 |
+
"lstrip": false,
|
6 |
+
"normalized": false,
|
7 |
+
"rstrip": false,
|
8 |
+
"single_word": false,
|
9 |
+
"special": true
|
10 |
+
},
|
11 |
+
"101": {
|
12 |
+
"content": "[UNK]",
|
13 |
+
"lstrip": false,
|
14 |
+
"normalized": false,
|
15 |
+
"rstrip": false,
|
16 |
+
"single_word": false,
|
17 |
+
"special": true
|
18 |
+
},
|
19 |
+
"102": {
|
20 |
+
"content": "[CLS]",
|
21 |
+
"lstrip": false,
|
22 |
+
"normalized": false,
|
23 |
+
"rstrip": false,
|
24 |
+
"single_word": false,
|
25 |
+
"special": true
|
26 |
+
},
|
27 |
+
"103": {
|
28 |
+
"content": "[SEP]",
|
29 |
+
"lstrip": false,
|
30 |
+
"normalized": false,
|
31 |
+
"rstrip": false,
|
32 |
+
"single_word": false,
|
33 |
+
"special": true
|
34 |
+
},
|
35 |
+
"104": {
|
36 |
+
"content": "[MASK]",
|
37 |
+
"lstrip": false,
|
38 |
+
"normalized": false,
|
39 |
+
"rstrip": false,
|
40 |
+
"single_word": false,
|
41 |
+
"special": true
|
42 |
+
}
|
43 |
+
},
|
44 |
+
"clean_up_tokenization_spaces": false,
|
45 |
+
"cls_token": "[CLS]",
|
46 |
+
"do_basic_tokenize": true,
|
47 |
+
"do_lower_case": false,
|
48 |
+
"extra_special_tokens": {},
|
49 |
+
"mask_token": "[MASK]",
|
50 |
+
"max_len": 512,
|
51 |
+
"max_length": 512,
|
52 |
+
"model_max_length": 512,
|
53 |
+
"never_split": null,
|
54 |
+
"pad_to_multiple_of": null,
|
55 |
+
"pad_token": "[PAD]",
|
56 |
+
"pad_token_type_id": 0,
|
57 |
+
"padding_side": "right",
|
58 |
+
"sep_token": "[SEP]",
|
59 |
+
"stride": 0,
|
60 |
+
"strip_accents": false,
|
61 |
+
"tokenize_chinese_chars": true,
|
62 |
+
"tokenizer_class": "BertTokenizer",
|
63 |
+
"truncation_side": "right",
|
64 |
+
"truncation_strategy": "longest_first",
|
65 |
+
"unk_token": "[UNK]"
|
66 |
+
}
|
vocab.txt
ADDED
The diff for this file is too large to render.
See raw diff
|
|