avemio-digital commited on
Commit
0244d24
·
verified ·
1 Parent(s): 0d14d14

Add new SentenceTransformer model

Browse files
1_Pooling/config.json ADDED
@@ -0,0 +1,10 @@
 
 
 
 
 
 
 
 
 
 
 
1
+ {
2
+ "word_embedding_dimension": 768,
3
+ "pooling_mode_cls_token": false,
4
+ "pooling_mode_mean_tokens": true,
5
+ "pooling_mode_max_tokens": false,
6
+ "pooling_mode_mean_sqrt_len_tokens": false,
7
+ "pooling_mode_weightedmean_tokens": false,
8
+ "pooling_mode_lasttoken": false,
9
+ "include_prompt": true
10
+ }
README.md ADDED
@@ -0,0 +1,1009 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ ---
2
+ language:
3
+ - en
4
+ license: apache-2.0
5
+ tags:
6
+ - sentence-transformers
7
+ - sentence-similarity
8
+ - feature-extraction
9
+ - generated_from_trainer
10
+ - dataset_size:264810
11
+ - loss:MatryoshkaLoss
12
+ - loss:MultipleNegativesRankingLoss
13
+ base_model: answerdotai/ModernBERT-base
14
+ widget:
15
+ - source_sentence: Die Einwohner Haarens protestierten, da der Name ihrer Gemeinde
16
+ bei der Eröffnung der Strecke von den Wegweisern entfernt und durch "Wünnenberg"
17
+ ersetzt wurde.
18
+ sentences:
19
+ - Die Wirksamkeit von Duolingos Ansatz wurde von einer externen Studie untersucht,
20
+ die von der Firma selbst in Auftrag gegeben worden war. Professoren der City University
21
+ of New York und der University of South Carolina haben die Studie durchgeführt
22
+ und schätzen, dass 34 Stunden Duolingo den gleichen Fortschritt bei Lesen und
23
+ Schreiben erzielen wie ein Erstsemesterkurs an einem US-College, der mehr als
24
+ geschätzte 130 Stunden dauert. Die Studie untersuchte nicht die Sprechfähigkeiten
25
+ der Probanden. Bei einem Vergleich wurde festgestellt, dass Benutzer der Software
26
+ Rosetta Stone etwa 55 bis 60 Stunden benötigten, um den gleichen Stoff zu lernen.
27
+ Die Studie hat darüber hinaus keine Vergleiche mit anderen kostenlosen oder günstigen
28
+ Kursen durchgeführt wie "BBC", "Book2", oder "Before You Know It".
29
+ - Da im selben Jahr im Zuge der Gebietsreform in Nordrhein-Westfalen die Gemeinde
30
+ Haaren in die Stadt Wünnenberg eingemeindet wurde, änderte man kurzfristig vor
31
+ Eröffnung der Strecke den Namen der Anschlussstelle "Haaren" in "Wünnenberg",
32
+ sodass Haaren von den Wegweisern gänzlich verschwand. Bei der feierlichen Eröffnung
33
+ der Strecke kam es zu Protestaktionen seitens Einwohner Haarens, bei denen die
34
+ Fahrbahn blockiert wurde, sodass die Eröffnungskolonne nicht wie geplant stattfinden
35
+ konnte. Wünnenberger Lokalpolitiker erwirkten schließlich beim Landesverkehrsministerium
36
+ in Düsseldorf einen Kompromiss, sodass die Anschlussstelle, wie das spätere Autobahnkreuz,
37
+ ab Oktober 1975 "Wünnenberg-Haaren" hieß. Bemerkenswerterweise trägt das Autobahnkreuz
38
+ (noch 2021) diesen Namen, obwohl Wünnenberg seit dem Jahr 2000 "Bad Wünnenberg"
39
+ heißt und das Voranstellen des Gemeinde- bzw. Städtenamens vor den Stadtteilnamen
40
+ bei Orten mit weniger als 100.000 Einwohnern gegen die nordrhein-westfälischen
41
+ Wegweisungs-Richtlinien verstößt.
42
+ - Auf Basis der Planungen einer 1957 gegründeten Arbeitsgruppe der Industrie- und
43
+ Handelskammer Kassel genehmigte das Bundesverkehrsministerium in Bonn den Bau
44
+ einer 4,7 km langen Verbindung zwischen der Autobahn Hamburg–Frankfurt und der
45
+ B 3. Die einbahnige "hochwasserfreie Verbindung Kassel" entstand von 1958 bis
46
+ 1962 auf der vorbereiteten Trasse der Reichsautobahn. Dabei wurde auch die Fuldatalbrücke
47
+ Bergshausen mit einer Fahrbahn fertiggestellt. Der Bau dieser Brücke wurde bereits
48
+ in der NS-Zeit begonnen, bis zur Einstellung des Baus infolge des Zweiten Weltkriegs
49
+ waren nur einige Arbeiten an der Gründung im Gange gewesen.
50
+ - source_sentence: Das Weibchen legt jeden Tag in den Morgenstunden ein Ei und übernachtet
51
+ manchmal schon vor der Eiablage auf dem Nest.
52
+ sentences:
53
+ - Während der Phase der Eiablage legt das Weibchen jeden Tag in den Morgenstunden
54
+ ein Ei. Das Weibchen übernachtet auch vor der Eiablage bisweilen schon auf dem
55
+ Nest, die Bebrütung wird allerdings erst nach der Ablage des vorletzten (manchmal
56
+ des letzten) Eis begonnen, sodass alle Jungvögel etwa am selben Tag schlüpfen.
57
+ - Das Gelege besteht aus 2 bis maximal 8, zumeist 5–6 Eiern. Diese sind oval und
58
+ durchschnittlich 22 × 17 mm groß. Die möglichen Grundfärbungen – weißlich (weiß,
59
+ gelblich, hellgrau oder beige), grünlich oder rötlich – tragen eine Obersprenkelung,
60
+ die zwischen verschiedenen Brauntönen variieren kann. Darunter liegt eine blassere
61
+ Sprenkelung in je nach Farbtyp unterschiedlich getöntem Grau. Auch die Verteilung
62
+ der Sprenkelung kann recht unterschiedlich sein.
63
+ - Die Serienhandlung dreht sich am Anfang neben der Bewahrung von Clarks Geheimnis
64
+ hauptsächlich um das Stoppen von gewalttätigen und verbrecherischen „Meteoritenfreaks“,
65
+ die durch das Meteoritengestein (Kryptonit) nach den beiden Meteoritenschauern
66
+ auf Smallville (Anfang der ersten und Ende der vierten Staffel) besondere Fähigkeiten
67
+ erlangt haben und dadurch korrumpiert oder in den Wahnsinn getrieben werden. Die
68
+ entstandenen kuriosen Kräfte erinnern besonders in der Anfangszeit der Serie oft
69
+ an "Akte X". Von den Fans werden solche Charaktere in der Fantasy und der Science-Fiction
70
+ als "Freak of the Week" (dt. „Monster der Woche“) bezeichnet, da in der wöchentlich
71
+ ausgestrahlten Serie in jeder Folge einer der Freaks auftaucht und besiegt werden
72
+ muss.
73
+ - source_sentence: Reichhart vollzog vertretungsweise Hinrichtungen in verschiedenen
74
+ deutschen Städten, darunter Berlin-Plötzensee, wo er unter anderem Hans und Sophie
75
+ Scholl hinrichtete.
76
+ sentences:
77
+ - Reichhart vollzog vertretungsweise auch Hinrichtungen in Köln, Frankfurt-Preungesheim,
78
+ Berlin-Plötzensee, Brandenburg-Görden und Breslau, wo ebenfalls zentrale Hinrichtungsstätten
79
+ eingerichtet worden waren. Von 1938 bis 1944 war er auch zuständiger Scharfrichter
80
+ für die zentralen Hinrichtungsstätten in Wien und Graz. Insgesamt vollstreckte
81
+ er seit 1924 während der Weimarer Republik und der Zeit des Nationalsozialismus
82
+ 2.951 Todesurteile mit der Guillotine und 59 mit dem Galgen. Unter den Verurteilten
83
+ waren 250 Frauen. Er richtete auch Hans und Sophie Scholl hin († 22. Februar 1943),
84
+ die bekanntesten Mitglieder der Widerstandsgruppe Weiße Rose. Reichhart äußerte
85
+ später, er habe noch nie jemanden so tapfer sterben sehen wie Sophie Scholl.
86
+ - 2012 war Frentzen in Melbourne im Rahmenprogramm der Formel 1 Gaststarter im Porsche
87
+ Carrera Cup Australien.
88
+ - Im Juli 1932 veröffentlichten mehrere niederländische Zeitungen Artikel über Reichharts
89
+ andere Tätigkeit und lüfteten damit sein Inkognito. Seine Geschäfte florierten
90
+ nicht mehr; im Frühjahr 1933 kehrte er nach München zurück. Er erwog, seine Scharfrichtertätigkeit
91
+ aufzugeben.
92
+ - source_sentence: Wann empfahl das RKI der Bevölkerung in Deutschland, einfachen
93
+ Mundschutz zusätzlich zu anderen Schutzmaßnahmen zu tragen?
94
+ sentences:
95
+ - Trotz des Festhaltens an ägyptischer Tradition war das Land auch großen Veränderungen
96
+ unterworfen. So verlor Theben seine Bedeutung als kultureller und administrativer
97
+ Mittelpunkt an Saïs. Weiterhin lässt sich bei allen Herrschern der 26. Dynastie
98
+ eine starke Anlehnung an die griechischen Stadtstaaten feststellen, wenn auch
99
+ unter Pharao Apries der Versuch einer Loslösung von den Griechen erkennbar ist,
100
+ die das Heer dominierten. Amasis eroberte Zypern im ersten Jahrzehnt seiner Herrschaft
101
+ und schloss ein Bündnis mit Kyrene, das sein Vorgänger noch bekämpft hatte. Dazu
102
+ heiratete er eine kyrenische Prinzessin. Dieses Bündnis war noch intakt, als 525
103
+ v. Chr. die Perser Ägypten attackierten.
104
+ - Das RKI bewertete das Risiko für die Bevölkerung in Deutschland am 28. Februar
105
+ 2020 als „gering bis mäßig“, seit dem 17. März als „hoch“ und für Risikogruppen
106
+ seit dem 26. März als „sehr hoch“. Die Gefahr variiere regional; schwere Krankheitsverläufe
107
+ seien „mit zunehmendem Alter und bestehenden Vorerkrankungen“ wahrscheinlicher.
108
+ Das RKI empfahl zum Infektionsschutz, genügend Abstand zu anderen Menschen einzuhalten
109
+ (zum Eigen- und Fremdschutz), sich regelmäßig die Hände mit Seife zu waschen und
110
+ sich nicht ins Gesicht zu fassen, um nicht das Virus auf die Schleimhäute von
111
+ Mund, Nase oder Augen zu bringen. Nachdem am 26. März 2020 der Präsident der Bundesärztekammer
112
+ die Bevölkerung aufgerufen hatte, zusätzlich einfachen Mundschutz zu tragen, erklärte
113
+ das RKI am 2. April, das Tragen von einfachem Mundschutz könne zusätzlich mithelfen,
114
+ andere Menschen nicht anzustecken. Es sei aber kein Ersatz für andere Maßnahmen
115
+ wie das Abstandhalten.
116
+ - Nach dem Tod Kochs am 27. Mai 1910 wurde im Institutsgebäude eine Grabstätte für
117
+ ihn eingerichtet. Im Erdgeschoss des Südwestflügels wurde dafür ein großer Raum
118
+ gegenüber dem Hörsaal ausgewählt und mit Marmor in verschiedenen Farbtönen ausgekleidet.
119
+ In diesem Zimmer war zu Lebzeiten Kochs die photographische Abteilung untergebracht.
120
+ Die Adaptierung des Raums als Mausoleum erfolgte nach Plänen des Architekten Paul
121
+ Mebes. Am 4. Dezember 1910 wurde in Anwesenheit von Familienangehörigen Kochs
122
+ die kupferne Urne mit seiner Asche dort beigesetzt. Die offizielle Einweihung
123
+ des Mausoleums fand am 10. Dezember 1910 statt. Das Mausoleum des Institutsgebäudes
124
+ enthält an seiner westlichen Schmalseite das von dem Berliner Künstler Walter
125
+ Schmarje ausgeführte Epitaph mit dem Reliefbild Kochs. Darunter befindet sich
126
+ in einer durch eine weiße Marmorplatte verschlossenen Nische die Urne mit der
127
+ Asche Kochs. An der Ostseite des Raumes sind unter der Überschrift „Robert Koch
128
+ – Werke und Wirken“ wesentliche Daten zu den Ergebnissen seiner Forschungsarbeit
129
+ dargestellt. Die Bestattung Kochs im Institutsgebäude war möglich, da es zu der
130
+ Zeit in Preußen noch kein Gesetz über die Urnenbeisetzung gab.
131
+ - source_sentence: Wieso verklagte die Familie von Ritter die behandelnden Ärzte auf
132
+ 67 Millionen US-Dollar Schadensersatz?
133
+ sentences:
134
+ - Während Proben zu einer Folge von "Meine wilden Töchter" traten bei Ritter im
135
+ September 2003 starke Brustschmerzen auf, und er begab sich in das nahegelegene
136
+ "Providence Saint Joseph Medical Center", in dem er am 11. September 2003 im Alter
137
+ von 54 Jahren – eine Woche vor seinem 55. Geburtstag – an einer Aortendissektion
138
+ starb. Seine Familie verklagte Anfang 2008 die behandelnden Ärzte auf einen Schadensersatz
139
+ von 67 Millionen US-Dollar. Die Klage wurde im März 2008 abgewiesen.
140
+ - Nach der Einstellung der Fernsehserie "Herzbube mit zwei Damen" nach acht Staffeln
141
+ im Jahr 1984 machte er mit dem Spin-off "Three’s A Crowd" weiter, jedoch wurde
142
+ die Serie nach einer Staffel eingestellt. Weitere Fernsehrollen hatte er in "Inspektor
143
+ Hooperman" (1987), die ihm eine Nominierung sowohl für den Golden Globe als auch
144
+ für den Emmy einbrachte, "Küß’ mich, John" (1992), "Ally McBeal" (1997), "Buffy
145
+ – Im Bann der Dämonen" (1997), "Clifford the Big Red Dog" (2000), "Scrubs – Die
146
+ Anfänger" oder "Meine wilden Töchter" (2002).
147
+ - In Taiwan wurde im April 2014 der Bau des Kernkraftwerks Lungmen nach heftigen
148
+ Protesten bis zu einem Referendum ausgesetzt.
149
+ pipeline_tag: sentence-similarity
150
+ library_name: sentence-transformers
151
+ metrics:
152
+ - cosine_accuracy@1
153
+ - cosine_accuracy@3
154
+ - cosine_accuracy@5
155
+ - cosine_accuracy@10
156
+ - cosine_precision@1
157
+ - cosine_precision@3
158
+ - cosine_precision@5
159
+ - cosine_precision@10
160
+ - cosine_recall@1
161
+ - cosine_recall@3
162
+ - cosine_recall@5
163
+ - cosine_recall@10
164
+ - cosine_ndcg@10
165
+ - cosine_mrr@10
166
+ - cosine_map@100
167
+ model-index:
168
+ - name: BGE base Financial Matryoshka
169
+ results:
170
+ - task:
171
+ type: information-retrieval
172
+ name: Information Retrieval
173
+ dataset:
174
+ name: dim 768
175
+ type: dim_768
176
+ metrics:
177
+ - type: cosine_accuracy@1
178
+ value: 0.5817699836867863
179
+ name: Cosine Accuracy@1
180
+ - type: cosine_accuracy@3
181
+ value: 0.9327759651984774
182
+ name: Cosine Accuracy@3
183
+ - type: cosine_accuracy@5
184
+ value: 0.952215878194671
185
+ name: Cosine Accuracy@5
186
+ - type: cosine_accuracy@10
187
+ value: 0.9681552474170745
188
+ name: Cosine Accuracy@10
189
+ - type: cosine_precision@1
190
+ value: 0.5817699836867863
191
+ name: Cosine Precision@1
192
+ - type: cosine_precision@3
193
+ value: 0.3109253217328258
194
+ name: Cosine Precision@3
195
+ - type: cosine_precision@5
196
+ value: 0.1904431756389342
197
+ name: Cosine Precision@5
198
+ - type: cosine_precision@10
199
+ value: 0.09681552474170746
200
+ name: Cosine Precision@10
201
+ - type: cosine_recall@1
202
+ value: 0.5817699836867863
203
+ name: Cosine Recall@1
204
+ - type: cosine_recall@3
205
+ value: 0.9327759651984774
206
+ name: Cosine Recall@3
207
+ - type: cosine_recall@5
208
+ value: 0.952215878194671
209
+ name: Cosine Recall@5
210
+ - type: cosine_recall@10
211
+ value: 0.9681552474170745
212
+ name: Cosine Recall@10
213
+ - type: cosine_ndcg@10
214
+ value: 0.8140491092898914
215
+ name: Cosine Ndcg@10
216
+ - type: cosine_mrr@10
217
+ value: 0.7608257917087448
218
+ name: Cosine Mrr@10
219
+ - type: cosine_map@100
220
+ value: 0.7617714980276816
221
+ name: Cosine Map@100
222
+ ---
223
+
224
+ # BGE base Financial Matryoshka
225
+
226
+ This is a [sentence-transformers](https://www.SBERT.net) model finetuned from [answerdotai/ModernBERT-base](https://huggingface.co/answerdotai/ModernBERT-base) on the json dataset. It maps sentences & paragraphs to a 768-dimensional dense vector space and can be used for semantic textual similarity, semantic search, paraphrase mining, text classification, clustering, and more.
227
+
228
+ ## Model Details
229
+
230
+ ### Model Description
231
+ - **Model Type:** Sentence Transformer
232
+ - **Base model:** [answerdotai/ModernBERT-base](https://huggingface.co/answerdotai/ModernBERT-base) <!-- at revision 8949b909ec900327062f0ebf497f51aef5e6f0c8 -->
233
+ - **Maximum Sequence Length:** 8192 tokens
234
+ - **Output Dimensionality:** 768 dimensions
235
+ - **Similarity Function:** Cosine Similarity
236
+ - **Training Dataset:**
237
+ - json
238
+ - **Language:** en
239
+ - **License:** apache-2.0
240
+
241
+ ### Model Sources
242
+
243
+ - **Documentation:** [Sentence Transformers Documentation](https://sbert.net)
244
+ - **Repository:** [Sentence Transformers on GitHub](https://github.com/UKPLab/sentence-transformers)
245
+ - **Hugging Face:** [Sentence Transformers on Hugging Face](https://huggingface.co/models?library=sentence-transformers)
246
+
247
+ ### Full Model Architecture
248
+
249
+ ```
250
+ SentenceTransformer(
251
+ (0): Transformer({'max_seq_length': 8192, 'do_lower_case': False}) with Transformer model: ModernBertModel
252
+ (1): Pooling({'word_embedding_dimension': 768, 'pooling_mode_cls_token': False, 'pooling_mode_mean_tokens': True, 'pooling_mode_max_tokens': False, 'pooling_mode_mean_sqrt_len_tokens': False, 'pooling_mode_weightedmean_tokens': False, 'pooling_mode_lasttoken': False, 'include_prompt': True})
253
+ )
254
+ ```
255
+
256
+ ## Usage
257
+
258
+ ### Direct Usage (Sentence Transformers)
259
+
260
+ First install the Sentence Transformers library:
261
+
262
+ ```bash
263
+ pip install -U sentence-transformers
264
+ ```
265
+
266
+ Then you can load this model and run inference.
267
+ ```python
268
+ from sentence_transformers import SentenceTransformer
269
+
270
+ # Download from the 🤗 Hub
271
+ model = SentenceTransformer("avemio-digital/ModernBERT_base_triples_embedding")
272
+ # Run inference
273
+ sentences = [
274
+ 'Wieso verklagte die Familie von Ritter die behandelnden Ärzte auf 67 Millionen US-Dollar Schadensersatz?',
275
+ 'Während Proben zu einer Folge von "Meine wilden Töchter" traten bei Ritter im September 2003 starke Brustschmerzen auf, und er begab sich in das nahegelegene "Providence Saint Joseph Medical Center", in dem er am 11. September 2003 im Alter von 54 Jahren – eine Woche vor seinem 55. Geburtstag – an einer Aortendissektion starb. Seine Familie verklagte Anfang 2008 die behandelnden Ärzte auf einen Schadensersatz von 67 Millionen US-Dollar. Die Klage wurde im März 2008 abgewiesen.',
276
+ 'Nach der Einstellung der Fernsehserie "Herzbube mit zwei Damen" nach acht Staffeln im Jahr 1984 machte er mit dem Spin-off "Three’s A Crowd" weiter, jedoch wurde die Serie nach einer Staffel eingestellt. Weitere Fernsehrollen hatte er in "Inspektor Hooperman" (1987), die ihm eine Nominierung sowohl für den Golden Globe als auch für den Emmy einbrachte, "Küß’ mich, John" (1992), "Ally McBeal" (1997), "Buffy – Im Bann der Dämonen" (1997), "Clifford the Big Red Dog" (2000), "Scrubs – Die Anfänger" oder "Meine wilden Töchter" (2002).',
277
+ ]
278
+ embeddings = model.encode(sentences)
279
+ print(embeddings.shape)
280
+ # [3, 768]
281
+
282
+ # Get the similarity scores for the embeddings
283
+ similarities = model.similarity(embeddings, embeddings)
284
+ print(similarities.shape)
285
+ # [3, 3]
286
+ ```
287
+
288
+ <!--
289
+ ### Direct Usage (Transformers)
290
+
291
+ <details><summary>Click to see the direct usage in Transformers</summary>
292
+
293
+ </details>
294
+ -->
295
+
296
+ <!--
297
+ ### Downstream Usage (Sentence Transformers)
298
+
299
+ You can finetune this model on your own dataset.
300
+
301
+ <details><summary>Click to expand</summary>
302
+
303
+ </details>
304
+ -->
305
+
306
+ <!--
307
+ ### Out-of-Scope Use
308
+
309
+ *List how the model may foreseeably be misused and address what users ought not to do with the model.*
310
+ -->
311
+
312
+ ## Evaluation
313
+
314
+ ### Metrics
315
+
316
+ #### Information Retrieval
317
+
318
+ * Dataset: `dim_768`
319
+ * Evaluated with [<code>InformationRetrievalEvaluator</code>](https://sbert.net/docs/package_reference/sentence_transformer/evaluation.html#sentence_transformers.evaluation.InformationRetrievalEvaluator)
320
+
321
+ | Metric | Value |
322
+ |:--------------------|:----------|
323
+ | cosine_accuracy@1 | 0.5818 |
324
+ | cosine_accuracy@3 | 0.9328 |
325
+ | cosine_accuracy@5 | 0.9522 |
326
+ | cosine_accuracy@10 | 0.9682 |
327
+ | cosine_precision@1 | 0.5818 |
328
+ | cosine_precision@3 | 0.3109 |
329
+ | cosine_precision@5 | 0.1904 |
330
+ | cosine_precision@10 | 0.0968 |
331
+ | cosine_recall@1 | 0.5818 |
332
+ | cosine_recall@3 | 0.9328 |
333
+ | cosine_recall@5 | 0.9522 |
334
+ | cosine_recall@10 | 0.9682 |
335
+ | **cosine_ndcg@10** | **0.814** |
336
+ | cosine_mrr@10 | 0.7608 |
337
+ | cosine_map@100 | 0.7618 |
338
+
339
+ <!--
340
+ ## Bias, Risks and Limitations
341
+
342
+ *What are the known or foreseeable issues stemming from this model? You could also flag here known failure cases or weaknesses of the model.*
343
+ -->
344
+
345
+ <!--
346
+ ### Recommendations
347
+
348
+ *What are recommendations with respect to the foreseeable issues? For example, filtering explicit content.*
349
+ -->
350
+
351
+ ## Training Details
352
+
353
+ ### Training Dataset
354
+
355
+ #### json
356
+
357
+ * Dataset: json
358
+ * Size: 264,810 training samples
359
+ * Columns: <code>anchor</code>, <code>positive</code>, and <code>negative</code>
360
+ * Approximate statistics based on the first 1000 samples:
361
+ | | anchor | positive | negative |
362
+ |:--------|:------------------------------------------------------------------------------------|:--------------------------------------------------------------------------------------|:--------------------------------------------------------------------------------------|
363
+ | type | string | string | string |
364
+ | details | <ul><li>min: 28 tokens</li><li>mean: 54.52 tokens</li><li>max: 307 tokens</li></ul> | <ul><li>min: 30 tokens</li><li>mean: 184.58 tokens</li><li>max: 1293 tokens</li></ul> | <ul><li>min: 33 tokens</li><li>mean: 151.69 tokens</li><li>max: 1297 tokens</li></ul> |
365
+ * Samples:
366
+ | anchor | positive | negative |
367
+ |:--------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|:---------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|:---------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|
368
+ | <code>Was passiert, als die Haeduer sich gegen Caesar erheben und die Römer die Schlacht um Gergovia führen?</code> | <code>Während er Titus Labienus mit vier Legionen in die Gebiete der Senonen und Parisier verlegt, macht sich Caesar auf nach Gergovia ins Gebiet der Arverner und die Heimat des Vercingetorix. Die Haeduer erheben sich jedoch schon bald gegen Caesar. Während die Schlacht um Gergovia tobt, rücken die Haeduer auf die römischen Truppen zu. Die Römer verlieren an diesem Tag fast siebenhundert Männer, können die Stadt aber nicht einnehmen. Caesar zieht weiter zur Stadt Noviodunum, die von den Haeduern zerstört wurde, während Labienus gegen die Stadt Lutetia zieht. Dort kommt es für Labienus zur siegreichen Schlacht. Die Gallier fliehen. Nach drei Tagen vereinigen sich seine Truppen mit denen Caesars.</code> | <code>Unterdessen hält Vercingetorix gallischen Landtag in Bibracte. Fast alle gallischen Stämme nehmen teil und bestätigen Vercingetorix als Feldherrn. Es kommt zur Schlacht, in deren Verlauf die gallischen Reiter am Fluss Armançon vernichtet werden. Vercingetorix zieht mit seinen Fußtruppen zur Festung Alesia ab. Dort kommt es erneut zum Kampf, den Caesar dank germanischer Hilfstruppen für sich entscheiden kann. Ihm gelingt es, die Gallier einzuschließen und ein ausgeklügeltes Befestigungssystem rund um die Stadt zu errichten. Die eingeschlossenen Gallier warten jetzt dringend auf heranziehende gallische Hilfstruppen, denn ihre Lebensmittelvorräte sind fast aufgebraucht. Die Gallier diskutieren die Möglichkeit, sich zu ergeben. In der flammenden Rede des Arverners Critognatus spricht sich dieser gegen eine Kapitulation aus und überzeugt die Übrigen. Reitergefechte eröffnen die nächsten Kampfhandlungen, bis zum Abend bahnt sich aber keine Entscheidung an. Auch in den kommenden Tagen gelingt...</code> |
369
+ | <code>Wo war die Geburtsstätte der Hip-Hop-Musik und welches Label spielte eine bedeutende Rolle in den 1990er Jahren an der US-Ostküste?</code> | <code>Hip-Hop-Musik entstand in New York City, an der US-Ostküste. Obwohl es inzwischen auch andere wichtige Zentren wie zum Beispiel Philadelphia und Los Angeles gibt, ist die Stadt bis heute das Zentrum der Szene. 1992 begann sich die Musikszene zu verändern. Hip-Hop-Musik wurde immer mehr und schließlich endgültig vom Mainstream übernommen und versprach, kommerziell sehr lukrativ zu werden. Ein wichtiges Label an der Ostküste war zu dieser Zeit Bad Boy Entertainment von Puff Daddy, dort veröffentlichten Craig Mack, Mase und The Notorious B.I.G.</code> | <code>East Coast vs. West Coast ("Ostküste gegen Westküste") ist die gängigste Bezeichnung für den bekanntesten "Beef" – eine Fehde im Hip-Hop. Bei der in der Mitte der 1990er-Jahre stattfindenden Auseinandersetzung handelte es sich um eine Rivalität zwischen den Plattenfirmen Bad Boy Entertainment aus New York City und Death Row Records aus Los Angeles sowie den dazugehörigen Rappern und Produzenten, die gewaltsam eskalierte. In ihrer Folge wurden unter anderem die Rapper Tupac Shakur und Notorious B.I.G. erschossen, wobei die Täter und der jeweilige Zusammenhang mit der Fehde ungeklärt blieben. Benannt ist der Konflikt nach den Szenen des Eastcoast-Hip-Hops und des Westcoast-Hip-Hops.</code> |
370
+ | <code>Die Annäherung zwischen Nord- und Südkorea in Bezug auf die Olympischen Spiele von 2018 beinhaltete gemeinsame Gespräche, die Einigung auf die Teilnahme nordkoreanischer Athleten sowie das gemeinsame Eintreten bei der Eröffnungsfeier und im Frauen-Eishockey.</code> | <code>Am 1. Januar 2018 sagte der nordkoreanische Machthaber Kim Jong-un in seiner Neujahrsansprache, dass die beiden Länder wieder gemeinsame Gespräche führen sollten. Am 9. Januar 2018 trafen sich Regierungsvertreter beider Länder und einigten sich unter anderem auf Athleten aus Nordkorea bei den Wettkämpfen in Südkorea. Am 17. Januar 2018 sagte ein Sprecher des südkoreanischen Vereinigungsministeriums, dass die beiden Länder unter dem Namen „Korea“ bei der Eröffnungsfeier gemeinsam einlaufen und im Frauen-Eishockey gemeinsam antreten würden.</code> | <code>Während der XXIII. Olympischen Winterspiele gab es vier Dopingfälle. So wurde der japanische Shorttracker Kei Saito positiv auf das Diuretikum Acetazolamid, der slowenische Eishockeyspieler Žiga Jeglič positiv auf das Asthmamittel Fenoterol, der russische Curler Alexander Alexandrowitsch Kruschelnizki positiv auf das Herzmittel Meldonium und die russische Bobfahrerin Nadeschda Wiktorowna Sergejewa positiv auf das Herzmittel Trimetazidin getestet. Alle vier Athleten wurden von der Veranstaltung ausgeschlossen. Außerdem wurden dem russischen Curler und seiner Partnerin die zuvor gewonnene Bronzemedaille bei den Mixed Doubles aberkannt und dem norwegischen Team Kristin Skaslien/Magnus Nedregotten zugesprochen.</code> |
371
+ * Loss: [<code>MatryoshkaLoss</code>](https://sbert.net/docs/package_reference/sentence_transformer/losses.html#matryoshkaloss) with these parameters:
372
+ ```json
373
+ {
374
+ "loss": "MultipleNegativesRankingLoss",
375
+ "matryoshka_dims": [
376
+ 768
377
+ ],
378
+ "matryoshka_weights": [
379
+ 1
380
+ ],
381
+ "n_dims_per_step": -1
382
+ }
383
+ ```
384
+
385
+ ### Training Hyperparameters
386
+ #### Non-Default Hyperparameters
387
+
388
+ - `eval_strategy`: epoch
389
+ - `gradient_accumulation_steps`: 16
390
+ - `learning_rate`: 2e-05
391
+ - `num_train_epochs`: 1
392
+ - `lr_scheduler_type`: cosine
393
+ - `warmup_ratio`: 0.1
394
+ - `bf16`: True
395
+ - `tf32`: True
396
+ - `load_best_model_at_end`: True
397
+ - `optim`: adamw_torch_fused
398
+ - `batch_sampler`: no_duplicates
399
+
400
+ #### All Hyperparameters
401
+ <details><summary>Click to expand</summary>
402
+
403
+ - `overwrite_output_dir`: False
404
+ - `do_predict`: False
405
+ - `eval_strategy`: epoch
406
+ - `prediction_loss_only`: True
407
+ - `per_device_train_batch_size`: 8
408
+ - `per_device_eval_batch_size`: 8
409
+ - `per_gpu_train_batch_size`: None
410
+ - `per_gpu_eval_batch_size`: None
411
+ - `gradient_accumulation_steps`: 16
412
+ - `eval_accumulation_steps`: None
413
+ - `torch_empty_cache_steps`: None
414
+ - `learning_rate`: 2e-05
415
+ - `weight_decay`: 0.0
416
+ - `adam_beta1`: 0.9
417
+ - `adam_beta2`: 0.999
418
+ - `adam_epsilon`: 1e-08
419
+ - `max_grad_norm`: 1.0
420
+ - `num_train_epochs`: 1
421
+ - `max_steps`: -1
422
+ - `lr_scheduler_type`: cosine
423
+ - `lr_scheduler_kwargs`: {}
424
+ - `warmup_ratio`: 0.1
425
+ - `warmup_steps`: 0
426
+ - `log_level`: passive
427
+ - `log_level_replica`: warning
428
+ - `log_on_each_node`: True
429
+ - `logging_nan_inf_filter`: True
430
+ - `save_safetensors`: True
431
+ - `save_on_each_node`: False
432
+ - `save_only_model`: False
433
+ - `restore_callback_states_from_checkpoint`: False
434
+ - `no_cuda`: False
435
+ - `use_cpu`: False
436
+ - `use_mps_device`: False
437
+ - `seed`: 42
438
+ - `data_seed`: None
439
+ - `jit_mode_eval`: False
440
+ - `use_ipex`: False
441
+ - `bf16`: True
442
+ - `fp16`: False
443
+ - `fp16_opt_level`: O1
444
+ - `half_precision_backend`: auto
445
+ - `bf16_full_eval`: False
446
+ - `fp16_full_eval`: False
447
+ - `tf32`: True
448
+ - `local_rank`: 0
449
+ - `ddp_backend`: None
450
+ - `tpu_num_cores`: None
451
+ - `tpu_metrics_debug`: False
452
+ - `debug`: []
453
+ - `dataloader_drop_last`: False
454
+ - `dataloader_num_workers`: 0
455
+ - `dataloader_prefetch_factor`: None
456
+ - `past_index`: -1
457
+ - `disable_tqdm`: False
458
+ - `remove_unused_columns`: True
459
+ - `label_names`: None
460
+ - `load_best_model_at_end`: True
461
+ - `ignore_data_skip`: False
462
+ - `fsdp`: []
463
+ - `fsdp_min_num_params`: 0
464
+ - `fsdp_config`: {'min_num_params': 0, 'xla': False, 'xla_fsdp_v2': False, 'xla_fsdp_grad_ckpt': False}
465
+ - `fsdp_transformer_layer_cls_to_wrap`: None
466
+ - `accelerator_config`: {'split_batches': False, 'dispatch_batches': None, 'even_batches': True, 'use_seedable_sampler': True, 'non_blocking': False, 'gradient_accumulation_kwargs': None}
467
+ - `deepspeed`: None
468
+ - `label_smoothing_factor`: 0.0
469
+ - `optim`: adamw_torch_fused
470
+ - `optim_args`: None
471
+ - `adafactor`: False
472
+ - `group_by_length`: False
473
+ - `length_column_name`: length
474
+ - `ddp_find_unused_parameters`: None
475
+ - `ddp_bucket_cap_mb`: None
476
+ - `ddp_broadcast_buffers`: False
477
+ - `dataloader_pin_memory`: True
478
+ - `dataloader_persistent_workers`: False
479
+ - `skip_memory_metrics`: True
480
+ - `use_legacy_prediction_loop`: False
481
+ - `push_to_hub`: False
482
+ - `resume_from_checkpoint`: None
483
+ - `hub_model_id`: None
484
+ - `hub_strategy`: every_save
485
+ - `hub_private_repo`: None
486
+ - `hub_always_push`: False
487
+ - `gradient_checkpointing`: False
488
+ - `gradient_checkpointing_kwargs`: None
489
+ - `include_inputs_for_metrics`: False
490
+ - `include_for_metrics`: []
491
+ - `eval_do_concat_batches`: True
492
+ - `fp16_backend`: auto
493
+ - `push_to_hub_model_id`: None
494
+ - `push_to_hub_organization`: None
495
+ - `mp_parameters`:
496
+ - `auto_find_batch_size`: False
497
+ - `full_determinism`: False
498
+ - `torchdynamo`: None
499
+ - `ray_scope`: last
500
+ - `ddp_timeout`: 1800
501
+ - `torch_compile`: False
502
+ - `torch_compile_backend`: None
503
+ - `torch_compile_mode`: None
504
+ - `dispatch_batches`: None
505
+ - `split_batches`: None
506
+ - `include_tokens_per_second`: False
507
+ - `include_num_input_tokens_seen`: False
508
+ - `neftune_noise_alpha`: None
509
+ - `optim_target_modules`: None
510
+ - `batch_eval_metrics`: False
511
+ - `eval_on_start`: False
512
+ - `use_liger_kernel`: False
513
+ - `eval_use_gather_object`: False
514
+ - `average_tokens_across_devices`: False
515
+ - `prompts`: None
516
+ - `batch_sampler`: no_duplicates
517
+ - `multi_dataset_batch_sampler`: proportional
518
+
519
+ </details>
520
+
521
+ ### Training Logs
522
+ <details><summary>Click to expand</summary>
523
+
524
+ | Epoch | Step | Training Loss | dim_768_cosine_ndcg@10 |
525
+ |:------:|:----:|:-------------:|:----------------------:|
526
+ | 0.0048 | 10 | 39.6025 | - |
527
+ | 0.0097 | 20 | 37.9613 | - |
528
+ | 0.0145 | 30 | 34.1056 | - |
529
+ | 0.0193 | 40 | 27.0495 | - |
530
+ | 0.0242 | 50 | 17.7033 | - |
531
+ | 0.0290 | 60 | 11.5513 | - |
532
+ | 0.0338 | 70 | 8.059 | - |
533
+ | 0.0387 | 80 | 5.7182 | - |
534
+ | 0.0435 | 90 | 4.1844 | - |
535
+ | 0.0483 | 100 | 3.5612 | - |
536
+ | 0.0532 | 110 | 2.7178 | - |
537
+ | 0.0580 | 120 | 2.4993 | - |
538
+ | 0.0628 | 130 | 2.0754 | - |
539
+ | 0.0677 | 140 | 1.9418 | - |
540
+ | 0.0725 | 150 | 1.4704 | - |
541
+ | 0.0773 | 160 | 1.3959 | - |
542
+ | 0.0822 | 170 | 1.4232 | - |
543
+ | 0.0870 | 180 | 1.5266 | - |
544
+ | 0.0918 | 190 | 1.2147 | - |
545
+ | 0.0967 | 200 | 1.3711 | - |
546
+ | 0.1015 | 210 | 1.0753 | - |
547
+ | 0.1063 | 220 | 1.156 | - |
548
+ | 0.1112 | 230 | 1.3619 | - |
549
+ | 0.1160 | 240 | 1.1122 | - |
550
+ | 0.1208 | 250 | 1.0742 | - |
551
+ | 0.1257 | 260 | 1.136 | - |
552
+ | 0.1305 | 270 | 0.858 | - |
553
+ | 0.1353 | 280 | 1.068 | - |
554
+ | 0.1402 | 290 | 0.6717 | - |
555
+ | 0.1450 | 300 | 0.8825 | - |
556
+ | 0.1498 | 310 | 0.7441 | - |
557
+ | 0.1547 | 320 | 0.8464 | - |
558
+ | 0.1595 | 330 | 0.7714 | - |
559
+ | 0.1643 | 340 | 0.8174 | - |
560
+ | 0.1692 | 350 | 0.7368 | - |
561
+ | 0.1740 | 360 | 0.741 | - |
562
+ | 0.1788 | 370 | 0.6764 | - |
563
+ | 0.1837 | 380 | 0.7638 | - |
564
+ | 0.1885 | 390 | 0.7172 | - |
565
+ | 0.1933 | 400 | 0.7113 | - |
566
+ | 0.1982 | 410 | 0.7091 | - |
567
+ | 0.2030 | 420 | 0.5405 | - |
568
+ | 0.2078 | 430 | 0.5891 | - |
569
+ | 0.2127 | 440 | 0.6461 | - |
570
+ | 0.2175 | 450 | 0.781 | - |
571
+ | 0.2223 | 460 | 0.6744 | - |
572
+ | 0.2272 | 470 | 0.5077 | - |
573
+ | 0.2320 | 480 | 0.7061 | - |
574
+ | 0.2368 | 490 | 0.5176 | - |
575
+ | 0.2417 | 500 | 0.4864 | - |
576
+ | 0.2465 | 510 | 0.5373 | - |
577
+ | 0.2513 | 520 | 0.5507 | - |
578
+ | 0.2562 | 530 | 0.6507 | - |
579
+ | 0.2610 | 540 | 0.5708 | - |
580
+ | 0.2658 | 550 | 0.4801 | - |
581
+ | 0.2707 | 560 | 0.3825 | - |
582
+ | 0.2755 | 570 | 0.5892 | - |
583
+ | 0.2803 | 580 | 0.5823 | - |
584
+ | 0.2852 | 590 | 0.51 | - |
585
+ | 0.2900 | 600 | 0.5337 | - |
586
+ | 0.2948 | 610 | 0.5187 | - |
587
+ | 0.2997 | 620 | 0.471 | - |
588
+ | 0.3045 | 630 | 0.5821 | - |
589
+ | 0.3093 | 640 | 0.3278 | - |
590
+ | 0.3142 | 650 | 0.5094 | - |
591
+ | 0.3190 | 660 | 0.4114 | - |
592
+ | 0.3238 | 670 | 0.4379 | - |
593
+ | 0.3287 | 680 | 0.5234 | - |
594
+ | 0.3335 | 690 | 0.5318 | - |
595
+ | 0.3383 | 700 | 0.4787 | - |
596
+ | 0.3432 | 710 | 0.3483 | - |
597
+ | 0.3480 | 720 | 0.465 | - |
598
+ | 0.3528 | 730 | 0.4302 | - |
599
+ | 0.3577 | 740 | 0.3866 | - |
600
+ | 0.3625 | 750 | 0.453 | - |
601
+ | 0.3673 | 760 | 0.3842 | - |
602
+ | 0.3722 | 770 | 0.4903 | - |
603
+ | 0.3770 | 780 | 0.33 | - |
604
+ | 0.3819 | 790 | 0.4736 | - |
605
+ | 0.3867 | 800 | 0.3975 | - |
606
+ | 0.3915 | 810 | 0.3676 | - |
607
+ | 0.3964 | 820 | 0.2913 | - |
608
+ | 0.4012 | 830 | 0.4038 | - |
609
+ | 0.4060 | 840 | 0.4749 | - |
610
+ | 0.4109 | 850 | 0.4103 | - |
611
+ | 0.4157 | 860 | 0.4588 | - |
612
+ | 0.4205 | 870 | 0.3013 | - |
613
+ | 0.4254 | 880 | 0.4855 | - |
614
+ | 0.4302 | 890 | 0.3959 | - |
615
+ | 0.4350 | 900 | 0.3933 | - |
616
+ | 0.4399 | 910 | 0.3598 | - |
617
+ | 0.4447 | 920 | 0.4467 | - |
618
+ | 0.4495 | 930 | 0.4035 | - |
619
+ | 0.4544 | 940 | 0.4247 | - |
620
+ | 0.4592 | 950 | 0.4468 | - |
621
+ | 0.4640 | 960 | 0.3264 | - |
622
+ | 0.4689 | 970 | 0.3445 | - |
623
+ | 0.4737 | 980 | 0.363 | - |
624
+ | 0.4785 | 990 | 0.3709 | - |
625
+ | 0.4834 | 1000 | 0.4586 | - |
626
+ | 0.4882 | 1010 | 0.3139 | - |
627
+ | 0.4930 | 1020 | 0.567 | - |
628
+ | 0.4979 | 1030 | 0.3755 | - |
629
+ | 0.5027 | 1040 | 0.2952 | - |
630
+ | 0.5075 | 1050 | 0.3576 | - |
631
+ | 0.5124 | 1060 | 0.311 | - |
632
+ | 0.5172 | 1070 | 0.381 | - |
633
+ | 0.5220 | 1080 | 0.3554 | - |
634
+ | 0.5269 | 1090 | 0.3065 | - |
635
+ | 0.5317 | 1100 | 0.4087 | - |
636
+ | 0.5365 | 1110 | 0.2437 | - |
637
+ | 0.5414 | 1120 | 0.4124 | - |
638
+ | 0.5462 | 1130 | 0.435 | - |
639
+ | 0.5510 | 1140 | 0.2396 | - |
640
+ | 0.5559 | 1150 | 0.3464 | - |
641
+ | 0.5607 | 1160 | 0.3872 | - |
642
+ | 0.5655 | 1170 | 0.4872 | - |
643
+ | 0.5704 | 1180 | 0.351 | - |
644
+ | 0.5752 | 1190 | 0.2864 | - |
645
+ | 0.5800 | 1200 | 0.4254 | - |
646
+ | 0.5849 | 1210 | 0.3073 | - |
647
+ | 0.5897 | 1220 | 0.3146 | - |
648
+ | 0.5945 | 1230 | 0.268 | - |
649
+ | 0.5994 | 1240 | 0.3106 | - |
650
+ | 0.6042 | 1250 | 0.426 | - |
651
+ | 0.6090 | 1260 | 0.4197 | - |
652
+ | 0.6139 | 1270 | 0.3648 | - |
653
+ | 0.6187 | 1280 | 0.272 | - |
654
+ | 0.6235 | 1290 | 0.3805 | - |
655
+ | 0.6284 | 1300 | 0.3631 | - |
656
+ | 0.6332 | 1310 | 0.265 | - |
657
+ | 0.6380 | 1320 | 0.288 | - |
658
+ | 0.6429 | 1330 | 0.2716 | - |
659
+ | 0.6477 | 1340 | 0.3444 | - |
660
+ | 0.6525 | 1350 | 0.2418 | - |
661
+ | 0.6574 | 1360 | 0.3825 | - |
662
+ | 0.6622 | 1370 | 0.2237 | - |
663
+ | 0.6670 | 1380 | 0.2659 | - |
664
+ | 0.6719 | 1390 | 0.244 | - |
665
+ | 0.6767 | 1400 | 0.2628 | - |
666
+ | 0.6815 | 1410 | 0.3385 | - |
667
+ | 0.6864 | 1420 | 0.3503 | - |
668
+ | 0.6912 | 1430 | 0.3228 | - |
669
+ | 0.6960 | 1440 | 0.3461 | - |
670
+ | 0.7009 | 1450 | 0.3283 | - |
671
+ | 0.7057 | 1460 | 0.3345 | - |
672
+ | 0.7105 | 1470 | 0.429 | - |
673
+ | 0.7154 | 1480 | 0.254 | - |
674
+ | 0.7202 | 1490 | 0.196 | - |
675
+ | 0.7250 | 1500 | 0.3695 | - |
676
+ | 0.7299 | 1510 | 0.2672 | - |
677
+ | 0.7347 | 1520 | 0.3063 | - |
678
+ | 0.7395 | 1530 | 0.3582 | - |
679
+ | 0.7444 | 1540 | 0.3276 | - |
680
+ | 0.7492 | 1550 | 0.3168 | - |
681
+ | 0.7540 | 1560 | 0.3315 | - |
682
+ | 0.7589 | 1570 | 0.3494 | - |
683
+ | 0.7637 | 1580 | 0.3574 | - |
684
+ | 0.7685 | 1590 | 0.2926 | - |
685
+ | 0.7734 | 1600 | 0.3158 | - |
686
+ | 0.7782 | 1610 | 0.2219 | - |
687
+ | 0.7830 | 1620 | 0.2301 | - |
688
+ | 0.7879 | 1630 | 0.3057 | - |
689
+ | 0.7927 | 1640 | 0.2204 | - |
690
+ | 0.7975 | 1650 | 0.2708 | - |
691
+ | 0.8024 | 1660 | 0.2864 | - |
692
+ | 0.8072 | 1670 | 0.3662 | - |
693
+ | 0.8120 | 1680 | 0.2674 | - |
694
+ | 0.8169 | 1690 | 0.284 | - |
695
+ | 0.8217 | 1700 | 0.2438 | - |
696
+ | 0.8265 | 1710 | 0.3772 | - |
697
+ | 0.8314 | 1720 | 0.3122 | - |
698
+ | 0.8362 | 1730 | 0.2474 | - |
699
+ | 0.8410 | 1740 | 0.2981 | - |
700
+ | 0.8459 | 1750 | 0.2331 | - |
701
+ | 0.8507 | 1760 | 0.2858 | - |
702
+ | 0.8555 | 1770 | 0.2362 | - |
703
+ | 0.8604 | 1780 | 0.254 | - |
704
+ | 0.8652 | 1790 | 0.2155 | - |
705
+ | 0.8700 | 1800 | 0.2614 | - |
706
+ | 0.8749 | 1810 | 0.2149 | - |
707
+ | 0.8797 | 1820 | 0.2774 | - |
708
+ | 0.8845 | 1830 | 0.3404 | - |
709
+ | 0.8894 | 1840 | 0.2184 | - |
710
+ | 0.8942 | 1850 | 0.2138 | - |
711
+ | 0.8990 | 1860 | 0.3272 | - |
712
+ | 0.9039 | 1870 | 0.3183 | - |
713
+ | 0.9087 | 1880 | 0.2401 | - |
714
+ | 0.9135 | 1890 | 0.2773 | - |
715
+ | 0.9184 | 1900 | 0.2353 | - |
716
+ | 0.9232 | 1910 | 0.2686 | - |
717
+ | 0.9280 | 1920 | 0.3028 | - |
718
+ | 0.9329 | 1930 | 0.2799 | - |
719
+ | 0.9377 | 1940 | 0.4128 | - |
720
+ | 0.9425 | 1950 | 0.1866 | - |
721
+ | 0.9474 | 1960 | 0.2149 | - |
722
+ | 0.9522 | 1970 | 0.2565 | - |
723
+ | 0.9570 | 1980 | 0.3198 | - |
724
+ | 0.9619 | 1990 | 0.2368 | - |
725
+ | 0.9667 | 2000 | 0.1715 | - |
726
+ | 0.9715 | 2010 | 0.2219 | - |
727
+ | 0.9764 | 2020 | 0.2335 | - |
728
+ | 0.9812 | 2030 | 0.2485 | - |
729
+ | 0.9860 | 2040 | 0.2966 | - |
730
+ | 0.9909 | 2050 | 0.2007 | - |
731
+ | 0.9957 | 2060 | 0.2383 | - |
732
+ | 0.9996 | 2068 | - | 0.8064 |
733
+ | 0.0048 | 10 | 0.2327 | - |
734
+ | 0.0097 | 20 | 0.2529 | - |
735
+ | 0.0145 | 30 | 0.2527 | - |
736
+ | 0.0193 | 40 | 0.2244 | - |
737
+ | 0.0242 | 50 | 0.4014 | - |
738
+ | 0.0290 | 60 | 0.3844 | - |
739
+ | 0.0338 | 70 | 0.2978 | - |
740
+ | 0.0387 | 80 | 0.3432 | - |
741
+ | 0.0435 | 90 | 0.184 | - |
742
+ | 0.0483 | 100 | 0.3491 | - |
743
+ | 0.0532 | 110 | 0.2435 | - |
744
+ | 0.0580 | 120 | 0.2032 | - |
745
+ | 0.0628 | 130 | 0.257 | - |
746
+ | 0.0677 | 140 | 0.3178 | - |
747
+ | 0.0725 | 150 | 0.2575 | - |
748
+ | 0.0773 | 160 | 0.2099 | - |
749
+ | 0.0822 | 170 | 0.232 | - |
750
+ | 0.0870 | 180 | 0.2196 | - |
751
+ | 0.0918 | 190 | 0.2303 | - |
752
+ | 0.0967 | 200 | 0.271 | - |
753
+ | 0.1015 | 210 | 0.1831 | - |
754
+ | 0.1063 | 220 | 0.1815 | - |
755
+ | 0.1112 | 230 | 0.2543 | - |
756
+ | 0.1160 | 240 | 0.2217 | - |
757
+ | 0.1208 | 250 | 0.2435 | - |
758
+ | 0.1257 | 260 | 0.247 | - |
759
+ | 0.1305 | 270 | 0.2078 | - |
760
+ | 0.1353 | 280 | 0.1966 | - |
761
+ | 0.1402 | 290 | 0.13 | - |
762
+ | 0.1450 | 300 | 0.1588 | - |
763
+ | 0.1498 | 310 | 0.1402 | - |
764
+ | 0.1547 | 320 | 0.1944 | - |
765
+ | 0.1595 | 330 | 0.1297 | - |
766
+ | 0.1643 | 340 | 0.2317 | - |
767
+ | 0.1692 | 350 | 0.137 | - |
768
+ | 0.1740 | 360 | 0.1501 | - |
769
+ | 0.1788 | 370 | 0.1475 | - |
770
+ | 0.1837 | 380 | 0.1325 | - |
771
+ | 0.1885 | 390 | 0.1457 | - |
772
+ | 0.1933 | 400 | 0.1415 | - |
773
+ | 0.1982 | 410 | 0.1256 | - |
774
+ | 0.2030 | 420 | 0.1201 | - |
775
+ | 0.2078 | 430 | 0.0994 | - |
776
+ | 0.2127 | 440 | 0.1208 | - |
777
+ | 0.2175 | 450 | 0.158 | - |
778
+ | 0.2223 | 460 | 0.1329 | - |
779
+ | 0.2272 | 470 | 0.1148 | - |
780
+ | 0.2320 | 480 | 0.1643 | - |
781
+ | 0.2368 | 490 | 0.1067 | - |
782
+ | 0.2417 | 500 | 0.089 | - |
783
+ | 0.2465 | 510 | 0.1037 | - |
784
+ | 0.2513 | 520 | 0.1159 | - |
785
+ | 0.2562 | 530 | 0.102 | - |
786
+ | 0.2610 | 540 | 0.1189 | - |
787
+ | 0.2658 | 550 | 0.0932 | - |
788
+ | 0.2707 | 560 | 0.0655 | - |
789
+ | 0.2755 | 570 | 0.1196 | - |
790
+ | 0.2803 | 580 | 0.1225 | - |
791
+ | 0.2852 | 590 | 0.1129 | - |
792
+ | 0.2900 | 600 | 0.098 | - |
793
+ | 0.2948 | 610 | 0.1093 | - |
794
+ | 0.2997 | 620 | 0.094 | - |
795
+ | 0.3045 | 630 | 0.1147 | - |
796
+ | 0.3093 | 640 | 0.0661 | - |
797
+ | 0.3142 | 650 | 0.1133 | - |
798
+ | 0.3190 | 660 | 0.0813 | - |
799
+ | 0.3238 | 670 | 0.0922 | - |
800
+ | 0.3287 | 680 | 0.1496 | - |
801
+ | 0.3335 | 690 | 0.113 | - |
802
+ | 0.3383 | 700 | 0.1132 | - |
803
+ | 0.3432 | 710 | 0.0712 | - |
804
+ | 0.3480 | 720 | 0.1276 | - |
805
+ | 0.3528 | 730 | 0.1022 | - |
806
+ | 0.3577 | 740 | 0.0779 | - |
807
+ | 0.3625 | 750 | 0.1139 | - |
808
+ | 0.3673 | 760 | 0.0753 | - |
809
+ | 0.3722 | 770 | 0.1194 | - |
810
+ | 0.3770 | 780 | 0.0701 | - |
811
+ | 0.3819 | 790 | 0.1178 | - |
812
+ | 0.3867 | 800 | 0.0992 | - |
813
+ | 0.3915 | 810 | 0.0906 | - |
814
+ | 0.3964 | 820 | 0.0699 | - |
815
+ | 0.4012 | 830 | 0.1325 | - |
816
+ | 0.4060 | 840 | 0.1236 | - |
817
+ | 0.4109 | 850 | 0.1026 | - |
818
+ | 0.4157 | 860 | 0.1389 | - |
819
+ | 0.4205 | 870 | 0.087 | - |
820
+ | 0.4254 | 880 | 0.134 | - |
821
+ | 0.4302 | 890 | 0.1171 | - |
822
+ | 0.4350 | 900 | 0.1081 | - |
823
+ | 0.4399 | 910 | 0.1205 | - |
824
+ | 0.4447 | 920 | 0.0975 | - |
825
+ | 0.4495 | 930 | 0.1331 | - |
826
+ | 0.4544 | 940 | 0.1272 | - |
827
+ | 0.4592 | 950 | 0.1445 | - |
828
+ | 0.4640 | 960 | 0.0818 | - |
829
+ | 0.4689 | 970 | 0.0996 | - |
830
+ | 0.4737 | 980 | 0.1063 | - |
831
+ | 0.4785 | 990 | 0.1124 | - |
832
+ | 0.4834 | 1000 | 0.168 | - |
833
+ | 0.4882 | 1010 | 0.0961 | - |
834
+ | 0.4930 | 1020 | 0.1498 | - |
835
+ | 0.4979 | 1030 | 0.1202 | - |
836
+ | 0.5027 | 1040 | 0.1063 | - |
837
+ | 0.5075 | 1050 | 0.1772 | - |
838
+ | 0.5124 | 1060 | 0.1073 | - |
839
+ | 0.5172 | 1070 | 0.1248 | - |
840
+ | 0.5220 | 1080 | 0.1265 | - |
841
+ | 0.5269 | 1090 | 0.1239 | - |
842
+ | 0.5317 | 1100 | 0.1154 | - |
843
+ | 0.5365 | 1110 | 0.0984 | - |
844
+ | 0.5414 | 1120 | 0.1572 | - |
845
+ | 0.5462 | 1130 | 0.149 | - |
846
+ | 0.5510 | 1140 | 0.0775 | - |
847
+ | 0.5559 | 1150 | 0.1215 | - |
848
+ | 0.5607 | 1160 | 0.1423 | - |
849
+ | 0.5655 | 1170 | 0.2041 | - |
850
+ | 0.5704 | 1180 | 0.1489 | - |
851
+ | 0.5752 | 1190 | 0.1116 | - |
852
+ | 0.5800 | 1200 | 0.1711 | - |
853
+ | 0.5849 | 1210 | 0.1188 | - |
854
+ | 0.5897 | 1220 | 0.1028 | - |
855
+ | 0.5945 | 1230 | 0.0867 | - |
856
+ | 0.5994 | 1240 | 0.1198 | - |
857
+ | 0.6042 | 1250 | 0.1741 | - |
858
+ | 0.6090 | 1260 | 0.1689 | - |
859
+ | 0.6139 | 1270 | 0.1622 | - |
860
+ | 0.6187 | 1280 | 0.1141 | - |
861
+ | 0.6235 | 1290 | 0.161 | - |
862
+ | 0.6284 | 1300 | 0.1321 | - |
863
+ | 0.6332 | 1310 | 0.092 | - |
864
+ | 0.6380 | 1320 | 0.1303 | - |
865
+ | 0.6429 | 1330 | 0.1126 | - |
866
+ | 0.6477 | 1340 | 0.1341 | - |
867
+ | 0.6525 | 1350 | 0.0947 | - |
868
+ | 0.6574 | 1360 | 0.2087 | - |
869
+ | 0.6622 | 1370 | 0.1157 | - |
870
+ | 0.6670 | 1380 | 0.1085 | - |
871
+ | 0.6719 | 1390 | 0.0938 | - |
872
+ | 0.6767 | 1400 | 0.125 | - |
873
+ | 0.6815 | 1410 | 0.163 | - |
874
+ | 0.6864 | 1420 | 0.1575 | - |
875
+ | 0.6912 | 1430 | 0.1585 | - |
876
+ | 0.6960 | 1440 | 0.1875 | - |
877
+ | 0.7009 | 1450 | 0.1624 | - |
878
+ | 0.7057 | 1460 | 0.1535 | - |
879
+ | 0.7105 | 1470 | 0.2075 | - |
880
+ | 0.7154 | 1480 | 0.1321 | - |
881
+ | 0.7202 | 1490 | 0.0914 | - |
882
+ | 0.7250 | 1500 | 0.1906 | - |
883
+ | 0.7299 | 1510 | 0.1301 | - |
884
+ | 0.7347 | 1520 | 0.1832 | - |
885
+ | 0.7395 | 1530 | 0.1919 | - |
886
+ | 0.7444 | 1540 | 0.1693 | - |
887
+ | 0.7492 | 1550 | 0.193 | - |
888
+ | 0.7540 | 1560 | 0.1707 | - |
889
+ | 0.7589 | 1570 | 0.1851 | - |
890
+ | 0.7637 | 1580 | 0.1886 | - |
891
+ | 0.7685 | 1590 | 0.1727 | - |
892
+ | 0.7734 | 1600 | 0.1654 | - |
893
+ | 0.7782 | 1610 | 0.1279 | - |
894
+ | 0.7830 | 1620 | 0.1506 | - |
895
+ | 0.7879 | 1630 | 0.1939 | - |
896
+ | 0.7927 | 1640 | 0.148 | - |
897
+ | 0.7975 | 1650 | 0.1656 | - |
898
+ | 0.8024 | 1660 | 0.1648 | - |
899
+ | 0.8072 | 1670 | 0.2508 | - |
900
+ | 0.8120 | 1680 | 0.1731 | - |
901
+ | 0.8169 | 1690 | 0.1835 | - |
902
+ | 0.8217 | 1700 | 0.1428 | - |
903
+ | 0.8265 | 1710 | 0.231 | - |
904
+ | 0.8314 | 1720 | 0.1976 | - |
905
+ | 0.8362 | 1730 | 0.1659 | - |
906
+ | 0.8410 | 1740 | 0.2064 | - |
907
+ | 0.8459 | 1750 | 0.1229 | - |
908
+ | 0.8507 | 1760 | 0.1709 | - |
909
+ | 0.8555 | 1770 | 0.1506 | - |
910
+ | 0.8604 | 1780 | 0.173 | - |
911
+ | 0.8652 | 1790 | 0.1587 | - |
912
+ | 0.8700 | 1800 | 0.1733 | - |
913
+ | 0.8749 | 1810 | 0.1407 | - |
914
+ | 0.8797 | 1820 | 0.187 | - |
915
+ | 0.8845 | 1830 | 0.2365 | - |
916
+ | 0.8894 | 1840 | 0.1434 | - |
917
+ | 0.8942 | 1850 | 0.1547 | - |
918
+ | 0.8990 | 1860 | 0.2597 | - |
919
+ | 0.9039 | 1870 | 0.2158 | - |
920
+ | 0.9087 | 1880 | 0.1674 | - |
921
+ | 0.9135 | 1890 | 0.196 | - |
922
+ | 0.9184 | 1900 | 0.2011 | - |
923
+ | 0.9232 | 1910 | 0.2137 | - |
924
+ | 0.9280 | 1920 | 0.2141 | - |
925
+ | 0.9329 | 1930 | 0.2114 | - |
926
+ | 0.9377 | 1940 | 0.2817 | - |
927
+ | 0.9425 | 1950 | 0.1285 | - |
928
+ | 0.9474 | 1960 | 0.1401 | - |
929
+ | 0.9522 | 1970 | 0.2044 | - |
930
+ | 0.9570 | 1980 | 0.2434 | - |
931
+ | 0.9619 | 1990 | 0.1693 | - |
932
+ | 0.9667 | 2000 | 0.1225 | - |
933
+ | 0.9715 | 2010 | 0.1716 | - |
934
+ | 0.9764 | 2020 | 0.1703 | - |
935
+ | 0.9812 | 2030 | 0.1686 | - |
936
+ | 0.9860 | 2040 | 0.242 | - |
937
+ | 0.9909 | 2050 | 0.1553 | - |
938
+ | 0.9957 | 2060 | 0.1721 | - |
939
+ | 0.9996 | 2068 | - | 0.8140 |
940
+
941
+ </details>
942
+
943
+ ### Framework Versions
944
+ - Python: 3.11.11
945
+ - Sentence Transformers: 3.3.1
946
+ - Transformers: 4.48.1
947
+ - PyTorch: 2.5.1+cu124
948
+ - Accelerate: 1.2.1
949
+ - Datasets: 2.19.1
950
+ - Tokenizers: 0.21.0
951
+
952
+ ## Citation
953
+
954
+ ### BibTeX
955
+
956
+ #### Sentence Transformers
957
+ ```bibtex
958
+ @inproceedings{reimers-2019-sentence-bert,
959
+ title = "Sentence-BERT: Sentence Embeddings using Siamese BERT-Networks",
960
+ author = "Reimers, Nils and Gurevych, Iryna",
961
+ booktitle = "Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing",
962
+ month = "11",
963
+ year = "2019",
964
+ publisher = "Association for Computational Linguistics",
965
+ url = "https://arxiv.org/abs/1908.10084",
966
+ }
967
+ ```
968
+
969
+ #### MatryoshkaLoss
970
+ ```bibtex
971
+ @misc{kusupati2024matryoshka,
972
+ title={Matryoshka Representation Learning},
973
+ author={Aditya Kusupati and Gantavya Bhatt and Aniket Rege and Matthew Wallingford and Aditya Sinha and Vivek Ramanujan and William Howard-Snyder and Kaifeng Chen and Sham Kakade and Prateek Jain and Ali Farhadi},
974
+ year={2024},
975
+ eprint={2205.13147},
976
+ archivePrefix={arXiv},
977
+ primaryClass={cs.LG}
978
+ }
979
+ ```
980
+
981
+ #### MultipleNegativesRankingLoss
982
+ ```bibtex
983
+ @misc{henderson2017efficient,
984
+ title={Efficient Natural Language Response Suggestion for Smart Reply},
985
+ author={Matthew Henderson and Rami Al-Rfou and Brian Strope and Yun-hsuan Sung and Laszlo Lukacs and Ruiqi Guo and Sanjiv Kumar and Balint Miklos and Ray Kurzweil},
986
+ year={2017},
987
+ eprint={1705.00652},
988
+ archivePrefix={arXiv},
989
+ primaryClass={cs.CL}
990
+ }
991
+ ```
992
+
993
+ <!--
994
+ ## Glossary
995
+
996
+ *Clearly define terms in order to be accessible across audiences.*
997
+ -->
998
+
999
+ <!--
1000
+ ## Model Card Authors
1001
+
1002
+ *Lists the people who create the model card, providing recognition and accountability for the detailed work that goes into its construction.*
1003
+ -->
1004
+
1005
+ <!--
1006
+ ## Model Card Contact
1007
+
1008
+ *Provides a way for people who have updates to the Model Card, suggestions, or questions, to contact the Model Card authors.*
1009
+ -->
config.json ADDED
@@ -0,0 +1,47 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ {
2
+ "_name_or_path": "/content/ModernBERT-base-financial-matryoshka/checkpoint-2068",
3
+ "architectures": [
4
+ "ModernBertModel"
5
+ ],
6
+ "attention_bias": false,
7
+ "attention_dropout": 0.0,
8
+ "bos_token_id": 50281,
9
+ "classifier_activation": "gelu",
10
+ "classifier_bias": false,
11
+ "classifier_dropout": 0.0,
12
+ "classifier_pooling": "mean",
13
+ "cls_token_id": 50281,
14
+ "decoder_bias": true,
15
+ "deterministic_flash_attn": false,
16
+ "embedding_dropout": 0.0,
17
+ "eos_token_id": 50282,
18
+ "global_attn_every_n_layers": 3,
19
+ "global_rope_theta": 160000.0,
20
+ "gradient_checkpointing": false,
21
+ "hidden_activation": "gelu",
22
+ "hidden_size": 768,
23
+ "initializer_cutoff_factor": 2.0,
24
+ "initializer_range": 0.02,
25
+ "intermediate_size": 1152,
26
+ "layer_norm_eps": 1e-05,
27
+ "local_attention": 128,
28
+ "local_rope_theta": 10000.0,
29
+ "max_position_embeddings": 8192,
30
+ "mlp_bias": false,
31
+ "mlp_dropout": 0.0,
32
+ "model_type": "modernbert",
33
+ "norm_bias": false,
34
+ "norm_eps": 1e-05,
35
+ "num_attention_heads": 12,
36
+ "num_hidden_layers": 22,
37
+ "pad_token_id": 50283,
38
+ "position_embedding_type": "absolute",
39
+ "reference_compile": true,
40
+ "repad_logits_with_grad": false,
41
+ "sep_token_id": 50282,
42
+ "sparse_pred_ignore_index": -100,
43
+ "sparse_prediction": false,
44
+ "torch_dtype": "float32",
45
+ "transformers_version": "4.48.1",
46
+ "vocab_size": 50368
47
+ }
config_sentence_transformers.json ADDED
@@ -0,0 +1,10 @@
 
 
 
 
 
 
 
 
 
 
 
1
+ {
2
+ "__version__": {
3
+ "sentence_transformers": "3.3.1",
4
+ "transformers": "4.48.1",
5
+ "pytorch": "2.5.1+cu124"
6
+ },
7
+ "prompts": {},
8
+ "default_prompt_name": null,
9
+ "similarity_fn_name": "cosine"
10
+ }
model.safetensors ADDED
@@ -0,0 +1,3 @@
 
 
 
 
1
+ version https://git-lfs.github.com/spec/v1
2
+ oid sha256:2e2bf5b9e8e9026a619a10d2e62a10e7d097b8872dc9c11948f0be1362002606
3
+ size 596070136
modules.json ADDED
@@ -0,0 +1,14 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ [
2
+ {
3
+ "idx": 0,
4
+ "name": "0",
5
+ "path": "",
6
+ "type": "sentence_transformers.models.Transformer"
7
+ },
8
+ {
9
+ "idx": 1,
10
+ "name": "1",
11
+ "path": "1_Pooling",
12
+ "type": "sentence_transformers.models.Pooling"
13
+ }
14
+ ]
sentence_bert_config.json ADDED
@@ -0,0 +1,4 @@
 
 
 
 
 
1
+ {
2
+ "max_seq_length": 8192,
3
+ "do_lower_case": false
4
+ }
special_tokens_map.json ADDED
@@ -0,0 +1,37 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ {
2
+ "cls_token": {
3
+ "content": "[CLS]",
4
+ "lstrip": false,
5
+ "normalized": false,
6
+ "rstrip": false,
7
+ "single_word": false
8
+ },
9
+ "mask_token": {
10
+ "content": "[MASK]",
11
+ "lstrip": true,
12
+ "normalized": false,
13
+ "rstrip": false,
14
+ "single_word": false
15
+ },
16
+ "pad_token": {
17
+ "content": "[PAD]",
18
+ "lstrip": false,
19
+ "normalized": false,
20
+ "rstrip": false,
21
+ "single_word": false
22
+ },
23
+ "sep_token": {
24
+ "content": "[SEP]",
25
+ "lstrip": false,
26
+ "normalized": false,
27
+ "rstrip": false,
28
+ "single_word": false
29
+ },
30
+ "unk_token": {
31
+ "content": "[UNK]",
32
+ "lstrip": false,
33
+ "normalized": false,
34
+ "rstrip": false,
35
+ "single_word": false
36
+ }
37
+ }
tokenizer.json ADDED
The diff for this file is too large to render. See raw diff
 
tokenizer_config.json ADDED
@@ -0,0 +1,952 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ {
2
+ "added_tokens_decoder": {
3
+ "0": {
4
+ "content": "|||IP_ADDRESS|||",
5
+ "lstrip": false,
6
+ "normalized": true,
7
+ "rstrip": false,
8
+ "single_word": false,
9
+ "special": false
10
+ },
11
+ "1": {
12
+ "content": "<|padding|>",
13
+ "lstrip": false,
14
+ "normalized": false,
15
+ "rstrip": false,
16
+ "single_word": false,
17
+ "special": true
18
+ },
19
+ "50254": {
20
+ "content": " ",
21
+ "lstrip": false,
22
+ "normalized": true,
23
+ "rstrip": false,
24
+ "single_word": false,
25
+ "special": false
26
+ },
27
+ "50255": {
28
+ "content": " ",
29
+ "lstrip": false,
30
+ "normalized": true,
31
+ "rstrip": false,
32
+ "single_word": false,
33
+ "special": false
34
+ },
35
+ "50256": {
36
+ "content": " ",
37
+ "lstrip": false,
38
+ "normalized": true,
39
+ "rstrip": false,
40
+ "single_word": false,
41
+ "special": false
42
+ },
43
+ "50257": {
44
+ "content": " ",
45
+ "lstrip": false,
46
+ "normalized": true,
47
+ "rstrip": false,
48
+ "single_word": false,
49
+ "special": false
50
+ },
51
+ "50258": {
52
+ "content": " ",
53
+ "lstrip": false,
54
+ "normalized": true,
55
+ "rstrip": false,
56
+ "single_word": false,
57
+ "special": false
58
+ },
59
+ "50259": {
60
+ "content": " ",
61
+ "lstrip": false,
62
+ "normalized": true,
63
+ "rstrip": false,
64
+ "single_word": false,
65
+ "special": false
66
+ },
67
+ "50260": {
68
+ "content": " ",
69
+ "lstrip": false,
70
+ "normalized": true,
71
+ "rstrip": false,
72
+ "single_word": false,
73
+ "special": false
74
+ },
75
+ "50261": {
76
+ "content": " ",
77
+ "lstrip": false,
78
+ "normalized": true,
79
+ "rstrip": false,
80
+ "single_word": false,
81
+ "special": false
82
+ },
83
+ "50262": {
84
+ "content": " ",
85
+ "lstrip": false,
86
+ "normalized": true,
87
+ "rstrip": false,
88
+ "single_word": false,
89
+ "special": false
90
+ },
91
+ "50263": {
92
+ "content": " ",
93
+ "lstrip": false,
94
+ "normalized": true,
95
+ "rstrip": false,
96
+ "single_word": false,
97
+ "special": false
98
+ },
99
+ "50264": {
100
+ "content": " ",
101
+ "lstrip": false,
102
+ "normalized": true,
103
+ "rstrip": false,
104
+ "single_word": false,
105
+ "special": false
106
+ },
107
+ "50265": {
108
+ "content": " ",
109
+ "lstrip": false,
110
+ "normalized": true,
111
+ "rstrip": false,
112
+ "single_word": false,
113
+ "special": false
114
+ },
115
+ "50266": {
116
+ "content": " ",
117
+ "lstrip": false,
118
+ "normalized": true,
119
+ "rstrip": false,
120
+ "single_word": false,
121
+ "special": false
122
+ },
123
+ "50267": {
124
+ "content": " ",
125
+ "lstrip": false,
126
+ "normalized": true,
127
+ "rstrip": false,
128
+ "single_word": false,
129
+ "special": false
130
+ },
131
+ "50268": {
132
+ "content": " ",
133
+ "lstrip": false,
134
+ "normalized": true,
135
+ "rstrip": false,
136
+ "single_word": false,
137
+ "special": false
138
+ },
139
+ "50269": {
140
+ "content": " ",
141
+ "lstrip": false,
142
+ "normalized": true,
143
+ "rstrip": false,
144
+ "single_word": false,
145
+ "special": false
146
+ },
147
+ "50270": {
148
+ "content": " ",
149
+ "lstrip": false,
150
+ "normalized": true,
151
+ "rstrip": false,
152
+ "single_word": false,
153
+ "special": false
154
+ },
155
+ "50271": {
156
+ "content": " ",
157
+ "lstrip": false,
158
+ "normalized": true,
159
+ "rstrip": false,
160
+ "single_word": false,
161
+ "special": false
162
+ },
163
+ "50272": {
164
+ "content": " ",
165
+ "lstrip": false,
166
+ "normalized": true,
167
+ "rstrip": false,
168
+ "single_word": false,
169
+ "special": false
170
+ },
171
+ "50273": {
172
+ "content": " ",
173
+ "lstrip": false,
174
+ "normalized": true,
175
+ "rstrip": false,
176
+ "single_word": false,
177
+ "special": false
178
+ },
179
+ "50274": {
180
+ "content": " ",
181
+ "lstrip": false,
182
+ "normalized": true,
183
+ "rstrip": false,
184
+ "single_word": false,
185
+ "special": false
186
+ },
187
+ "50275": {
188
+ "content": " ",
189
+ "lstrip": false,
190
+ "normalized": true,
191
+ "rstrip": false,
192
+ "single_word": false,
193
+ "special": false
194
+ },
195
+ "50276": {
196
+ "content": " ",
197
+ "lstrip": false,
198
+ "normalized": true,
199
+ "rstrip": false,
200
+ "single_word": false,
201
+ "special": false
202
+ },
203
+ "50277": {
204
+ "content": "|||EMAIL_ADDRESS|||",
205
+ "lstrip": false,
206
+ "normalized": true,
207
+ "rstrip": false,
208
+ "single_word": false,
209
+ "special": false
210
+ },
211
+ "50278": {
212
+ "content": "|||PHONE_NUMBER|||",
213
+ "lstrip": false,
214
+ "normalized": true,
215
+ "rstrip": false,
216
+ "single_word": false,
217
+ "special": false
218
+ },
219
+ "50279": {
220
+ "content": "<|endoftext|>",
221
+ "lstrip": false,
222
+ "normalized": false,
223
+ "rstrip": false,
224
+ "single_word": false,
225
+ "special": true
226
+ },
227
+ "50280": {
228
+ "content": "[UNK]",
229
+ "lstrip": false,
230
+ "normalized": false,
231
+ "rstrip": false,
232
+ "single_word": false,
233
+ "special": true
234
+ },
235
+ "50281": {
236
+ "content": "[CLS]",
237
+ "lstrip": false,
238
+ "normalized": false,
239
+ "rstrip": false,
240
+ "single_word": false,
241
+ "special": true
242
+ },
243
+ "50282": {
244
+ "content": "[SEP]",
245
+ "lstrip": false,
246
+ "normalized": false,
247
+ "rstrip": false,
248
+ "single_word": false,
249
+ "special": true
250
+ },
251
+ "50283": {
252
+ "content": "[PAD]",
253
+ "lstrip": false,
254
+ "normalized": false,
255
+ "rstrip": false,
256
+ "single_word": false,
257
+ "special": true
258
+ },
259
+ "50284": {
260
+ "content": "[MASK]",
261
+ "lstrip": true,
262
+ "normalized": false,
263
+ "rstrip": false,
264
+ "single_word": false,
265
+ "special": true
266
+ },
267
+ "50285": {
268
+ "content": "[unused0]",
269
+ "lstrip": false,
270
+ "normalized": true,
271
+ "rstrip": false,
272
+ "single_word": false,
273
+ "special": false
274
+ },
275
+ "50286": {
276
+ "content": "[unused1]",
277
+ "lstrip": false,
278
+ "normalized": true,
279
+ "rstrip": false,
280
+ "single_word": false,
281
+ "special": false
282
+ },
283
+ "50287": {
284
+ "content": "[unused2]",
285
+ "lstrip": false,
286
+ "normalized": true,
287
+ "rstrip": false,
288
+ "single_word": false,
289
+ "special": false
290
+ },
291
+ "50288": {
292
+ "content": "[unused3]",
293
+ "lstrip": false,
294
+ "normalized": true,
295
+ "rstrip": false,
296
+ "single_word": false,
297
+ "special": false
298
+ },
299
+ "50289": {
300
+ "content": "[unused4]",
301
+ "lstrip": false,
302
+ "normalized": true,
303
+ "rstrip": false,
304
+ "single_word": false,
305
+ "special": false
306
+ },
307
+ "50290": {
308
+ "content": "[unused5]",
309
+ "lstrip": false,
310
+ "normalized": true,
311
+ "rstrip": false,
312
+ "single_word": false,
313
+ "special": false
314
+ },
315
+ "50291": {
316
+ "content": "[unused6]",
317
+ "lstrip": false,
318
+ "normalized": true,
319
+ "rstrip": false,
320
+ "single_word": false,
321
+ "special": false
322
+ },
323
+ "50292": {
324
+ "content": "[unused7]",
325
+ "lstrip": false,
326
+ "normalized": true,
327
+ "rstrip": false,
328
+ "single_word": false,
329
+ "special": false
330
+ },
331
+ "50293": {
332
+ "content": "[unused8]",
333
+ "lstrip": false,
334
+ "normalized": true,
335
+ "rstrip": false,
336
+ "single_word": false,
337
+ "special": false
338
+ },
339
+ "50294": {
340
+ "content": "[unused9]",
341
+ "lstrip": false,
342
+ "normalized": true,
343
+ "rstrip": false,
344
+ "single_word": false,
345
+ "special": false
346
+ },
347
+ "50295": {
348
+ "content": "[unused10]",
349
+ "lstrip": false,
350
+ "normalized": true,
351
+ "rstrip": false,
352
+ "single_word": false,
353
+ "special": false
354
+ },
355
+ "50296": {
356
+ "content": "[unused11]",
357
+ "lstrip": false,
358
+ "normalized": true,
359
+ "rstrip": false,
360
+ "single_word": false,
361
+ "special": false
362
+ },
363
+ "50297": {
364
+ "content": "[unused12]",
365
+ "lstrip": false,
366
+ "normalized": true,
367
+ "rstrip": false,
368
+ "single_word": false,
369
+ "special": false
370
+ },
371
+ "50298": {
372
+ "content": "[unused13]",
373
+ "lstrip": false,
374
+ "normalized": true,
375
+ "rstrip": false,
376
+ "single_word": false,
377
+ "special": false
378
+ },
379
+ "50299": {
380
+ "content": "[unused14]",
381
+ "lstrip": false,
382
+ "normalized": true,
383
+ "rstrip": false,
384
+ "single_word": false,
385
+ "special": false
386
+ },
387
+ "50300": {
388
+ "content": "[unused15]",
389
+ "lstrip": false,
390
+ "normalized": true,
391
+ "rstrip": false,
392
+ "single_word": false,
393
+ "special": false
394
+ },
395
+ "50301": {
396
+ "content": "[unused16]",
397
+ "lstrip": false,
398
+ "normalized": true,
399
+ "rstrip": false,
400
+ "single_word": false,
401
+ "special": false
402
+ },
403
+ "50302": {
404
+ "content": "[unused17]",
405
+ "lstrip": false,
406
+ "normalized": true,
407
+ "rstrip": false,
408
+ "single_word": false,
409
+ "special": false
410
+ },
411
+ "50303": {
412
+ "content": "[unused18]",
413
+ "lstrip": false,
414
+ "normalized": true,
415
+ "rstrip": false,
416
+ "single_word": false,
417
+ "special": false
418
+ },
419
+ "50304": {
420
+ "content": "[unused19]",
421
+ "lstrip": false,
422
+ "normalized": true,
423
+ "rstrip": false,
424
+ "single_word": false,
425
+ "special": false
426
+ },
427
+ "50305": {
428
+ "content": "[unused20]",
429
+ "lstrip": false,
430
+ "normalized": true,
431
+ "rstrip": false,
432
+ "single_word": false,
433
+ "special": false
434
+ },
435
+ "50306": {
436
+ "content": "[unused21]",
437
+ "lstrip": false,
438
+ "normalized": true,
439
+ "rstrip": false,
440
+ "single_word": false,
441
+ "special": false
442
+ },
443
+ "50307": {
444
+ "content": "[unused22]",
445
+ "lstrip": false,
446
+ "normalized": true,
447
+ "rstrip": false,
448
+ "single_word": false,
449
+ "special": false
450
+ },
451
+ "50308": {
452
+ "content": "[unused23]",
453
+ "lstrip": false,
454
+ "normalized": true,
455
+ "rstrip": false,
456
+ "single_word": false,
457
+ "special": false
458
+ },
459
+ "50309": {
460
+ "content": "[unused24]",
461
+ "lstrip": false,
462
+ "normalized": true,
463
+ "rstrip": false,
464
+ "single_word": false,
465
+ "special": false
466
+ },
467
+ "50310": {
468
+ "content": "[unused25]",
469
+ "lstrip": false,
470
+ "normalized": true,
471
+ "rstrip": false,
472
+ "single_word": false,
473
+ "special": false
474
+ },
475
+ "50311": {
476
+ "content": "[unused26]",
477
+ "lstrip": false,
478
+ "normalized": true,
479
+ "rstrip": false,
480
+ "single_word": false,
481
+ "special": false
482
+ },
483
+ "50312": {
484
+ "content": "[unused27]",
485
+ "lstrip": false,
486
+ "normalized": true,
487
+ "rstrip": false,
488
+ "single_word": false,
489
+ "special": false
490
+ },
491
+ "50313": {
492
+ "content": "[unused28]",
493
+ "lstrip": false,
494
+ "normalized": true,
495
+ "rstrip": false,
496
+ "single_word": false,
497
+ "special": false
498
+ },
499
+ "50314": {
500
+ "content": "[unused29]",
501
+ "lstrip": false,
502
+ "normalized": true,
503
+ "rstrip": false,
504
+ "single_word": false,
505
+ "special": false
506
+ },
507
+ "50315": {
508
+ "content": "[unused30]",
509
+ "lstrip": false,
510
+ "normalized": true,
511
+ "rstrip": false,
512
+ "single_word": false,
513
+ "special": false
514
+ },
515
+ "50316": {
516
+ "content": "[unused31]",
517
+ "lstrip": false,
518
+ "normalized": true,
519
+ "rstrip": false,
520
+ "single_word": false,
521
+ "special": false
522
+ },
523
+ "50317": {
524
+ "content": "[unused32]",
525
+ "lstrip": false,
526
+ "normalized": true,
527
+ "rstrip": false,
528
+ "single_word": false,
529
+ "special": false
530
+ },
531
+ "50318": {
532
+ "content": "[unused33]",
533
+ "lstrip": false,
534
+ "normalized": true,
535
+ "rstrip": false,
536
+ "single_word": false,
537
+ "special": false
538
+ },
539
+ "50319": {
540
+ "content": "[unused34]",
541
+ "lstrip": false,
542
+ "normalized": true,
543
+ "rstrip": false,
544
+ "single_word": false,
545
+ "special": false
546
+ },
547
+ "50320": {
548
+ "content": "[unused35]",
549
+ "lstrip": false,
550
+ "normalized": true,
551
+ "rstrip": false,
552
+ "single_word": false,
553
+ "special": false
554
+ },
555
+ "50321": {
556
+ "content": "[unused36]",
557
+ "lstrip": false,
558
+ "normalized": true,
559
+ "rstrip": false,
560
+ "single_word": false,
561
+ "special": false
562
+ },
563
+ "50322": {
564
+ "content": "[unused37]",
565
+ "lstrip": false,
566
+ "normalized": true,
567
+ "rstrip": false,
568
+ "single_word": false,
569
+ "special": false
570
+ },
571
+ "50323": {
572
+ "content": "[unused38]",
573
+ "lstrip": false,
574
+ "normalized": true,
575
+ "rstrip": false,
576
+ "single_word": false,
577
+ "special": false
578
+ },
579
+ "50324": {
580
+ "content": "[unused39]",
581
+ "lstrip": false,
582
+ "normalized": true,
583
+ "rstrip": false,
584
+ "single_word": false,
585
+ "special": false
586
+ },
587
+ "50325": {
588
+ "content": "[unused40]",
589
+ "lstrip": false,
590
+ "normalized": true,
591
+ "rstrip": false,
592
+ "single_word": false,
593
+ "special": false
594
+ },
595
+ "50326": {
596
+ "content": "[unused41]",
597
+ "lstrip": false,
598
+ "normalized": true,
599
+ "rstrip": false,
600
+ "single_word": false,
601
+ "special": false
602
+ },
603
+ "50327": {
604
+ "content": "[unused42]",
605
+ "lstrip": false,
606
+ "normalized": true,
607
+ "rstrip": false,
608
+ "single_word": false,
609
+ "special": false
610
+ },
611
+ "50328": {
612
+ "content": "[unused43]",
613
+ "lstrip": false,
614
+ "normalized": true,
615
+ "rstrip": false,
616
+ "single_word": false,
617
+ "special": false
618
+ },
619
+ "50329": {
620
+ "content": "[unused44]",
621
+ "lstrip": false,
622
+ "normalized": true,
623
+ "rstrip": false,
624
+ "single_word": false,
625
+ "special": false
626
+ },
627
+ "50330": {
628
+ "content": "[unused45]",
629
+ "lstrip": false,
630
+ "normalized": true,
631
+ "rstrip": false,
632
+ "single_word": false,
633
+ "special": false
634
+ },
635
+ "50331": {
636
+ "content": "[unused46]",
637
+ "lstrip": false,
638
+ "normalized": true,
639
+ "rstrip": false,
640
+ "single_word": false,
641
+ "special": false
642
+ },
643
+ "50332": {
644
+ "content": "[unused47]",
645
+ "lstrip": false,
646
+ "normalized": true,
647
+ "rstrip": false,
648
+ "single_word": false,
649
+ "special": false
650
+ },
651
+ "50333": {
652
+ "content": "[unused48]",
653
+ "lstrip": false,
654
+ "normalized": true,
655
+ "rstrip": false,
656
+ "single_word": false,
657
+ "special": false
658
+ },
659
+ "50334": {
660
+ "content": "[unused49]",
661
+ "lstrip": false,
662
+ "normalized": true,
663
+ "rstrip": false,
664
+ "single_word": false,
665
+ "special": false
666
+ },
667
+ "50335": {
668
+ "content": "[unused50]",
669
+ "lstrip": false,
670
+ "normalized": true,
671
+ "rstrip": false,
672
+ "single_word": false,
673
+ "special": false
674
+ },
675
+ "50336": {
676
+ "content": "[unused51]",
677
+ "lstrip": false,
678
+ "normalized": true,
679
+ "rstrip": false,
680
+ "single_word": false,
681
+ "special": false
682
+ },
683
+ "50337": {
684
+ "content": "[unused52]",
685
+ "lstrip": false,
686
+ "normalized": true,
687
+ "rstrip": false,
688
+ "single_word": false,
689
+ "special": false
690
+ },
691
+ "50338": {
692
+ "content": "[unused53]",
693
+ "lstrip": false,
694
+ "normalized": true,
695
+ "rstrip": false,
696
+ "single_word": false,
697
+ "special": false
698
+ },
699
+ "50339": {
700
+ "content": "[unused54]",
701
+ "lstrip": false,
702
+ "normalized": true,
703
+ "rstrip": false,
704
+ "single_word": false,
705
+ "special": false
706
+ },
707
+ "50340": {
708
+ "content": "[unused55]",
709
+ "lstrip": false,
710
+ "normalized": true,
711
+ "rstrip": false,
712
+ "single_word": false,
713
+ "special": false
714
+ },
715
+ "50341": {
716
+ "content": "[unused56]",
717
+ "lstrip": false,
718
+ "normalized": true,
719
+ "rstrip": false,
720
+ "single_word": false,
721
+ "special": false
722
+ },
723
+ "50342": {
724
+ "content": "[unused57]",
725
+ "lstrip": false,
726
+ "normalized": true,
727
+ "rstrip": false,
728
+ "single_word": false,
729
+ "special": false
730
+ },
731
+ "50343": {
732
+ "content": "[unused58]",
733
+ "lstrip": false,
734
+ "normalized": true,
735
+ "rstrip": false,
736
+ "single_word": false,
737
+ "special": false
738
+ },
739
+ "50344": {
740
+ "content": "[unused59]",
741
+ "lstrip": false,
742
+ "normalized": true,
743
+ "rstrip": false,
744
+ "single_word": false,
745
+ "special": false
746
+ },
747
+ "50345": {
748
+ "content": "[unused60]",
749
+ "lstrip": false,
750
+ "normalized": true,
751
+ "rstrip": false,
752
+ "single_word": false,
753
+ "special": false
754
+ },
755
+ "50346": {
756
+ "content": "[unused61]",
757
+ "lstrip": false,
758
+ "normalized": true,
759
+ "rstrip": false,
760
+ "single_word": false,
761
+ "special": false
762
+ },
763
+ "50347": {
764
+ "content": "[unused62]",
765
+ "lstrip": false,
766
+ "normalized": true,
767
+ "rstrip": false,
768
+ "single_word": false,
769
+ "special": false
770
+ },
771
+ "50348": {
772
+ "content": "[unused63]",
773
+ "lstrip": false,
774
+ "normalized": true,
775
+ "rstrip": false,
776
+ "single_word": false,
777
+ "special": false
778
+ },
779
+ "50349": {
780
+ "content": "[unused64]",
781
+ "lstrip": false,
782
+ "normalized": true,
783
+ "rstrip": false,
784
+ "single_word": false,
785
+ "special": false
786
+ },
787
+ "50350": {
788
+ "content": "[unused65]",
789
+ "lstrip": false,
790
+ "normalized": true,
791
+ "rstrip": false,
792
+ "single_word": false,
793
+ "special": false
794
+ },
795
+ "50351": {
796
+ "content": "[unused66]",
797
+ "lstrip": false,
798
+ "normalized": true,
799
+ "rstrip": false,
800
+ "single_word": false,
801
+ "special": false
802
+ },
803
+ "50352": {
804
+ "content": "[unused67]",
805
+ "lstrip": false,
806
+ "normalized": true,
807
+ "rstrip": false,
808
+ "single_word": false,
809
+ "special": false
810
+ },
811
+ "50353": {
812
+ "content": "[unused68]",
813
+ "lstrip": false,
814
+ "normalized": true,
815
+ "rstrip": false,
816
+ "single_word": false,
817
+ "special": false
818
+ },
819
+ "50354": {
820
+ "content": "[unused69]",
821
+ "lstrip": false,
822
+ "normalized": true,
823
+ "rstrip": false,
824
+ "single_word": false,
825
+ "special": false
826
+ },
827
+ "50355": {
828
+ "content": "[unused70]",
829
+ "lstrip": false,
830
+ "normalized": true,
831
+ "rstrip": false,
832
+ "single_word": false,
833
+ "special": false
834
+ },
835
+ "50356": {
836
+ "content": "[unused71]",
837
+ "lstrip": false,
838
+ "normalized": true,
839
+ "rstrip": false,
840
+ "single_word": false,
841
+ "special": false
842
+ },
843
+ "50357": {
844
+ "content": "[unused72]",
845
+ "lstrip": false,
846
+ "normalized": true,
847
+ "rstrip": false,
848
+ "single_word": false,
849
+ "special": false
850
+ },
851
+ "50358": {
852
+ "content": "[unused73]",
853
+ "lstrip": false,
854
+ "normalized": true,
855
+ "rstrip": false,
856
+ "single_word": false,
857
+ "special": false
858
+ },
859
+ "50359": {
860
+ "content": "[unused74]",
861
+ "lstrip": false,
862
+ "normalized": true,
863
+ "rstrip": false,
864
+ "single_word": false,
865
+ "special": false
866
+ },
867
+ "50360": {
868
+ "content": "[unused75]",
869
+ "lstrip": false,
870
+ "normalized": true,
871
+ "rstrip": false,
872
+ "single_word": false,
873
+ "special": false
874
+ },
875
+ "50361": {
876
+ "content": "[unused76]",
877
+ "lstrip": false,
878
+ "normalized": true,
879
+ "rstrip": false,
880
+ "single_word": false,
881
+ "special": false
882
+ },
883
+ "50362": {
884
+ "content": "[unused77]",
885
+ "lstrip": false,
886
+ "normalized": true,
887
+ "rstrip": false,
888
+ "single_word": false,
889
+ "special": false
890
+ },
891
+ "50363": {
892
+ "content": "[unused78]",
893
+ "lstrip": false,
894
+ "normalized": true,
895
+ "rstrip": false,
896
+ "single_word": false,
897
+ "special": false
898
+ },
899
+ "50364": {
900
+ "content": "[unused79]",
901
+ "lstrip": false,
902
+ "normalized": true,
903
+ "rstrip": false,
904
+ "single_word": false,
905
+ "special": false
906
+ },
907
+ "50365": {
908
+ "content": "[unused80]",
909
+ "lstrip": false,
910
+ "normalized": true,
911
+ "rstrip": false,
912
+ "single_word": false,
913
+ "special": false
914
+ },
915
+ "50366": {
916
+ "content": "[unused81]",
917
+ "lstrip": false,
918
+ "normalized": true,
919
+ "rstrip": false,
920
+ "single_word": false,
921
+ "special": false
922
+ },
923
+ "50367": {
924
+ "content": "[unused82]",
925
+ "lstrip": false,
926
+ "normalized": true,
927
+ "rstrip": false,
928
+ "single_word": false,
929
+ "special": false
930
+ }
931
+ },
932
+ "clean_up_tokenization_spaces": true,
933
+ "cls_token": "[CLS]",
934
+ "extra_special_tokens": {},
935
+ "mask_token": "[MASK]",
936
+ "max_length": 8192,
937
+ "model_input_names": [
938
+ "input_ids",
939
+ "attention_mask"
940
+ ],
941
+ "model_max_length": 8192,
942
+ "pad_to_multiple_of": null,
943
+ "pad_token": "[PAD]",
944
+ "pad_token_type_id": 0,
945
+ "padding_side": "right",
946
+ "sep_token": "[SEP]",
947
+ "stride": 0,
948
+ "tokenizer_class": "PreTrainedTokenizerFast",
949
+ "truncation_side": "right",
950
+ "truncation_strategy": "longest_first",
951
+ "unk_token": "[UNK]"
952
+ }