Omerhan commited on
Commit
6fca76e
·
verified ·
1 Parent(s): f7dc36b

Add new SentenceTransformer model.

Browse files
.gitattributes CHANGED
@@ -33,3 +33,4 @@ saved_model/**/* filter=lfs diff=lfs merge=lfs -text
33
  *.zip filter=lfs diff=lfs merge=lfs -text
34
  *.zst filter=lfs diff=lfs merge=lfs -text
35
  *tfevents* filter=lfs diff=lfs merge=lfs -text
 
 
33
  *.zip filter=lfs diff=lfs merge=lfs -text
34
  *.zst filter=lfs diff=lfs merge=lfs -text
35
  *tfevents* filter=lfs diff=lfs merge=lfs -text
36
+ tokenizer.json filter=lfs diff=lfs merge=lfs -text
1_Pooling/config.json ADDED
@@ -0,0 +1,10 @@
 
 
 
 
 
 
 
 
 
 
 
1
+ {
2
+ "word_embedding_dimension": 1024,
3
+ "pooling_mode_cls_token": false,
4
+ "pooling_mode_mean_tokens": true,
5
+ "pooling_mode_max_tokens": false,
6
+ "pooling_mode_mean_sqrt_len_tokens": false,
7
+ "pooling_mode_weightedmean_tokens": false,
8
+ "pooling_mode_lasttoken": false,
9
+ "include_prompt": true
10
+ }
README.md ADDED
@@ -0,0 +1,455 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ ---
2
+ language:
3
+ - tr
4
+ license: apache-2.0
5
+ tags:
6
+ - sentence-transformers
7
+ - sentence-similarity
8
+ - feature-extraction
9
+ - generated_from_trainer
10
+ - dataset_size:920106
11
+ - loss:MatryoshkaLoss
12
+ - loss:MultipleNegativesRankingLoss
13
+ base_model: intfloat/multilingual-e5-large-instruct
14
+ widget:
15
+ - source_sentence: Fısıh için patates cipsi kosher
16
+ sentences:
17
+ - 'Geçen yıl 125.000 $ kazandıysanız ve 10.000 $ düşebiliyorsanız, vergilendirilebilir
18
+ geliriniz 115.000 $ ''a düşürülür. Ontario''da yaşadıysanız, indiriminiz sizi
19
+ sadece 4.000 $ ''ın üzerinde vergiden kurtarır. Öte yandan, 10.000 $''lık bir
20
+ vergi kredisi sadece 2,105 $ değerinde olurdu. Yukarıdaki, kesintilerin her zaman
21
+ vergi kredilerinden daha iyi olduğunu gösteriyor gibi görünüyor, ancak her zaman
22
+ değil: Bir vergi kredisi ve indirim, 35.000 $ vergi elde ederseniz aynı tasarrufla
23
+ sonuçlanacaktır.'
24
+ - Diğer şeker ikame edicilere göre daha az bir aftertate sahip olduğu iddia edilir
25
+ ve fırınlanmış ürünlerde ve yumuşak içeceklerde kullanıma uygundur. Ürün Kosher
26
+ - ve potansiyel olarak Hamursuz Bayramı için Kosher - ve yakın gelecekte birçok
27
+ üründe görünmesini bekleyebiliriz.Ayrıca hepimiz güçlü müshiller olduklarının
28
+ farkında olmalıyız!) Rosh Hashana yaklaşırken, belki de Shimshon'un benzetmesini
29
+ genişletebiliriz ve bir kullanım için bir tatlı olabilir.
30
+ - Hamursuz Bayramı için Kaşer işaretli patates cipsi bu sorunların hiçbirisi olmadığı
31
+ için sertifikalandırılmıştır...Köşe yağında kızartılmış basit patates, Hamursuz
32
+ Bayramı için Kaşer olmayan hiçbir şey yapmayan makinelerde işlenir.Fısıh Bayramı
33
+ için Kaşer işaretli patates cipsleri bu sorunlardan hiçbirine sahip olmadığı için
34
+ sertifikalandırılmıştır...Köşe yağında kızartılmış basit patates, Hamursuz Bayramı
35
+ için Kaşer olmayan makinelerde işlenmiştir.
36
+ - source_sentence: Kim söyledi mona lisa gülümsemesini kaybetti
37
+ sentences:
38
+ - Mona Lisa Lost Her Smile sözleri ve akorları sadece kişisel kullanımınız için
39
+ tasarlanmıştır, gerçekten David Allan Coe tarafından kaydedilen güzel bir country
40
+ şarkısıdır.
41
+ - 'Arama Ara: Rose Müzik merkezi, Huber Heights, OH''da bulunan ve Interstate 70''in
42
+ hemen dışında yer alan tamamen kapalı bir açık hava amfitiyatrosudur. Amfitiyatro,
43
+ balkon koltuklarının ön sıra koltukları kadar iyi olduğu 4200 kişilik bir oturma
44
+ kapasiteli mekandır. Bu tesiste nerede oturursanız oturun, bir fan olarak deneyiminizin
45
+ avantajları vardır.'
46
+ - Ortaya çıkan görüntüler, yüzlerce yıllık vernik ve diğer değişiklikleri ortadan
47
+ kaldırıyor, sanatçının boyalı figürü nasıl hayata geçirdiğine ve da Vinci ve çağdaşlarına
48
+ nasıl göründüğüne ışık tutuyor. Mona Lisa'nın yüzü biraz daha geniş görünüyor
49
+ ve gülümseme farklı ve gözler farklı, dedi Cotte.
50
+ - source_sentence: kovanlar bir tür gıda zehirlenmesidir
51
+ sentences:
52
+ - Bazen gıda zehirlenmesinden hasta hissetmek, kötü yiyecekleri yedikten sonraki
53
+ saatler içinde ortaya çıkar. Diğer zamanlarda, biri birkaç gün sonraya kadar hasta
54
+ hissetmeyebilir. Hafif gıda zehirlenmesi vakalarında, çok uzun süre hasta hissetmeyeceksiniz
55
+ ve yakında tekrar iyi hissedeceksiniz.
56
+ - Bebeklerde botulizm. genellikle kabızlığa neden olur; yetişkinlerde, ya da neden
57
+ olabilir. Kabızlık veya ishal. Gıda alerjileri gıda zehirlenmesi ile karıştırılabilir.
58
+ En ciddi alerjik reaksiyon türleri anidir. kaşıntı, kovanlar, nefes alma zorluğu
59
+ ve düşük kan pre-. tabi. Buna anafilaksi veya alerjik şok denir.
60
+ - CloseHandle. CloseHandle işlevi açık bir nesne kulpunu kapatır. BOOL CloseHandle(
61
+ Handle hObject // close to close to close ; Parametreler hObject Handle to a open
62
+ object. Return Values. Fonksiyon başarılı olursa, dönüş değeri sıfırdır. İşlev
63
+ başarısız olursa, dönüş değeri sıfırdır. Genişletilmiş hata bilgisi almak için
64
+ GetLastError. Remarks'u arayın.
65
+ - source_sentence: Hint Müslüman erkek çocuk isimleri ile anlam
66
+ sentences:
67
+ - Hayır, hamileyseniz pişmemiş pepperoni yemek güvenli değildir. Ham gıda, listeria
68
+ olarak adlandırılan zararlı bakteriler içerir. Listeria bakterileri, hamile kadınlarda
69
+ beyin enfeksiyonuna ve hatta ölüme yol açabilecek listeriosis'e neden olabilir.
70
+ - Bir erkek ya da kız için güzel bir isme ihtiyacınız olsun, size dünya çapında
71
+ popüler isimlerin büyük bir koleksiyonunu veriyoruz. İsteğinize bağlı olarak bebeğiniz
72
+ için bir Hıristiyan adı, bir Hindu adı veya bir Müslüman adı seçebilirsiniz. Bir
73
+ erkek ya da kız için güzel bir isme ihtiyacınız varsa, size dünya çapında popüler
74
+ isimlerin büyük bir koleksiyonunu veriyoruz. İsteğinize bağlı olarak bebeğiniz
75
+ için bir Hıristiyan adı, bir Hindu adı veya bir Müslüman adı seçebilirsiniz.
76
+ - '- Modern bebek erkek isimleri. - Modern bebek kız isimleri. Hint Boy ve Hint
77
+ Kız İsimleri Komple Listesi. Anlamları ile bebek isimleri tam listemize göz atın,
78
+ sevimli bebek fotoğrafları, anketler, zodyak etkisi ve çok daha fazlası prensesiniz
79
+ veya rockstar.ee için en iyi ismi seçmek için bizim kapsamlı veritabanı popüler
80
+ Hindu isimleri, benzersiz Müslüman isimleri, en iyi on Sih isimleri, A''dan Z''ye
81
+ Hıristiyan isimleri, sevimli bebek Pencap isimleri, kısa ve tatlı Jain Gurati,
82
+ güzel'
83
+ - source_sentence: ret kuyruğu nedir
84
+ sentences:
85
+ - 'Bir kuyruktan gelen mesajlar ''ölü harfli'' olabilir; yani, aşağıdaki olaylardan
86
+ herhangi biri meydana geldiğinde başka bir değiş tokuşa yeniden yayınlanabilir:
87
+ 1 İleti, requeue=false ile (basic.reject veya basic.nack) reddedilir, 2 İletinin
88
+ TTL''si sona erer; veya. 3 Kuyruk uzunluğu sınırı aşılır.'
89
+ - 2.'reddetmek'. Bir fikir veya inançla aynı fikirde değilseniz,'reddetmek' demiyorsunuz.
90
+ Bunu reddettiğinizi söylüyorsunuz. Bazı insanlar karma ekonomi fikrini reddediyor.
91
+ Ailemin dini inançlarını reddetmek benim için zordu. 3. İsim olarak kullanılır.
92
+ Reddetmek, attığınız şeylere atıfta bulunmak için kullanılan bir isimdir.
93
+ - Clark County, Amerika Birleşik Devletleri'nin Wisconsin eyaletinde yer alan bir
94
+ ilçedir. 2010 nüfus sayımına göre nüfusu 34.690'dır. İlçe merkezi Neillsville'dir.
95
+ pipeline_tag: sentence-similarity
96
+ library_name: sentence-transformers
97
+ ---
98
+
99
+ # intfloat-fine-tuned
100
+
101
+ This is a [sentence-transformers](https://www.SBERT.net) model finetuned from [intfloat/multilingual-e5-large-instruct](https://huggingface.co/intfloat/multilingual-e5-large-instruct) on the json dataset. It maps sentences & paragraphs to a 1024-dimensional dense vector space and can be used for semantic textual similarity, semantic search, paraphrase mining, text classification, clustering, and more.
102
+
103
+ ## Model Details
104
+
105
+ ### Model Description
106
+ - **Model Type:** Sentence Transformer
107
+ - **Base model:** [intfloat/multilingual-e5-large-instruct](https://huggingface.co/intfloat/multilingual-e5-large-instruct) <!-- at revision c9e87c786ffac96aeaeb42863276930883923ecb -->
108
+ - **Maximum Sequence Length:** 512 tokens
109
+ - **Output Dimensionality:** 1024 tokens
110
+ - **Similarity Function:** Cosine Similarity
111
+ - **Training Dataset:**
112
+ - json
113
+ - **Language:** tr
114
+ - **License:** apache-2.0
115
+
116
+ ### Model Sources
117
+
118
+ - **Documentation:** [Sentence Transformers Documentation](https://sbert.net)
119
+ - **Repository:** [Sentence Transformers on GitHub](https://github.com/UKPLab/sentence-transformers)
120
+ - **Hugging Face:** [Sentence Transformers on Hugging Face](https://huggingface.co/models?library=sentence-transformers)
121
+
122
+ ### Full Model Architecture
123
+
124
+ ```
125
+ SentenceTransformer(
126
+ (0): Transformer({'max_seq_length': 512, 'do_lower_case': False}) with Transformer model: XLMRobertaModel
127
+ (1): Pooling({'word_embedding_dimension': 1024, 'pooling_mode_cls_token': False, 'pooling_mode_mean_tokens': True, 'pooling_mode_max_tokens': False, 'pooling_mode_mean_sqrt_len_tokens': False, 'pooling_mode_weightedmean_tokens': False, 'pooling_mode_lasttoken': False, 'include_prompt': True})
128
+ (2): Normalize()
129
+ )
130
+ ```
131
+
132
+ ## Usage
133
+
134
+ ### Direct Usage (Sentence Transformers)
135
+
136
+ First install the Sentence Transformers library:
137
+
138
+ ```bash
139
+ pip install -U sentence-transformers
140
+ ```
141
+
142
+ Then you can load this model and run inference.
143
+ ```python
144
+ from sentence_transformers import SentenceTransformer
145
+
146
+ # Download from the 🤗 Hub
147
+ model = SentenceTransformer("Omerhan/checkpoint-10934-v7")
148
+ # Run inference
149
+ sentences = [
150
+ 'ret kuyruğu nedir',
151
+ "Bir kuyruktan gelen mesajlar 'ölü harfli' olabilir; yani, aşağıdaki olaylardan herhangi biri meydana geldiğinde başka bir değiş tokuşa yeniden yayınlanabilir: 1 İleti, requeue=false ile (basic.reject veya basic.nack) reddedilir, 2 İletinin TTL'si sona erer; veya. 3 Kuyruk uzunluğu sınırı aşılır.",
152
+ "2.'reddetmek'. Bir fikir veya inançla aynı fikirde değilseniz,'reddetmek' demiyorsunuz. Bunu reddettiğinizi söylüyorsunuz. Bazı insanlar karma ekonomi fikrini reddediyor. Ailemin dini inançlarını reddetmek benim için zordu. 3. İsim olarak kullanılır. Reddetmek, attığınız şeylere atıfta bulunmak için kullanılan bir isimdir.",
153
+ ]
154
+ embeddings = model.encode(sentences)
155
+ print(embeddings.shape)
156
+ # [3, 1024]
157
+
158
+ # Get the similarity scores for the embeddings
159
+ similarities = model.similarity(embeddings, embeddings)
160
+ print(similarities.shape)
161
+ # [3, 3]
162
+ ```
163
+
164
+ <!--
165
+ ### Direct Usage (Transformers)
166
+
167
+ <details><summary>Click to see the direct usage in Transformers</summary>
168
+
169
+ </details>
170
+ -->
171
+
172
+ <!--
173
+ ### Downstream Usage (Sentence Transformers)
174
+
175
+ You can finetune this model on your own dataset.
176
+
177
+ <details><summary>Click to expand</summary>
178
+
179
+ </details>
180
+ -->
181
+
182
+ <!--
183
+ ### Out-of-Scope Use
184
+
185
+ *List how the model may foreseeably be misused and address what users ought not to do with the model.*
186
+ -->
187
+
188
+ <!--
189
+ ## Bias, Risks and Limitations
190
+
191
+ *What are the known or foreseeable issues stemming from this model? You could also flag here known failure cases or weaknesses of the model.*
192
+ -->
193
+
194
+ <!--
195
+ ### Recommendations
196
+
197
+ *What are recommendations with respect to the foreseeable issues? For example, filtering explicit content.*
198
+ -->
199
+
200
+ ## Training Details
201
+
202
+ ### Training Dataset
203
+
204
+ #### json
205
+
206
+ * Dataset: json
207
+ * Size: 920,106 training samples
208
+ * Columns: <code>anchor</code>, <code>positive</code>, and <code>negative</code>
209
+ * Approximate statistics based on the first 1000 samples:
210
+ | | anchor | positive | negative |
211
+ |:--------|:----------------------------------------------------------------------------------|:------------------------------------------------------------------------------------|:-----------------------------------------------------------------------------------|
212
+ | type | string | string | string |
213
+ | details | <ul><li>min: 4 tokens</li><li>mean: 10.38 tokens</li><li>max: 39 tokens</li></ul> | <ul><li>min: 26 tokens</li><li>mean: 81.21 tokens</li><li>max: 149 tokens</li></ul> | <ul><li>min: 4 tokens</li><li>mean: 78.05 tokens</li><li>max: 133 tokens</li></ul> |
214
+ * Samples:
215
+ | anchor | positive | negative |
216
+ |:----------------------------------------------|:--------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|:----------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|
217
+ | <code>Avustralya'ya özgü hangi meyve</code> | <code>Passiflora herbertiana. Avustralya'ya özgü nadir bir tutku meyvesi. Meyveler yeşil tenli, beyaz etli, bilinmeyen bir yenilebilir derecelendirmeye sahiptir. Bazı kaynaklar meyveyi yenilebilir, tatlı ve lezzetli olarak listelerken, diğerleri meyveleri acı ve yenemez olarak listeler. Avustralya'ya özgü nadir bir tutku meyvesi. Meyveler yeşil tenli, beyaz etli, bilinmeyen yenilebilir bir derecelendirmeye sahip. Bazı kaynaklar meyveyi tatlı olarak listeler.</code> | <code>Kola cevizi, Afrika'nın tropikal yağmur ormanlarına özgü bir ağaç cinsidir (Cola).</code> |
218
+ | <code>meyve ağaçları türleri</code> | <code>Kiraz. Kiraz ağaçları dünya çapında bulunur. Kirazdan siyah kiraza kadar değişen 40 veya daha fazla çeşit vardır. Meyve ile birlikte, kiraz ağaçları, son derece hoş kokulu hafif ve narin pembemsi-beyaz çiçekler üretir.Omments. Submit. Mülkünüze meyve ağaçları dikmek sadece size istikrarlı bir organik meyve kaynağı sağlamakla kalmaz, aynı zamanda bahçenizi güzelleştirmenizi ve oksijeni çevreye geri vermenizi sağlar.</code> | <code>Kola cevizi, Afrika'nın tropikal yağmur ormanlarına özgü bir ağaç cinsidir (Cola).</code> |
219
+ | <code>Harrison City Pa nerede yaşıyor?</code> | <code>Harrison City, Amerika Birleşik Devletleri'nin Pensilvanya eyaletinde yer alan Westmoreland County'de nüfus sayımına göre belirlenmiş bir yerdir. 2000 nüfus sayımında nüfus 155'tir.</code> | <code>En yakın şehirler: Vandling borough, PA (1.1 mil ), Simpson, PA (2.0 mil ), Union Dale borough, PA (2,1 mil ), Carbondale, PA (2,4 mil ), Waymart borough, PA (2,4 mil ), Mayfield borough, PA (2.9 mil ), Prompion borough, PA (2.9 mil ), Jermyn borough, PA (3.1 mil ).</code> |
220
+ * Loss: [<code>MatryoshkaLoss</code>](https://sbert.net/docs/package_reference/sentence_transformer/losses.html#matryoshkaloss) with these parameters:
221
+ ```json
222
+ {
223
+ "loss": "MultipleNegativesRankingLoss",
224
+ "matryoshka_dims": [
225
+ 1024
226
+ ],
227
+ "matryoshka_weights": [
228
+ 1
229
+ ],
230
+ "n_dims_per_step": -1
231
+ }
232
+ ```
233
+
234
+ ### Training Hyperparameters
235
+ #### Non-Default Hyperparameters
236
+
237
+ - `gradient_accumulation_steps`: 8
238
+ - `learning_rate`: 5e-06
239
+ - `num_train_epochs`: 1
240
+ - `lr_scheduler_type`: cosine
241
+ - `tf32`: True
242
+ - `optim`: adamw_torch_fused
243
+ - `batch_sampler`: no_duplicates
244
+
245
+ #### All Hyperparameters
246
+ <details><summary>Click to expand</summary>
247
+
248
+ - `overwrite_output_dir`: False
249
+ - `do_predict`: False
250
+ - `eval_strategy`: no
251
+ - `prediction_loss_only`: True
252
+ - `per_device_train_batch_size`: 8
253
+ - `per_device_eval_batch_size`: 8
254
+ - `per_gpu_train_batch_size`: None
255
+ - `per_gpu_eval_batch_size`: None
256
+ - `gradient_accumulation_steps`: 8
257
+ - `eval_accumulation_steps`: None
258
+ - `torch_empty_cache_steps`: None
259
+ - `learning_rate`: 5e-06
260
+ - `weight_decay`: 0.0
261
+ - `adam_beta1`: 0.9
262
+ - `adam_beta2`: 0.999
263
+ - `adam_epsilon`: 1e-08
264
+ - `max_grad_norm`: 1.0
265
+ - `num_train_epochs`: 1
266
+ - `max_steps`: -1
267
+ - `lr_scheduler_type`: cosine
268
+ - `lr_scheduler_kwargs`: {}
269
+ - `warmup_ratio`: 0
270
+ - `warmup_steps`: 0
271
+ - `log_level`: passive
272
+ - `log_level_replica`: warning
273
+ - `log_on_each_node`: True
274
+ - `logging_nan_inf_filter`: True
275
+ - `save_safetensors`: True
276
+ - `save_on_each_node`: False
277
+ - `save_only_model`: False
278
+ - `restore_callback_states_from_checkpoint`: False
279
+ - `no_cuda`: False
280
+ - `use_cpu`: False
281
+ - `use_mps_device`: False
282
+ - `seed`: 42
283
+ - `data_seed`: None
284
+ - `jit_mode_eval`: False
285
+ - `use_ipex`: False
286
+ - `bf16`: False
287
+ - `fp16`: False
288
+ - `fp16_opt_level`: O1
289
+ - `half_precision_backend`: auto
290
+ - `bf16_full_eval`: False
291
+ - `fp16_full_eval`: False
292
+ - `tf32`: True
293
+ - `local_rank`: 0
294
+ - `ddp_backend`: None
295
+ - `tpu_num_cores`: None
296
+ - `tpu_metrics_debug`: False
297
+ - `debug`: []
298
+ - `dataloader_drop_last`: False
299
+ - `dataloader_num_workers`: 0
300
+ - `dataloader_prefetch_factor`: None
301
+ - `past_index`: -1
302
+ - `disable_tqdm`: False
303
+ - `remove_unused_columns`: True
304
+ - `label_names`: None
305
+ - `load_best_model_at_end`: False
306
+ - `ignore_data_skip`: False
307
+ - `fsdp`: []
308
+ - `fsdp_min_num_params`: 0
309
+ - `fsdp_config`: {'min_num_params': 0, 'xla': False, 'xla_fsdp_v2': False, 'xla_fsdp_grad_ckpt': False}
310
+ - `fsdp_transformer_layer_cls_to_wrap`: None
311
+ - `accelerator_config`: {'split_batches': False, 'dispatch_batches': None, 'even_batches': True, 'use_seedable_sampler': True, 'non_blocking': False, 'gradient_accumulation_kwargs': None}
312
+ - `deepspeed`: None
313
+ - `label_smoothing_factor`: 0.0
314
+ - `optim`: adamw_torch_fused
315
+ - `optim_args`: None
316
+ - `adafactor`: False
317
+ - `group_by_length`: False
318
+ - `length_column_name`: length
319
+ - `ddp_find_unused_parameters`: None
320
+ - `ddp_bucket_cap_mb`: None
321
+ - `ddp_broadcast_buffers`: False
322
+ - `dataloader_pin_memory`: True
323
+ - `dataloader_persistent_workers`: False
324
+ - `skip_memory_metrics`: True
325
+ - `use_legacy_prediction_loop`: False
326
+ - `push_to_hub`: False
327
+ - `resume_from_checkpoint`: None
328
+ - `hub_model_id`: None
329
+ - `hub_strategy`: every_save
330
+ - `hub_private_repo`: False
331
+ - `hub_always_push`: False
332
+ - `gradient_checkpointing`: False
333
+ - `gradient_checkpointing_kwargs`: None
334
+ - `include_inputs_for_metrics`: False
335
+ - `eval_do_concat_batches`: True
336
+ - `fp16_backend`: auto
337
+ - `push_to_hub_model_id`: None
338
+ - `push_to_hub_organization`: None
339
+ - `mp_parameters`:
340
+ - `auto_find_batch_size`: False
341
+ - `full_determinism`: False
342
+ - `torchdynamo`: None
343
+ - `ray_scope`: last
344
+ - `ddp_timeout`: 1800
345
+ - `torch_compile`: False
346
+ - `torch_compile_backend`: None
347
+ - `torch_compile_mode`: None
348
+ - `dispatch_batches`: None
349
+ - `split_batches`: None
350
+ - `include_tokens_per_second`: False
351
+ - `include_num_input_tokens_seen`: False
352
+ - `neftune_noise_alpha`: None
353
+ - `optim_target_modules`: None
354
+ - `batch_eval_metrics`: False
355
+ - `eval_on_start`: False
356
+ - `use_liger_kernel`: False
357
+ - `eval_use_gather_object`: False
358
+ - `batch_sampler`: no_duplicates
359
+ - `multi_dataset_batch_sampler`: proportional
360
+
361
+ </details>
362
+
363
+ ### Training Logs
364
+ | Epoch | Step | Training Loss |
365
+ |:------:|:-----:|:-------------:|
366
+ | 0.0348 | 500 | 0.1492 |
367
+ | 0.0696 | 1000 | 0.1114 |
368
+ | 0.1043 | 1500 | 0.1013 |
369
+ | 0.1391 | 2000 | 0.0988 |
370
+ | 0.1739 | 2500 | 0.0973 |
371
+ | 0.2087 | 3000 | 0.0909 |
372
+ | 0.2434 | 3500 | 0.0858 |
373
+ | 0.2782 | 4000 | 0.0899 |
374
+ | 0.3130 | 4500 | 0.0861 |
375
+ | 0.3478 | 5000 | 0.0821 |
376
+ | 0.3826 | 5500 | 0.09 |
377
+ | 0.4173 | 6000 | 0.078 |
378
+ | 0.4521 | 6500 | 0.0796 |
379
+ | 0.4869 | 7000 | 0.0816 |
380
+ | 0.5217 | 7500 | 0.0867 |
381
+ | 0.5565 | 8000 | 0.0787 |
382
+ | 0.5912 | 8500 | 0.0691 |
383
+ | 0.6260 | 9000 | 0.0755 |
384
+ | 0.6608 | 9500 | 0.079 |
385
+ | 0.6956 | 10000 | 0.0694 |
386
+ | 0.7303 | 10500 | 0.075 |
387
+
388
+
389
+ ### Framework Versions
390
+ - Python: 3.10.12
391
+ - Sentence Transformers: 3.1.1
392
+ - Transformers: 4.45.2
393
+ - PyTorch: 2.5.1+cu121
394
+ - Accelerate: 1.2.1
395
+ - Datasets: 3.2.0
396
+ - Tokenizers: 0.20.3
397
+
398
+ ## Citation
399
+
400
+ ### BibTeX
401
+
402
+ #### Sentence Transformers
403
+ ```bibtex
404
+ @inproceedings{reimers-2019-sentence-bert,
405
+ title = "Sentence-BERT: Sentence Embeddings using Siamese BERT-Networks",
406
+ author = "Reimers, Nils and Gurevych, Iryna",
407
+ booktitle = "Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing",
408
+ month = "11",
409
+ year = "2019",
410
+ publisher = "Association for Computational Linguistics",
411
+ url = "https://arxiv.org/abs/1908.10084",
412
+ }
413
+ ```
414
+
415
+ #### MatryoshkaLoss
416
+ ```bibtex
417
+ @misc{kusupati2024matryoshka,
418
+ title={Matryoshka Representation Learning},
419
+ author={Aditya Kusupati and Gantavya Bhatt and Aniket Rege and Matthew Wallingford and Aditya Sinha and Vivek Ramanujan and William Howard-Snyder and Kaifeng Chen and Sham Kakade and Prateek Jain and Ali Farhadi},
420
+ year={2024},
421
+ eprint={2205.13147},
422
+ archivePrefix={arXiv},
423
+ primaryClass={cs.LG}
424
+ }
425
+ ```
426
+
427
+ #### MultipleNegativesRankingLoss
428
+ ```bibtex
429
+ @misc{henderson2017efficient,
430
+ title={Efficient Natural Language Response Suggestion for Smart Reply},
431
+ author={Matthew Henderson and Rami Al-Rfou and Brian Strope and Yun-hsuan Sung and Laszlo Lukacs and Ruiqi Guo and Sanjiv Kumar and Balint Miklos and Ray Kurzweil},
432
+ year={2017},
433
+ eprint={1705.00652},
434
+ archivePrefix={arXiv},
435
+ primaryClass={cs.CL}
436
+ }
437
+ ```
438
+
439
+ <!--
440
+ ## Glossary
441
+
442
+ *Clearly define terms in order to be accessible across audiences.*
443
+ -->
444
+
445
+ <!--
446
+ ## Model Card Authors
447
+
448
+ *Lists the people who create the model card, providing recognition and accountability for the detailed work that goes into its construction.*
449
+ -->
450
+
451
+ <!--
452
+ ## Model Card Contact
453
+
454
+ *Provides a way for people who have updates to the Model Card, suggestions, or questions, to contact the Model Card authors.*
455
+ -->
config.json ADDED
@@ -0,0 +1,28 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ {
2
+ "_name_or_path": "/content/intfloat-fine-tuned/checkpoint-10934",
3
+ "architectures": [
4
+ "XLMRobertaModel"
5
+ ],
6
+ "attention_probs_dropout_prob": 0.1,
7
+ "bos_token_id": 0,
8
+ "classifier_dropout": null,
9
+ "eos_token_id": 2,
10
+ "hidden_act": "gelu",
11
+ "hidden_dropout_prob": 0.1,
12
+ "hidden_size": 1024,
13
+ "initializer_range": 0.02,
14
+ "intermediate_size": 4096,
15
+ "layer_norm_eps": 1e-05,
16
+ "max_position_embeddings": 514,
17
+ "model_type": "xlm-roberta",
18
+ "num_attention_heads": 16,
19
+ "num_hidden_layers": 24,
20
+ "output_past": true,
21
+ "pad_token_id": 1,
22
+ "position_embedding_type": "absolute",
23
+ "torch_dtype": "float32",
24
+ "transformers_version": "4.45.2",
25
+ "type_vocab_size": 1,
26
+ "use_cache": true,
27
+ "vocab_size": 250002
28
+ }
config_sentence_transformers.json ADDED
@@ -0,0 +1,10 @@
 
 
 
 
 
 
 
 
 
 
 
1
+ {
2
+ "__version__": {
3
+ "sentence_transformers": "3.1.1",
4
+ "transformers": "4.45.2",
5
+ "pytorch": "2.5.1+cu121"
6
+ },
7
+ "prompts": {},
8
+ "default_prompt_name": null,
9
+ "similarity_fn_name": null
10
+ }
model.safetensors ADDED
@@ -0,0 +1,3 @@
 
 
 
 
1
+ version https://git-lfs.github.com/spec/v1
2
+ oid sha256:2ef81d4efddc1d73e8c9a6c3d8a7663ead86baa827a0da7823d6dbf1dcda902c
3
+ size 2239607176
modules.json ADDED
@@ -0,0 +1,20 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ [
2
+ {
3
+ "idx": 0,
4
+ "name": "0",
5
+ "path": "",
6
+ "type": "sentence_transformers.models.Transformer"
7
+ },
8
+ {
9
+ "idx": 1,
10
+ "name": "1",
11
+ "path": "1_Pooling",
12
+ "type": "sentence_transformers.models.Pooling"
13
+ },
14
+ {
15
+ "idx": 2,
16
+ "name": "2",
17
+ "path": "2_Normalize",
18
+ "type": "sentence_transformers.models.Normalize"
19
+ }
20
+ ]
sentence_bert_config.json ADDED
@@ -0,0 +1,4 @@
 
 
 
 
 
1
+ {
2
+ "max_seq_length": 512,
3
+ "do_lower_case": false
4
+ }
sentencepiece.bpe.model ADDED
@@ -0,0 +1,3 @@
 
 
 
 
1
+ version https://git-lfs.github.com/spec/v1
2
+ oid sha256:cfc8146abe2a0488e9e2a0c56de7952f7c11ab059eca145a0a727afce0db2865
3
+ size 5069051
special_tokens_map.json ADDED
@@ -0,0 +1,51 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ {
2
+ "bos_token": {
3
+ "content": "<s>",
4
+ "lstrip": false,
5
+ "normalized": false,
6
+ "rstrip": false,
7
+ "single_word": false
8
+ },
9
+ "cls_token": {
10
+ "content": "<s>",
11
+ "lstrip": false,
12
+ "normalized": false,
13
+ "rstrip": false,
14
+ "single_word": false
15
+ },
16
+ "eos_token": {
17
+ "content": "</s>",
18
+ "lstrip": false,
19
+ "normalized": false,
20
+ "rstrip": false,
21
+ "single_word": false
22
+ },
23
+ "mask_token": {
24
+ "content": "<mask>",
25
+ "lstrip": true,
26
+ "normalized": false,
27
+ "rstrip": false,
28
+ "single_word": false
29
+ },
30
+ "pad_token": {
31
+ "content": "<pad>",
32
+ "lstrip": false,
33
+ "normalized": false,
34
+ "rstrip": false,
35
+ "single_word": false
36
+ },
37
+ "sep_token": {
38
+ "content": "</s>",
39
+ "lstrip": false,
40
+ "normalized": false,
41
+ "rstrip": false,
42
+ "single_word": false
43
+ },
44
+ "unk_token": {
45
+ "content": "<unk>",
46
+ "lstrip": false,
47
+ "normalized": false,
48
+ "rstrip": false,
49
+ "single_word": false
50
+ }
51
+ }
tokenizer.json ADDED
@@ -0,0 +1,3 @@
 
 
 
 
1
+ version https://git-lfs.github.com/spec/v1
2
+ oid sha256:883b037111086fd4dfebbbc9b7cee11e1517b5e0c0514879478661440f137085
3
+ size 17082987
tokenizer_config.json ADDED
@@ -0,0 +1,62 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ {
2
+ "added_tokens_decoder": {
3
+ "0": {
4
+ "content": "<s>",
5
+ "lstrip": false,
6
+ "normalized": false,
7
+ "rstrip": false,
8
+ "single_word": false,
9
+ "special": true
10
+ },
11
+ "1": {
12
+ "content": "<pad>",
13
+ "lstrip": false,
14
+ "normalized": false,
15
+ "rstrip": false,
16
+ "single_word": false,
17
+ "special": true
18
+ },
19
+ "2": {
20
+ "content": "</s>",
21
+ "lstrip": false,
22
+ "normalized": false,
23
+ "rstrip": false,
24
+ "single_word": false,
25
+ "special": true
26
+ },
27
+ "3": {
28
+ "content": "<unk>",
29
+ "lstrip": false,
30
+ "normalized": false,
31
+ "rstrip": false,
32
+ "single_word": false,
33
+ "special": true
34
+ },
35
+ "250001": {
36
+ "content": "<mask>",
37
+ "lstrip": true,
38
+ "normalized": false,
39
+ "rstrip": false,
40
+ "single_word": false,
41
+ "special": true
42
+ }
43
+ },
44
+ "additional_special_tokens": [],
45
+ "bos_token": "<s>",
46
+ "clean_up_tokenization_spaces": true,
47
+ "cls_token": "<s>",
48
+ "eos_token": "</s>",
49
+ "mask_token": "<mask>",
50
+ "max_length": 512,
51
+ "model_max_length": 512,
52
+ "pad_to_multiple_of": null,
53
+ "pad_token": "<pad>",
54
+ "pad_token_type_id": 0,
55
+ "padding_side": "right",
56
+ "sep_token": "</s>",
57
+ "stride": 0,
58
+ "tokenizer_class": "XLMRobertaTokenizer",
59
+ "truncation_side": "right",
60
+ "truncation_strategy": "longest_first",
61
+ "unk_token": "<unk>"
62
+ }