SentenceTransformer based on Supabase/gte-small

This is a sentence-transformers model finetuned from Supabase/gte-small on the all-nli-pair-class, stsb and x1saint datasets. It maps sentences & paragraphs to a 384-dimensional dense vector space and can be used for semantic textual similarity, semantic search, paraphrase mining, text classification, clustering, and more.

Model Details

Model Description

  • Model Type: Sentence Transformer
  • Base model: Supabase/gte-small
  • Maximum Sequence Length: 512 tokens
  • Output Dimensionality: 384 dimensions
  • Similarity Function: Cosine Similarity
  • Training Datasets:
  • Language: tr

Model Sources

Full Model Architecture

SentenceTransformer(
  (0): Transformer({'max_seq_length': 512, 'do_lower_case': False}) with Transformer model: BertModel 
  (1): Pooling({'word_embedding_dimension': 384, 'pooling_mode_cls_token': False, 'pooling_mode_mean_tokens': True, 'pooling_mode_max_tokens': False, 'pooling_mode_mean_sqrt_len_tokens': False, 'pooling_mode_weightedmean_tokens': False, 'pooling_mode_lasttoken': False, 'include_prompt': True})
)

Usage

Direct Usage (Sentence Transformers)

First install the Sentence Transformers library:

pip install -U sentence-transformers

Then you can load this model and run inference.

from sentence_transformers import SentenceTransformer

# Download from the 🤗 Hub
model = SentenceTransformer("x1saint/gte-small-tr-v2")
# Run inference
sentences = [
    'Sonra kaçtı.',
    'Atlet gibi koştu.',
    'Hiç olmamasından çok az sahip olmak daha iyidir.',
]
embeddings = model.encode(sentences)
print(embeddings.shape)
# [3, 384]

# Get the similarity scores for the embeddings
similarities = model.similarity(embeddings, embeddings)
print(similarities.shape)
# [3, 3]

Evaluation

Metrics

Semantic Similarity

Metric Value
pearson_cosine 0.5865
spearman_cosine 0.6151

Training Details

Training Datasets

all-nli-pair-class

  • Dataset: all-nli-pair-class at 67baa14
  • Size: 474,283 training samples
  • Columns: premise, hypothesis, and label
  • Approximate statistics based on the first 1000 samples:
    premise hypothesis label
    type string string int
    details
    • min: 19 tokens
    • mean: 419.29 tokens
    • max: 512 tokens
    • min: 40 tokens
    • mean: 401.34 tokens
    • max: 512 tokens
    • 0: ~40.80%
    • 1: ~42.60%
    • 2: ~16.60%
  • Samples:
    premise hypothesis label
    Davacı tarafından davalı aleyhine açılan İtirazın İptali davasının mahkememizde yapılan açık yargılaması sonunda dosya incelendi. AÇILAN DAVA VE İDDİA :Davacı vekilinin dava dilekçesinde özetle; Müvekkilinin EPDK'dan (Enerji Piyasası DenetlemeKurumu) aldığı onay ile Eylül 2012 den bu yana tüm Türkiye'de elektrik enerjisi tedariki ve toptan satış hizmeti sunduğunu, davalıdan da davacı şirket ile akdettiği sözleşmeye binaen müvekkili şirkketten satın aldığı elektrik ödemelerini aksattıığı düzenlenen faturaları ödemedğinden temerrüde düştüğünü, davacı tarafından defalarca uyarılmasına rağmen de borcunu ödemedeğini bunün üzerine müvekkili İstanbul ... İcra müdürlüğünün ... Esas sayılı dosyasıda ilamsız icra takibi başlattığını davalının borca kötü niyetli olarak itiraz ettiğini ve takibin durduğunu itirazın iptali ile takibin devamına davalı hakkında haksız ve kötü niyetli irizları nedeniyle %20 den aşağı olmamak üzere icra inkar tazminatına hükmedilmesine ve yargılama gideri ile vekale... Davacı vekili dava dilekçesinde özetle;Müvekkili ...'a karşı halihazırda 17/07/2018'de açılmış .... İcra Dairesi'nde ... Esas Sayılı dosya ile devam eden bir icra dosyası bulunduğunu, bu icra dosyası kapsamında 12/11/2018'den beri müvekkilinin maaşına haciz uygulandığını, dosya ödeme emrinde dosyanın dayanağı, "(Kredi kartı borcu) .... İcra-... Esas dosyalarından kaynaklanan alacağın takipte ve tahsilde tekerrür olmamak üzere tahsili talebidir." şeklinde yazıldığını, müvekkili ...'ın, 2003 yılında kimliğinin çalınarak bazı bankacılık ve telefon işlemlerinde kullanıldığını, adına kredi çekildiğini, kredi kartı çıkarıldığını, telefon hattı açıldığını ve o dönemde bu konuda şikayette bulunduğunu, ... Cumhuriyet Başsavcılığı'nca 28/01/2004 suç tarihli ... soruşturma numaralı dosyasına ulaşıldığını, bu dosyada, müvekkilinin şüpheli olarak görünmekte iken şikayetçi ...A.Ş.' olduğunu, yapılan soruşturma sonucunda gerçek şüpheli şahısların ortaya çıkarılamadığı, fakat müvekkilinin suçlu olmad... 0
    Davacı vekili dava dilekçesinde özetle; müvekkili şirket tarafından,----işbu sözleşmeye istinaden düzenlenen ---- ait alüminyum levha emtiasının, davalı taşıyıcı şirket tarafından, ---- tarihinde, dava dışı sigortalı firmanın ------ fabrikasından yüklenildiğini, davalı taşıyıcı firmanın sorumluluğunda, --- nakli gerçekleşen toplam ---; net ağırlığı --- uygun ambalajlar ile nakledilen emtiaların, gümrük işlemleri sonrası--- alıcı şirket tarafından --- tarihinde teslim alındığı ancak teslim esnasında ------paket no’lu levhaların ıslanması sebebi ile emtianın hasara uğramış olduğu tespit edilerek taşıma senedine ihtirazi kayıt düşüldüğü ve bu levhaların hurda edilmek üzere ayrıldığını, davalı taşıyıcı şirketin sorumluluk sahasında gerçekleşen işbu hasar sonrası, bağımsız ve uzman eksper tarafından yapılan incelemelere istinaden tanzim edilmiş olan ekspertiz raporunda; hasar nedeninin, emtianın taşıyıcının sorumluluğunda bulunduğu esnada ıslanarak hasara uğramış olmasından, ıslanan paketi... Davacı vekili dava dilekçesinde özetle; Müvekkili------- ------------- tarihinde davalının------ aracın çarpması nedeniyle hasara uğradığını, meydana gelen kazada davalının %100 kusurlu olduğunu, müvekkili şirket tarafından zarar gören araç için ------ hasar tazminatı ödendiğini, yapılan incelemeler neticesinde davalının sigortacısı olduğu aracın kusurlu olduğunun tespit edildiğini, kaza neticesinde ------ aracın ---- geldiğini, buna göre aracın piyasa değerinin tespit edildiğini ve tespit edilen değerin ------------ tarafından, kalan ------ ise -----tarafından ödendiğini, ayrıca, -----aracın hasarı sırasında ------ kırılması,---- durdurulamaması nedeniyle ------- hasarın tespitinin de ayrıca gerekli hale geldiğini, bu nedenle müvekkili --------- hasarının tespiti için---------------nedeniyle-------- daha ödendiğini, davalının, kusurlu --------------- nedeniyle davalı tarafa başvurulduğunu, davalı tarafın --------- hiçbir gerekçesi olmaksızın ödemediğini, müvekkili şirket tarafından 1.... 1
    Davacı vekili dava dilekçesinde özetle, müvekkili şirketin keşidecisi olduğu ----------------- Taşdelen Şubesine ait, ---- seri numaralı, 17.02.2019 vade tarihli, 50.000,00-TL bedelli çeki lehtara vermek üzere hazırlandığını ancak müvekkili şirket yetkilisinin cüzdanını kaybetmesi suretiyle çeklerin zayi olduğunu, söz konusu çeklerin kötü niyetli üçüncü kişilerin eline geçmesi halinde müvekkilinin mağdur olacağını, bu nedenle ödemeden men talimatı verilmesini ve zayi edilen çekin iptaline dair karar verilmesini talep ve dava etmiştir. Davacı vekili dava dilekçesinde özetle; ... plakalı araç ... sayılı Genişletilmiş Kasko Sigortası Poliçesi ile müvekkili şirkete, sigortalı olduğunu, hadisenin, 14/06/2017 tarihinde ... plakalı aracın ... ... ... yolu üzerinde seyir halinde iken önünde seyir halinde bulunan sigortalı ... plakalı aracın trafik nedeniyle duraksaması nedeniyle duramayarak çarpması akabinde sigortalı ... plakalı aracın önünde seyir halinde bulunan ... plakalı araca, onun da önünde seyir halinde bulunan ... plakalı araca arkadan çarpması ve bu araçların sırasıyla ... aracın arkaya ... plakalı araca onun da duramayarak ... plakalı araca arkadan çarpması neticesinde çoklu maddi hasarlı trafik kazası meydana gelmiştir, Davalı/Borçlu ... sigortalısı olan ... plakalı aracın, müvekkil şirket sigortalısı olan ... Plakalı araca çarpması neticesinde maddi hasar aldığını, sigortalının, yapmış olduğu başvuru neticesinde Hasar gören sigortalı araca yaptırılan ekspertiz incelemesi sonucunda aracın hasarlı olduğunun tesp... 0
  • Loss: SoftmaxLoss

stsb

  • Dataset: stsb at daeabfb
  • Size: 941,086 training samples
  • Columns: sentence1, sentence2, and score
  • Approximate statistics based on the first 1000 samples:
    sentence1 sentence2 score
    type string string float
    details
    • min: 5 tokens
    • mean: 47.0 tokens
    • max: 301 tokens
    • min: 4 tokens
    • mean: 25.29 tokens
    • max: 103 tokens
    • min: 0.0
    • mean: 0.48
    • max: 1.0
  • Samples:
    sentence1 sentence2 score
    Kavramsal olarak krem kaymağının iki temel boyutu vardır - ürün ve coğrafya. Ürün ve coğrafya krem kaymağını işe yarıyor. 0.5
    Mevsim boyunca ve sanırım senin seviyendeyken onları bir sonraki seviyeye düşürürsün. Eğer ebeveyn takımını çağırmaya karar verirlerse Braves üçlü A'dan birini çağırmaya karar verirlerse çifte bir adam onun yerine geçmeye gider ve bekar bir adam gelir. Eğer insanlar hatırlarsa, bir sonraki seviyeye düşersin. 1.0
    Numaramızdan biri talimatlarınızı birazdan yerine getirecektir. Ekibimin bir üyesi emirlerinizi büyük bir hassasiyetle yerine getirecektir. 1.0
  • Loss: CoSENTLoss with these parameters:
    {
        "scale": 20.0,
        "similarity_fct": "pairwise_cos_sim"
    }
    

x1saint

  • Dataset: x1saint at 85ac563
  • Size: 1,523 training samples
  • Columns: sentence1, sentence2, and score
  • Approximate statistics based on the first 1000 samples:
    sentence1 sentence2 score
    type string string float
    details
    • min: 5 tokens
    • mean: 42.14 tokens
    • max: 353 tokens
    • min: 5 tokens
    • mean: 40.23 tokens
    • max: 172 tokens
    • min: 0.0
    • mean: 0.69
    • max: 1.0
  • Samples:
    sentence1 sentence2 score
    George Orwell, 1903 yılında Hindistan'ın Bengal bölgesinde doğdu. George Orwell, Montihari şehrinde doğmuştur. 0.8
    Orwell, Eton College'de eğitimini tamamladı. Orwell öğrenimini Eton College'de bitirdi. 1.0
    George Orwell, İngiltere yönetimine karşı çıkarak Hindistan Polisi görevinden istifa etti. Orwell, İmparatorluk yönetiminin iç yüzünü görünce istifayı tercih etti. 0.8
  • Loss: CoSENTLoss with these parameters:
    {
        "scale": 20.0,
        "similarity_fct": "pairwise_cos_sim"
    }
    

Evaluation Datasets

all-nli-pair-class

  • Dataset: all-nli-pair-class at 67baa14
  • Size: 5,000 evaluation samples
  • Columns: premise, hypothesis, and label
  • Approximate statistics based on the first 1000 samples:
    premise hypothesis label
    type string string int
    details
    • min: 74 tokens
    • mean: 420.94 tokens
    • max: 512 tokens
    • min: 43 tokens
    • mean: 406.85 tokens
    • max: 512 tokens
    • 0: ~44.30%
    • 1: ~39.00%
    • 2: ~16.70%
  • Samples:
    premise hypothesis label
    Davacı vekili dava dilekçesinde özetle; Davacı şirketin taşıyan sıfatıyla davalı şirkete ait yükü kendisi ile yapılan taşıma sözleşmesi uyarınca ... Limanından ... tarihinde yükleyerek .../ ... Limanı’na taşıdığını ve yükü ihtiva eden 3 adet konteyneri liman sahasına kapalı ve mühürlü olarak ... tarihinde gemiden tahliye ettiğini, ... numaralı konişmentoda belirtildiği üzere, söz konusu deniz taşıma işinde davacı şirkete ait ‘...’ numaralı 3 adet konteynerin kullanıldığını, taşıma konusu yüklere ilişkin varış ihbarlarının düzenlendiğini ve yüklerin tahliye edildiğini, bugüne dek söz konusu yüklerin teslim alınmadığını, yüklerin konişmentolarda öngörülen süre içerisinde gönderilen tarafından teslim alınmaması nedeniyle, davacı şirket tarafından yapılan bütün iyiniyetli girişimlerin sonuçsuz kaldığını, aradan geçen yaklaşık 11 aylık süre zarfında yükün teslim alınmadığını, konteynerlerin tahliye edilmediğini, konteynerlerin tahliye edilmemesi üzerine davacı taşıyan şirket çalışanı tarafı... Davacı vekili dava dilekçesinde özetle; Davalı tarafın taşıyan müvekkili ... A/Ş vasıtası ile ... numaralı konişmento tahtında ... numaralı 1 adet 40'lık REEFER tip konteyner muhteviyatı yükünü Hindistan'ın Cochin Limanından Gemlik Limanı' na denizyolu ile taşıttığını, bu taşımalarda davalı yanın ithalatçı ve taşımaya ilişkin konişmentoya göre yük alıcısı konumunda olduğunu, davalının ithalatçısı ve yük alıcısı olduğu ... numaralı konişmento tahtında taşınan 1 adet 40 'lık reefer konteynerin yükleme limanı olan Hindistan' in Cochin Limanı' nda 11.07.2017 tarihinde gemiye yüklendiğini ve 28.08.2017 tarihinde Gemlik ... Limanı' nda gemiden tahliye edildiğini, davalının ... numaralı konişmento tahtında taşman emtiaları tahliye limanı olan Gemlik Limanı' na ulaşmadan önce davalıya bir örneği delil listelerinde sunulan "..." yani "Varış İhbarnamesi" gönderildiği ve davalının yükünün 28.08.2017 tarihinde Gemlik Limanı' na ulaşacağının ihbar edildiğini, tahliye limanındaki konteyner muhtevi... 1
    Davacı vekili dava dilekçesinde özetle; Davacı ... A.Ş.'nin 1986 yılından beri Irak piyasasında iş yapan ve gerek iş ahlakı ve gerekse dürüstlüğüyle tanınan ve dolayısıyla Irak'ta yapılacak yeni bir iş olduğunda, ilk haberdar edilen bir firma olduğunu, 1989 yılında da İrak'a daimi ofisini açtığını, 2001 yılında ilgili bakanlığın davacı şirketten Saf Bakır Şerit talebinde bulunduğunu, davacının da bunu temin etmek için davalı şirketle ilişki kurduğunu, davalı şirketin Irak'ın talep ettiği spesifikasyonda mal üretecek araca sahip bulunmadığını beyan etmesi üzerine, davacı şirketin bu konuda da yardımcı olduğunu ve üretimi gerçekleştirecek makinelerin davalı tarafından teminine hem teknolojik bilgi ve hem de maddi katkıda bulunduğunu, böylelikle ilk olarak 2002 yılında, davalının ürettiği malların davacı şirket tarafından Irak'a pazarlandığını, bu arada Amerika Irak'ı istila edince, ilişkilerin bir süre askıda kaldığını ve nihayet 2006 yılında Irak Sanayi Bakanlığı'nın davacı şirketi yen... Haksız rekabete ilişkin
    bu Kısım hükümlerinin amacı, bütün katılanların menfaatine, dürüst ve bozulmamış
    rekabetin sağlanmasıdır.Rakipler arasında veya tedarik edenlerle müşteriler
    arasındaki ilişkileri etkileyen aldatıcı veya dürüstlük kuralına diğer şekillerdeki
    aykırı davranışlar ile ticari uygulamalar haksız ve hukuka aykırıdır.
    2
    Davacı vekili dava dilekçesinde özetle; Müvekkili şirketin perakende sektöründe ağırlıklı olarak elektronik cihazların satışı işiyle iştigal ettiğini ve tüketiciler tarafından çeşitli şikayetlerle kendisine teslim edilen ürünleri, teknik servis olarak faaliyet gösteren belirli şirketlere onarım için yönlendirdiğini, bu lojistik faaliyetlerin zaman zaman, kargo şirketi olarak faaliyet gösteren davalı taraf ile gerçekleştirildiğini, ... A.Ş.'nin, müvekkili şirketin ticari ilişkileri kapsamında belirli ürünlerini teslim ettiği bir yetkili teknik servis olarak faaliyet gösterdiğini ve belirli cihazları onarım için teslim aldıktan sonra yine müvekkili şirkete teslim ettiğini, bu operasyonların dış lojistik tarafının da ...'nin anlaşmalı olduğu kargo şirketi olan davalı taraf ile gerçekleştirildiğini, bu ticari ilişki sebebi ile yedi adet cep telefonun da onarım için ...’ne gönderildiğini ve ...’nde işleme tabi tutulan 7 adet telefonların gönderici sıfatı ile ... tarafından müvekkili şirket... Zarara, kasten veya
    pervasızca bir davranışla ve böyle bir zararın meydana gelmesi ihtimalinin bilinciyle
    işlenmiş bir fiilinin veya ihmalinin sebebiyet verdiği ispat edilen taşıyıcı veya
    879 uncu maddede belirtilen kişiler, bu Kısımda öngörülen sorumluluktan kurtulma
    hâllerinden ve sorumluluk sınırlamalarından yararlanamaz.
    2
  • Loss: SoftmaxLoss

stsb

  • Dataset: stsb at daeabfb
  • Size: 19,649 evaluation samples
  • Columns: sentence1, sentence2, and score
  • Approximate statistics based on the first 1000 samples:
    sentence1 sentence2 score
    type string string float
    details
    • min: 4 tokens
    • mean: 45.29 tokens
    • max: 304 tokens
    • min: 6 tokens
    • mean: 24.86 tokens
    • max: 92 tokens
    • min: 0.0
    • mean: 0.5
    • max: 1.0
  • Samples:
    sentence1 sentence2 score
    Yeni haklar yeterince güzel. Herkes gerçekten en yeni faydaları seviyor 0.5
    Bu site, tüm ödül kazananların bir listesini ve Hükümet Yönetici makalelerinin aranabilir bir veritabanını içerir. Web sitesinde yer alan Hükümet Yürütme makaleleri aranamaz. 0.0
    Bilemiyorum. Onunla ilgili karışık duygularım var. Bazen ondan hoşlanıyorum ama aynı zamanda birisinin onu dövmesini görmeyi seviyorum. Çoğunlukla ondan hoşlanıyorum, ama yine de birinin onu dövdüğünü görmekten zevk alıyorum. 1.0
  • Loss: CoSENTLoss with these parameters:
    {
        "scale": 20.0,
        "similarity_fct": "pairwise_cos_sim"
    }
    

x1saint

  • Dataset: x1saint at daeabfb
  • Size: 19,649 evaluation samples
  • Columns: sentence1, sentence2, and score
  • Approximate statistics based on the first 1000 samples:
    sentence1 sentence2 score
    type string string float
    details
    • min: 4 tokens
    • mean: 45.29 tokens
    • max: 304 tokens
    • min: 6 tokens
    • mean: 24.86 tokens
    • max: 92 tokens
    • min: 0.0
    • mean: 0.5
    • max: 1.0
  • Samples:
    sentence1 sentence2 score
    Yeni haklar yeterince güzel. Herkes gerçekten en yeni faydaları seviyor 0.5
    Bu site, tüm ödül kazananların bir listesini ve Hükümet Yönetici makalelerinin aranabilir bir veritabanını içerir. Web sitesinde yer alan Hükümet Yürütme makaleleri aranamaz. 0.0
    Bilemiyorum. Onunla ilgili karışık duygularım var. Bazen ondan hoşlanıyorum ama aynı zamanda birisinin onu dövmesini görmeyi seviyorum. Çoğunlukla ondan hoşlanıyorum, ama yine de birinin onu dövdüğünü görmekten zevk alıyorum. 1.0
  • Loss: CoSENTLoss with these parameters:
    {
        "scale": 20.0,
        "similarity_fct": "pairwise_cos_sim"
    }
    

Training Hyperparameters

Non-Default Hyperparameters

  • eval_strategy: steps
  • per_device_train_batch_size: 32
  • per_device_eval_batch_size: 32
  • learning_rate: 3e-05
  • num_train_epochs: 1
  • warmup_ratio: 0.1
  • fp16: True

All Hyperparameters

Click to expand
  • overwrite_output_dir: False
  • do_predict: False
  • eval_strategy: steps
  • prediction_loss_only: True
  • per_device_train_batch_size: 32
  • per_device_eval_batch_size: 32
  • per_gpu_train_batch_size: None
  • per_gpu_eval_batch_size: None
  • gradient_accumulation_steps: 1
  • eval_accumulation_steps: None
  • torch_empty_cache_steps: None
  • learning_rate: 3e-05
  • weight_decay: 0.0
  • adam_beta1: 0.9
  • adam_beta2: 0.999
  • adam_epsilon: 1e-08
  • max_grad_norm: 1.0
  • num_train_epochs: 1
  • max_steps: -1
  • lr_scheduler_type: linear
  • lr_scheduler_kwargs: {}
  • warmup_ratio: 0.1
  • warmup_steps: 0
  • log_level: passive
  • log_level_replica: warning
  • log_on_each_node: True
  • logging_nan_inf_filter: True
  • save_safetensors: True
  • save_on_each_node: False
  • save_only_model: False
  • restore_callback_states_from_checkpoint: False
  • no_cuda: False
  • use_cpu: False
  • use_mps_device: False
  • seed: 42
  • data_seed: None
  • jit_mode_eval: False
  • use_ipex: False
  • bf16: False
  • fp16: True
  • fp16_opt_level: O1
  • half_precision_backend: auto
  • bf16_full_eval: False
  • fp16_full_eval: False
  • tf32: None
  • local_rank: 0
  • ddp_backend: None
  • tpu_num_cores: None
  • tpu_metrics_debug: False
  • debug: []
  • dataloader_drop_last: False
  • dataloader_num_workers: 0
  • dataloader_prefetch_factor: None
  • past_index: -1
  • disable_tqdm: False
  • remove_unused_columns: True
  • label_names: None
  • load_best_model_at_end: False
  • ignore_data_skip: False
  • fsdp: []
  • fsdp_min_num_params: 0
  • fsdp_config: {'min_num_params': 0, 'xla': False, 'xla_fsdp_v2': False, 'xla_fsdp_grad_ckpt': False}
  • fsdp_transformer_layer_cls_to_wrap: None
  • accelerator_config: {'split_batches': False, 'dispatch_batches': None, 'even_batches': True, 'use_seedable_sampler': True, 'non_blocking': False, 'gradient_accumulation_kwargs': None}
  • deepspeed: None
  • label_smoothing_factor: 0.0
  • optim: adamw_torch
  • optim_args: None
  • adafactor: False
  • group_by_length: False
  • length_column_name: length
  • ddp_find_unused_parameters: None
  • ddp_bucket_cap_mb: None
  • ddp_broadcast_buffers: False
  • dataloader_pin_memory: True
  • dataloader_persistent_workers: False
  • skip_memory_metrics: True
  • use_legacy_prediction_loop: False
  • push_to_hub: False
  • resume_from_checkpoint: None
  • hub_model_id: None
  • hub_strategy: every_save
  • hub_private_repo: None
  • hub_always_push: False
  • gradient_checkpointing: False
  • gradient_checkpointing_kwargs: None
  • include_inputs_for_metrics: False
  • include_for_metrics: []
  • eval_do_concat_batches: True
  • fp16_backend: auto
  • push_to_hub_model_id: None
  • push_to_hub_organization: None
  • mp_parameters:
  • auto_find_batch_size: False
  • full_determinism: False
  • torchdynamo: None
  • ray_scope: last
  • ddp_timeout: 1800
  • torch_compile: False
  • torch_compile_backend: None
  • torch_compile_mode: None
  • dispatch_batches: None
  • split_batches: None
  • include_tokens_per_second: False
  • include_num_input_tokens_seen: False
  • neftune_noise_alpha: None
  • optim_target_modules: None
  • batch_eval_metrics: False
  • eval_on_start: False
  • use_liger_kernel: False
  • eval_use_gather_object: False
  • average_tokens_across_devices: False
  • prompts: None
  • batch_sampler: batch_sampler
  • multi_dataset_batch_sampler: proportional

Training Logs

Click to expand
Epoch Step Training Loss all-nli-pair-class loss stsb loss x1saint loss sts-dev_spearman_cosine
0.0023 100 4.3749 - - - -
0.0045 200 4.76 - - - -
0.0068 300 4.2538 - - - -
0.0090 400 4.4923 - - - -
0.0113 500 4.1932 - - - -
0.0136 600 3.9611 - - - -
0.0158 700 4.3205 - - - -
0.0181 800 3.8348 - - - -
0.0203 900 4.0064 - - - -
0.0226 1000 3.7759 0.4773 5.7036 5.7036 0.3677
0.0248 1100 4.4825 - - - -
0.0271 1200 3.8787 - - - -
0.0294 1300 4.3824 - - - -
0.0316 1400 3.6637 - - - -
0.0023 100 3.9737 - - - -
0.0045 200 4.4873 - - - -
0.0068 300 3.9185 - - - -
0.0090 400 4.203 - - - -
0.0113 500 3.9192 - - - -
0.0136 600 3.7101 - - - -
0.0158 700 4.1152 - - - -
0.0181 800 3.6203 - - - -
0.0203 900 3.7748 - - - -
0.0226 1000 3.5477 0.2013 - - 0.4225
0.0023 100 3.8999 - - - -
0.0045 200 4.3977 - - - -
0.0068 300 3.8512 - - - -
0.0090 400 4.138 - - - -
0.0113 500 3.8543 - - - -
0.0136 600 3.6343 - - - -
0.0158 700 4.0545 - - - -
0.0181 800 3.5393 - - - -
0.0203 900 3.6824 - - - -
0.0226 1000 3.4627 0.2154 5.7416 5.7416 0.4264
0.0248 1100 4.2947 - - - -
0.0271 1200 3.6721 - - - -
0.0294 1300 4.1705 - - - -
0.0316 1400 3.4515 - - - -
0.0339 1500 3.7523 - - - -
0.0361 1600 4.1805 - - - -
0.0384 1700 4.0934 - - - -
0.0407 1800 3.6446 - - - -
0.0429 1900 3.8004 - - - -
0.0452 2000 4.3957 0.2789 5.6342 5.6342 0.4488
0.0474 2100 4.1594 - - - -
0.0497 2200 3.9364 - - - -
0.0519 2300 4.3082 - - - -
0.0542 2400 3.8475 - - - -
0.0565 2500 3.7327 - - - -
0.0587 2600 3.5286 - - - -
0.0610 2700 4.0145 - - - -
0.0632 2800 4.005 - - - -
0.0655 2900 3.8837 - - - -
0.0678 3000 3.6622 0.1112 5.6098 5.6098 0.4631
0.0700 3100 4.0966 - - - -
0.0723 3200 4.2091 - - - -
0.0745 3300 3.8941 - - - -
0.0768 3400 3.8578 - - - -
0.0790 3500 3.9864 - - - -
0.0813 3600 3.9601 - - - -
0.0836 3700 3.8813 - - - -
0.0858 3800 3.8065 - - - -
0.0881 3900 3.0908 - - - -
0.0903 4000 3.6896 0.1677 5.6023 5.6023 0.4779
0.0926 4100 3.5872 - - - -
0.0949 4200 3.5307 - - - -
0.0971 4300 4.0193 - - - -
0.0994 4400 3.557 - - - -
0.1016 4500 3.7465 - - - -
0.1039 4600 3.5972 - - - -
0.1061 4700 3.6353 - - - -
0.1084 4800 3.842 - - - -
0.1107 4900 3.4591 - - - -
0.1129 5000 3.6074 0.0539 5.5996 5.5996 0.4929
0.1152 5100 3.2618 - - - -
0.1174 5200 4.3291 - - - -
0.1197 5300 3.4729 - - - -
0.1220 5400 4.0221 - - - -
0.1242 5500 3.9507 - - - -
0.1265 5600 3.2728 - - - -
0.1287 5700 3.9206 - - - -
0.1310 5800 3.8431 - - - -
0.1332 5900 3.3932 - - - -
0.1355 6000 3.5919 0.0501 5.5902 5.5902 0.5106
0.1378 6100 4.1132 - - - -
0.1400 6200 3.8904 - - - -
0.1423 6300 4.1905 - - - -
0.1445 6400 3.339 - - - -
0.1468 6500 3.2331 - - - -
0.1491 6600 3.9033 - - - -
0.1513 6700 3.2963 - - - -
0.1536 6800 3.9416 - - - -
0.1558 6900 4.0299 - - - -
0.1581 7000 3.5608 0.0475 5.5814 5.5814 0.5163
0.1603 7100 3.6291 - - - -
0.1626 7200 4.033 - - - -
0.1649 7300 3.6292 - - - -
0.1671 7400 4.1514 - - - -
0.1694 7500 3.7918 - - - -
0.1716 7600 3.5316 - - - -
0.1739 7700 3.6115 - - - -
0.1762 7800 3.8417 - - - -
0.1784 7900 4.0103 - - - -
0.1807 8000 3.8869 0.0682 5.5948 5.5948 0.5283
0.1829 8100 3.8652 - - - -
0.1852 8200 3.6192 - - - -
0.1874 8300 3.9045 - - - -
0.1897 8400 4.1254 - - - -
0.1920 8500 3.4542 - - - -
0.1942 8600 3.8745 - - - -
0.1965 8700 3.7478 - - - -
0.1987 8800 3.6552 - - - -
0.2010 8900 4.1187 - - - -
0.2033 9000 4.0657 0.0289 5.5604 5.5604 0.5303
0.2055 9100 3.7335 - - - -
0.2078 9200 3.458 - - - -
0.2100 9300 3.821 - - - -
0.2123 9400 3.1615 - - - -
0.2145 9500 3.6287 - - - -
0.2168 9600 4.0124 - - - -
0.2191 9700 3.7714 - - - -
0.2213 9800 4.164 - - - -
0.2236 9900 3.4134 - - - -
0.2258 10000 3.8162 0.0316 5.5513 5.5513 0.5331
0.2281 10100 3.6153 - - - -
0.2304 10200 3.4031 - - - -
0.2326 10300 3.794 - - - -
0.2349 10400 3.6483 - - - -
0.2371 10500 3.7333 - - - -
0.2394 10600 3.506 - - - -
0.2416 10700 3.6758 - - - -
0.2439 10800 3.3923 - - - -
0.2462 10900 3.8218 - - - -
0.2484 11000 3.8402 0.0339 5.5186 5.5186 0.5464
0.2507 11100 3.7221 - - - -
0.2529 11200 3.1673 - - - -
0.2552 11300 3.9649 - - - -
0.2575 11400 3.7229 - - - -
0.2597 11500 3.6901 - - - -
0.2620 11600 3.4264 - - - -
0.2642 11700 3.4681 - - - -
0.2665 11800 3.5792 - - - -
0.2688 11900 3.6562 - - - -
0.2710 12000 3.6809 0.0414 5.5115 5.5115 0.5511
0.2733 12100 3.5708 - - - -
0.2755 12200 3.6985 - - - -
0.2778 12300 3.4391 - - - -
0.2800 12400 4.0379 - - - -
0.2823 12500 3.618 - - - -
0.2846 12600 3.9397 - - - -
0.2868 12700 3.7655 - - - -
0.2891 12800 3.5723 - - - -
0.2913 12900 3.7024 - - - -
0.2936 13000 3.497 0.0279 5.5226 5.5226 0.5577
0.2959 13100 3.6788 - - - -
0.2981 13200 3.6594 - - - -
0.3004 13300 3.3224 - - - -
0.3026 13400 3.2596 - - - -
0.3049 13500 3.9469 - - - -
0.3071 13600 3.5739 - - - -
0.3094 13700 3.9297 - - - -
0.3117 13800 3.6462 - - - -
0.3139 13900 3.7406 - - - -
0.3162 14000 3.55 0.0279 5.5506 5.5506 0.5596
0.3184 14100 3.8056 - - - -
0.3207 14200 3.4321 - - - -
0.3230 14300 3.7573 - - - -
0.3252 14400 3.4281 - - - -
0.3275 14500 3.2205 - - - -
0.3297 14600 3.954 - - - -
0.3320 14700 3.6929 - - - -
0.3342 14800 3.5323 - - - -
0.3365 14900 3.7992 - - - -
0.3388 15000 3.7498 0.0235 5.5386 5.5386 0.5588
0.3410 15100 3.8638 - - - -
0.3433 15200 3.6159 - - - -
0.3455 15300 4.0863 - - - -
0.3478 15400 3.7445 - - - -
0.3501 15500 3.2611 - - - -
0.3523 15600 3.5213 - - - -
0.3546 15700 3.6468 - - - -
0.3568 15800 3.4205 - - - -
0.3591 15900 3.4186 - - - -
0.3613 16000 3.7392 0.0235 5.5018 5.5018 0.5659
0.3636 16100 3.5034 - - - -
0.3659 16200 3.6416 - - - -
0.3681 16300 3.6289 - - - -
0.3704 16400 3.3886 - - - -
0.3726 16500 3.3559 - - - -
0.3749 16600 3.6254 - - - -
0.3772 16700 3.7888 - - - -
0.3794 16800 3.529 - - - -
0.3817 16900 3.5402 - - - -
0.3839 17000 3.5766 0.0229 5.5058 5.5058 0.5705
0.3862 17100 3.9604 - - - -
0.3884 17200 4.1171 - - - -
0.3907 17300 3.8176 - - - -
0.3930 17400 3.8114 - - - -
0.3952 17500 3.679 - - - -
0.3975 17600 3.8225 - - - -
0.3997 17700 3.958 - - - -
0.4020 17800 3.8287 - - - -
0.4043 17900 3.844 - - - -
0.4065 18000 3.3024 0.0195 5.5018 5.5018 0.5721
0.4088 18100 3.5343 - - - -
0.4110 18200 3.5228 - - - -
0.4133 18300 3.5157 - - - -
0.4155 18400 4.0858 - - - -
0.4178 18500 4.0575 - - - -
0.4201 18600 3.7979 - - - -
0.4223 18700 3.6193 - - - -
0.4246 18800 3.2617 - - - -
0.4268 18900 3.6345 - - - -
0.4291 19000 3.4886 0.0188 5.4996 5.4996 0.5746
0.4314 19100 3.7407 - - - -
0.4336 19200 3.7918 - - - -
0.4359 19300 3.3896 - - - -
0.4381 19400 3.9201 - - - -
0.4404 19500 3.9092 - - - -
0.4426 19600 4.1496 - - - -
0.4449 19700 3.5107 - - - -
0.4472 19800 3.5502 - - - -
0.4494 19900 3.6301 - - - -
0.4517 20000 4.0469 0.0202 5.5064 5.5064 0.5793
0.4539 20100 3.5731 - - - -
0.4562 20200 3.4592 - - - -
0.4585 20300 3.5693 - - - -
0.4607 20400 3.8665 - - - -
0.4630 20500 3.6215 - - - -
0.4652 20600 3.6482 - - - -
0.4675 20700 3.2482 - - - -
0.4697 20800 3.4013 - - - -
0.4720 20900 3.5843 - - - -
0.4743 21000 3.8119 0.0184 5.4676 5.4676 0.5815
0.4765 21100 3.082 - - - -
0.4788 21200 3.8926 - - - -
0.4810 21300 3.8747 - - - -
0.4833 21400 3.2606 - - - -
0.4856 21500 3.9525 - - - -
0.4878 21600 3.3414 - - - -
0.4901 21700 3.4903 - - - -
0.4923 21800 3.8682 - - - -
0.4946 21900 3.5548 - - - -
0.4968 22000 3.3547 0.0183 5.4676 5.4676 0.5846
0.4991 22100 3.3427 - - - -
0.5014 22200 3.3908 - - - -
0.5036 22300 3.7194 - - - -
0.5059 22400 3.4009 - - - -
0.5081 22500 3.8852 - - - -
0.5104 22600 3.8905 - - - -
0.5127 22700 3.7329 - - - -
0.5149 22800 3.8292 - - - -
0.5172 22900 3.6989 - - - -
0.5194 23000 3.5586 0.0169 5.4780 5.4780 0.5866
0.5217 23100 3.5845 - - - -
0.5240 23200 3.5038 - - - -
0.5262 23300 3.3299 - - - -
0.5285 23400 3.9306 - - - -
0.5307 23500 3.3543 - - - -
0.5330 23600 3.4382 - - - -
0.5352 23700 3.1923 - - - -
0.5375 23800 3.2672 - - - -
0.5398 23900 3.7903 - - - -
0.5420 24000 3.7793 0.0168 5.4736 5.4736 0.5901
0.5443 24100 3.0081 - - - -
0.5465 24200 3.8466 - - - -
0.5488 24300 3.3694 - - - -
0.5511 24400 3.9378 - - - -
0.5533 24500 3.9781 - - - -
0.5556 24600 3.6762 - - - -
0.5578 24700 3.6454 - - - -
0.5601 24800 3.8105 - - - -
0.5623 24900 3.2965 - - - -
0.5646 25000 3.6106 0.0168 5.4638 5.4638 0.5916
0.5669 25100 3.6949 - - - -
0.5691 25200 3.6324 - - - -
0.5714 25300 3.8526 - - - -
0.5736 25400 3.4002 - - - -
0.5759 25500 3.565 - - - -
0.5782 25600 3.6456 - - - -
0.5804 25700 3.8771 - - - -
0.5827 25800 3.3512 - - - -
0.5849 25900 3.7936 - - - -
0.5872 26000 3.1563 0.0163 5.4785 5.4785 0.5929
0.5894 26100 3.1803 - - - -
0.5917 26200 3.4579 - - - -
0.5940 26300 3.6681 - - - -
0.5962 26400 3.6912 - - - -
0.5985 26500 3.6039 - - - -
0.6007 26600 3.6128 - - - -
0.6030 26700 3.3208 - - - -
0.6053 26800 4.1783 - - - -
0.6075 26900 4.2153 - - - -
0.6098 27000 3.3415 0.0166 5.4876 5.4876 0.5962
0.6120 27100 3.7623 - - - -
0.6143 27200 3.3915 - - - -
0.6165 27300 3.1315 - - - -
0.6188 27400 3.5027 - - - -
0.6211 27500 3.2775 - - - -
0.6233 27600 3.6244 - - - -
0.6256 27700 3.1073 - - - -
0.6278 27800 3.5609 - - - -
0.6301 27900 3.8369 - - - -
0.6324 28000 4.11 0.0155 5.4482 5.4482 0.5983
0.6346 28100 3.5878 - - - -
0.6369 28200 3.3487 - - - -
0.6391 28300 3.4827 - - - -
0.6414 28400 3.5754 - - - -
0.6436 28500 3.4478 - - - -
0.6459 28600 3.6112 - - - -
0.6482 28700 3.2634 - - - -
0.6504 28800 3.9245 - - - -
0.6527 28900 3.6137 - - - -
0.6549 29000 3.541 0.0148 5.4707 5.4707 0.5977
0.6572 29100 3.7576 - - - -
0.6595 29200 3.5489 - - - -
0.6617 29300 3.4978 - - - -
0.6640 29400 3.933 - - - -
0.6662 29500 3.9405 - - - -
0.6685 29600 3.5865 - - - -
0.6707 29700 3.807 - - - -
0.6730 29800 3.3112 - - - -
0.6753 29900 3.4445 - - - -
0.6775 30000 3.3916 0.0174 5.4581 5.4581 0.5993
0.6798 30100 3.3242 - - - -
0.6820 30200 3.8325 - - - -
0.6843 30300 3.671 - - - -
0.6866 30400 3.7121 - - - -
0.6888 30500 3.6981 - - - -
0.6911 30600 3.2194 - - - -
0.6933 30700 3.11 - - - -
0.6956 30800 3.6456 - - - -
0.6978 30900 3.4904 - - - -
0.7001 31000 3.927 0.0157 5.4472 5.4472 0.6025
0.7024 31100 3.7856 - - - -
0.7046 31200 3.9512 - - - -
0.7069 31300 3.3216 - - - -
0.7091 31400 3.8025 - - - -
0.7114 31500 3.5322 - - - -
0.7137 31600 3.9956 - - - -
0.7159 31700 3.3796 - - - -
0.7182 31800 3.4694 - - - -
0.7204 31900 3.671 - - - -
0.7227 32000 3.6436 0.0147 5.4459 5.4459 0.6044
0.7249 32100 3.583 - - - -
0.7272 32200 3.484 - - - -
0.7295 32300 3.6294 - - - -
0.7317 32400 4.1796 - - - -
0.7340 32500 3.9783 - - - -
0.7362 32600 3.6819 - - - -
0.7385 32700 4.196 - - - -
0.7408 32800 3.9306 - - - -
0.7430 32900 3.3167 - - - -
0.7453 33000 3.4318 0.0138 5.4404 5.4404 0.6076
0.7475 33100 3.5839 - - - -
0.7498 33200 3.6364 - - - -
0.7520 33300 3.1098 - - - -
0.7543 33400 3.7164 - - - -
0.7566 33500 3.1722 - - - -
0.7588 33600 3.7332 - - - -
0.7611 33700 3.6525 - - - -
0.7633 33800 3.7544 - - - -
0.7656 33900 4.0123 - - - -
0.7679 34000 3.2247 0.0140 5.4297 5.4297 0.6073
0.7701 34100 3.6461 - - - -
0.7724 34200 3.2912 - - - -
0.7746 34300 4.0886 - - - -
0.7769 34400 3.4823 - - - -
0.7792 34500 3.5664 - - - -
0.7814 34600 3.7567 - - - -
0.7837 34700 3.2525 - - - -
0.7859 34800 3.7871 - - - -
0.7882 34900 3.733 - - - -
0.7904 35000 3.5468 0.0139 5.4431 5.4431 0.6054
0.7927 35100 3.8567 - - - -
0.7950 35200 3.7431 - - - -
0.7972 35300 3.5763 - - - -
0.7995 35400 3.8258 - - - -
0.8017 35500 4.1367 - - - -
0.8040 35600 3.8723 - - - -
0.8063 35700 3.4543 - - - -
0.8085 35800 3.2662 - - - -
0.8108 35900 3.3156 - - - -
0.8130 36000 3.8996 0.0138 5.4468 5.4468 0.6083
0.8153 36100 3.7744 - - - -
0.8175 36200 3.4629 - - - -
0.8198 36300 4.0865 - - - -
0.8221 36400 3.8276 - - - -
0.8243 36500 4.3061 - - - -
0.8266 36600 3.999 - - - -
0.8288 36700 3.3845 - - - -
0.8311 36800 3.4213 - - - -
0.8334 36900 3.185 - - - -
0.8356 37000 3.6957 0.0130 5.4700 5.4700 0.6077
0.8379 37100 3.6489 - - - -
0.8401 37200 3.7567 - - - -
0.8424 37300 3.0847 - - - -
0.8446 37400 3.4128 - - - -
0.8469 37500 3.7326 - - - -
0.8492 37600 3.1498 - - - -
0.8514 37700 3.6616 - - - -
0.8537 37800 3.8503 - - - -
0.8559 37900 3.5325 - - - -
0.8582 38000 3.1548 0.0140 5.4489 5.4489 0.6106
0.8605 38100 3.4128 - - - -
0.8627 38200 3.2097 - - - -
0.8650 38300 3.301 - - - -
0.8672 38400 3.5583 - - - -
0.8695 38500 4.0891 - - - -
0.8717 38600 3.4978 - - - -
0.8740 38700 3.68 - - - -
0.8763 38800 3.8179 - - - -
0.8785 38900 3.4059 - - - -
0.8808 39000 2.9934 0.0139 5.4248 5.4248 0.6116
0.8830 39100 3.7599 - - - -
0.8853 39200 3.9118 - - - -
0.8876 39300 3.6133 - - - -
0.8898 39400 3.6415 - - - -
0.8921 39500 3.3724 - - - -
0.8943 39600 3.5335 - - - -
0.8966 39700 3.2536 - - - -
0.8988 39800 3.7967 - - - -
0.9011 39900 3.478 - - - -
0.9034 40000 3.8147 0.0135 5.4287 5.4287 0.6133
0.9056 40100 3.9183 - - - -
0.9079 40200 3.4881 - - - -
0.9101 40300 3.8562 - - - -
0.9124 40400 3.713 - - - -
0.9147 40500 3.1428 - - - -
0.9169 40600 3.5614 - - - -
0.9192 40700 3.8138 - - - -
0.9214 40800 4.095 - - - -
0.9237 40900 3.7167 - - - -
0.9259 41000 3.6093 0.0129 5.4306 5.4306 0.6140
0.9282 41100 3.5586 - - - -
0.9305 41200 3.7149 - - - -
0.9327 41300 3.4179 - - - -
0.9350 41400 3.6021 - - - -
0.9372 41500 3.7742 - - - -
0.9395 41600 3.5916 - - - -
0.9418 41700 3.5955 - - - -
0.9440 41800 3.774 - - - -
0.9463 41900 3.1536 - - - -
0.9485 42000 3.7355 0.0126 5.4282 5.4282 0.6147
0.9508 42100 3.7409 - - - -
0.9530 42200 3.7755 - - - -
0.9553 42300 3.8308 - - - -
0.9576 42400 3.614 - - - -
0.9598 42500 3.569 - - - -
0.9621 42600 3.8802 - - - -
0.9643 42700 4.0452 - - - -
0.9666 42800 3.6673 - - - -
0.9689 42900 3.4478 - - - -
0.9711 43000 3.2422 0.0129 5.4306 5.4306 0.6147
0.9734 43100 3.785 - - - -
0.9756 43200 3.9302 - - - -
0.9779 43300 3.9351 - - - -
0.9801 43400 3.6119 - - - -
0.9824 43500 3.5131 - - - -
0.9847 43600 3.6468 - - - -
0.9869 43700 3.4787 - - - -
0.9892 43800 3.7133 - - - -
0.9914 43900 3.6943 - - - -
0.9937 44000 3.6415 0.0129 5.4266 5.4266 0.6151
0.9960 44100 3.7864 - - - -
0.9982 44200 3.9463 - - - -

Framework Versions

  • Python: 3.11.11
  • Sentence Transformers: 3.4.0
  • Transformers: 4.47.1
  • PyTorch: 2.5.1+cu121
  • Accelerate: 1.2.1
  • Datasets: 3.2.0
  • Tokenizers: 0.21.0

Citation

BibTeX

Sentence Transformers and SoftmaxLoss

@inproceedings{reimers-2019-sentence-bert,
    title = "Sentence-BERT: Sentence Embeddings using Siamese BERT-Networks",
    author = "Reimers, Nils and Gurevych, Iryna",
    booktitle = "Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing",
    month = "11",
    year = "2019",
    publisher = "Association for Computational Linguistics",
    url = "https://arxiv.org/abs/1908.10084",
}

CoSENTLoss

@online{kexuefm-8847,
    title={CoSENT: A more efficient sentence vector scheme than Sentence-BERT},
    author={Su Jianlin},
    year={2022},
    month={Jan},
    url={https://kexue.fm/archives/8847},
}
Downloads last month
23
Safetensors
Model size
33.4M params
Tensor type
F32
·
Inference Providers NEW
This model is not currently available via any of the supported Inference Providers.

Model tree for x1saint/gte-small-tr-v2

Base model

Supabase/gte-small
Finetuned
(5)
this model

Datasets used to train x1saint/gte-small-tr-v2

Evaluation results