hatemestinbejaia's picture
Add new SentenceTransformer model
917de00 verified
metadata
tags:
  - sentence-transformers
  - sentence-similarity
  - feature-extraction
  - generated_from_trainer
  - dataset_size:15000000
  - loss:MarginMSELoss
base_model: sentence-transformers/paraphrase-multilingual-MiniLM-L12-v2
widget:
  - source_sentence: من هو زوج صوفيا فيرغارا
    sentences:
      - >-
        عرض كل الصور ( 52 ) صوفيا فيرجارا متزوجة حاليا من جو مانجانييلو . لقد
        كانت في تسع علاقات مع المشاهير بمتوسط حوالي 3 . 1 سنوات لكل منها . كان
        متوسط زواجها 2 . 2 سنة لكل منهما . الاسم المعطى : صوفيا مارجريتا فيرجارا
        .
      - >-
        ما الذي ترمز إليه السلطة الفلسطينية في Lawyer Name PA ؟ وباستخدام هذه
        الطريقة ، فإن PA تعني النقابة المهنية . السلطة الفلسطينية هي شركة مكونة
        من محترفين مثل المحامين وأطباء الأسنان والأطباء .
      - >-
        تشير معاني DH DH عموما إلى الزوج العزيز أو الزوج الحبيب . عادة ، هذا شكل
        من أشكال المودة المكتوبة التي تستخدمها الزوجات على الإنترنت عند الإشارة
        إلى أزواجهن .
  - source_sentence: أين الفيفا
    sentences:
      - >-
        هل تخطط لزيارة روسيا لحضور كأس القارات 2017 FIFA أو كأس العالم FIFA 2018
        ؟ [رابط] هي البوابة السياحية للحكومة الروسية وتزود المشجعين الذين
        يسافرون إلى روسيا بمعلومات مفيدة عن الدولة المضيفة لكأس العالم FIFA
        المقبلة .
      - >-
        1 أصغر لاعب أرجنتيني سجل في نهائيات كأس العالم FIFA : عمره 18 عاما و 357
        يوما في عام 2006 ضد صربيا والجبل الأسود . 2 أصغر لاعب بلغ 100 مباراة
        دولية في تاريخ الكونميبول ( 27 عاما ، 361 يوما ) .
      - >-
        Hotels Near Creation Museum مزيد من المعلومات . . يقع مقر متحف Creation
        في مدينة بطرسبورغ بولاية كنتاكي . من خلال الأموال الخاصة لبناء المتحف ،
        بدأ Young Earth Creationists ( YEC ) المتحف في عام 2011 . مفتوح للجمهور
        ، تم إنشاء متحف Creation لتعزيز وتثقيف الزوار حول نظرية الخلق التي تشرح
        أصل الأرض . الخلق كما يرويه التفسير الحرفي لسفر التكوين التوراتي .
  - source_sentence: ما هي صمامات الفراشة المستخدمة
    sentences:
      - >-
        سوف يتصل بك المختبر قائلا إن الأنبوب لم يكن ممتلئا وستتساءل عن السبب .
        تختلف إبر الفراشة لجمع الدم عن إبر الفراشة للوريد في أنها تحتوي على إبرة
        مغطاة بالغمد في النهاية حتى تتمكن من إرفاقها بحامل الفراغ وثقب الأنابيب
        .
      - >-
        1 قم دائما بشحن جهازك قبل مغادرة المنزل ، خاصة في الرحلات الطويلة . 2
        أحضر الشاحن معك إذا كنت ستغادر طوال الليل أو لفترة طويلة . 3 بينما من
        المقرر أن تدوم بطارية iPad حتى 10 ساعات ، فإن الاستخدام المتكرر سيقصر
        هذا الوقت بشكل كبير . كيفية إطالة عمر بطارية جهاز iPad . تماما كما هو
        الحال مع iPhone أو iPod Touch ، سيكون عمر بطارية iPad أقصر أثناء
        الاستخدام الكثيف . ومع ذلك ، هناك بعض الإجراءات التي يمكنك اتخاذها
        للحفاظ على جهازك قيد التشغيل ونشطا لساعات من الاستمتاع ، وتوضح هذه
        المقالة ما يمكنك القيام به لإطالة عمر البطارية .
      - >-
        صمامات AWWA الفراشة عبارة عن صمامات سريعة الفتح تتكون من قرص دائري معدني
        أو ريشة مع محاورها المحورية بزوايا قائمة لاتجاه التدفق في الأنبوب ،
        والتي عند تدويرها على عمود ، تسد المقاعد في جسم الصمام . تستخدم عادة
        كصمامات خنق للتحكم في التدفق .
  - source_sentence: ما هو طلاء تمبرا
    sentences:
      - >-
        يحفظ . غالبا ما يشار إليه باسم طلاء الملصقات ، وهو عبارة عن صبغة مائية
        ممزوجة بعامل ربط كيميائي . يستخدم على نطاق واسع لمشاريع الأطفال والحرف
        اليدوية بسبب مرونته وألوانه الزاهية وسهولة استخدامه . يتوفر طلاء تمبرا
        أيضا في مسحوق ، والذي يصبح جاهزا للطلاء عند مزجه بالماء .
      - >-
        يتم تحديث ألوان الطلاء الأكثر مبيعا لدينا يوميا لمنحك أحدث اتجاهات ألوان
        الطلاء . تحقق من ألوان الطلاء الأكثر شيوعا لدينا وابحث عن اللون المناسب
        لك . يتم تحديث ألوان الطلاء الأكثر مبيعا لدينا يوميا لمنحك أحدث اتجاهات
        ألوان الطلاء . تحقق من ألوان الطلاء الأكثر شيوعا لدينا وابحث عن اللون
        المناسب لك .
      - >-
        لغة إجرائية . تم التحديث : 04 - 26 - 2017 بواسطة . اللغة الإجرائية هي
        لغة برمجة كمبيوتر تتبع بالترتيب مجموعة من الأوامر . من أمثلة اللغات
        الإجرائية للكمبيوتر BASIC و C و FORTRAN و Pascal . شروط البرمجة
  - source_sentence: تحديد المسح
    sentences:
      - >-
        المسح أو مسح الأراضي هو تقنية ومهنة وعلم تحديد المواقع الأرضية أو ثلاثية
        الأبعاد للنقاط والمسافات والزوايا بينها . يطلق على أخصائي مسح الأراضي
        اسم مساح الأراضي .
      - >-
        جمعية إعادة تأهيل العظام ( ORA ) هي فريق من المتخصصين في العلاج الطبيعي
        في كولورادو سبرينغز . سيساعدك هؤلاء المتخصصون في التغلب على القيود
        الجسدية لمساعدتك على العودة إلى أعلى مستوى ممكن من الوظائف .
      - >-
        إجمالي المحطات . تعد المحطات الإجمالية واحدة من أكثر أدوات المسح شيوعا
        المستخدمة اليوم . وهي تتألف من جهاز ثيودوليت إلكتروني ومكون إلكتروني
        لقياس المسافة ( EDM ) . تتوفر أيضا محطات روبوتية كاملة تتيح التشغيل لشخص
        واحد من خلال التحكم في الجهاز باستخدام جهاز التحكم عن بعد . تاريخ
datasets:
  - hatemestinbejaia/ExperimentDATA_knowledge_distillation_vs_fine_tuning
pipeline_tag: sentence-similarity
library_name: sentence-transformers
metrics:
  - map
  - mrr@10
  - ndcg@10
model-index:
  - name: >-
      SentenceTransformer based on
      sentence-transformers/paraphrase-multilingual-MiniLM-L12-v2
    results:
      - task:
          type: reranking
          name: Reranking
        dataset:
          name: Unknown
          type: unknown
        metrics:
          - type: map
            value: 0.6062031272546088
            name: Map
          - type: mrr@10
            value: 0.6074510582010582
            name: Mrr@10
          - type: ndcg@10
            value: 0.6701496965039545
            name: Ndcg@10

SentenceTransformer based on sentence-transformers/paraphrase-multilingual-MiniLM-L12-v2

This is a sentence-transformers model finetuned from sentence-transformers/paraphrase-multilingual-MiniLM-L12-v2 on the experiment_data_knowledge_distillation_vs_fine_tuning dataset. It maps sentences & paragraphs to a 384-dimensional dense vector space and can be used for semantic textual similarity, semantic search, paraphrase mining, text classification, clustering, and more.

Model Details

Model Description

Model Sources

Full Model Architecture

SentenceTransformer(
  (0): Transformer({'max_seq_length': 128, 'do_lower_case': False}) with Transformer model: BertModel 
  (1): Pooling({'word_embedding_dimension': 384, 'pooling_mode_cls_token': False, 'pooling_mode_mean_tokens': True, 'pooling_mode_max_tokens': False, 'pooling_mode_mean_sqrt_len_tokens': False, 'pooling_mode_weightedmean_tokens': False, 'pooling_mode_lasttoken': False, 'include_prompt': True})
)

Usage

Direct Usage (Sentence Transformers)

First install the Sentence Transformers library:

pip install -U sentence-transformers

Then you can load this model and run inference.

from sentence_transformers import SentenceTransformer

# Download from the 🤗 Hub
model = SentenceTransformer("hatemestinbejaia/mMiniLML-bi-encoder-KD-v1-Student_TripletLoss-Teacher_marginloss-adptativeMargin007")
# Run inference
sentences = [
    'تحديد المسح',
    'المسح أو مسح الأراضي هو تقنية ومهنة وعلم تحديد المواقع الأرضية أو ثلاثية الأبعاد للنقاط والمسافات والزوايا بينها . يطلق على أخصائي مسح الأراضي اسم مساح الأراضي .',
    'إجمالي المحطات . تعد المحطات الإجمالية واحدة من أكثر أدوات المسح شيوعا المستخدمة اليوم . وهي تتألف من جهاز ثيودوليت إلكتروني ومكون إلكتروني لقياس المسافة ( EDM ) . تتوفر أيضا محطات روبوتية كاملة تتيح التشغيل لشخص واحد من خلال التحكم في الجهاز باستخدام جهاز التحكم عن بعد . تاريخ',
]
embeddings = model.encode(sentences)
print(embeddings.shape)
# [3, 384]

# Get the similarity scores for the embeddings
similarities = model.similarity(embeddings, embeddings)
print(similarities.shape)
# [3, 3]

Evaluation

Metrics

Reranking

Metric Value
map 0.6062
mrr@10 0.6075
ndcg@10 0.6701

Training Details

Training Dataset

experiment_data_knowledge_distillation_vs_fine_tuning

  • Dataset: experiment_data_knowledge_distillation_vs_fine_tuning at d88463c
  • Size: 15,000,000 training samples
  • Columns: query, pos, neg, and label
  • Approximate statistics based on the first 1000 samples:
    query pos neg label
    type string string string float
    details
    • min: 4 tokens
    • mean: 11.14 tokens
    • max: 29 tokens
    • min: 13 tokens
    • mean: 93.26 tokens
    • max: 128 tokens
    • min: 17 tokens
    • mean: 87.26 tokens
    • max: 128 tokens
    • min: -2.88
    • mean: 12.91
    • max: 21.92
  • Samples:
    query pos neg label
    القليل من الكافيين جيد أثناء الحمل نحن لا نعرف الكثير عن تأثيرات الكافيين أثناء الحمل عليك وعلى طفلك . لذلك فمن الأفضل أن تحد من المبلغ الذي تحصل عليه كل يوم . إذا كنت حاملا ، قللي من تناول الكافيين إلى 200 ملليجرام يوميا . هذا هو الكمية الموجودة في فنجان واحد سعة 8 أونصات من القهوة أو فنجان قهوة سعة 12 أونصة . من الآمن عموما أن تتناول النساء الحوامل الشوكولاتة لأن الدراسات أثبتت وجود فوائد معينة لتناول الشوكولاتة أثناء الحمل . ومع ذلك ، يجب على النساء الحوامل التأكد من أن تناول الكافيين أقل من 200 مجم في اليوم . 4.0280589908361435
    ما هي الفاكهة الأصلية في أستراليا Passiflora herbertiana . فاكهة العاطفة النادرة موطنها أستراليا . الثمار ذات قشرة خضراء ، بيضاء اللون ، مع تصنيف غير معروف للأكل . تسرد بعض المصادر الفاكهة على أنها صالحة للأكل وحلوة ولذيذة ، بينما يسرد البعض الآخر الفاكهة على أنها مرة وغير صالحة للأكل . فاكهة العاطفة النادرة موطنها أستراليا . الثمار ذات قشرة خضراء ، بيضاء اللون ، مع تصنيف غير معروف للأكل . تسرد بعض المصادر الفاكهة على أنها صالحة للأكل وحلوة ولذيذة ، بينما يسرد البعض الآخر الفواكه على أنها مرة وغير صالحة للأكل . جوز الكولا هو ثمرة شجرة الكولا ، وهي جنس ( كولا ) من الأشجار التي تنتمي إلى الغابات الاستوائية المطيرة في إفريقيا . 10.18145449956258
    ما هو حجم الجيش الكندي القوات المسلحة الكندية . 1 بدأت أول مهمة حفظ سلام كندية واسعة النطاق في مصر في 24 نوفمبر 1956 . 2 هناك ما يقرب من 65000 من القوات النظامية و 25000 من أفراد الاحتياط في الجيش الكندي . 3 في كندا ، تم تحديد يوم 9 أغسطس كيوم حفظة السلام الوطنيين . المعهد الكندي لصحة الأطباء ( CPHI ) هو برنامج وطني تم إنشاؤه في عام 2012 كتعاون بين الجمعية الطبية الكندية ( CMA ) والمؤسسة الطبية الكندية ( CMF ) والجمعيات الطبية الإقليمية والإقليمية ( PTMAs ) . 16.420575777689614
  • Loss: main.MarginMSELoss

Evaluation Dataset

experiment_data_knowledge_distillation_vs_fine_tuning

  • Dataset: experiment_data_knowledge_distillation_vs_fine_tuning at d88463c
  • Size: 10,000 evaluation samples
  • Columns: query, pos, neg, and label
  • Approximate statistics based on the first 1000 samples:
    query pos neg label
    type string string string float
    details
    • min: 3 tokens
    • mean: 10.94 tokens
    • max: 33 tokens
    • min: 23 tokens
    • mean: 91.74 tokens
    • max: 128 tokens
    • min: 24 tokens
    • mean: 87.33 tokens
    • max: 128 tokens
    • min: -0.75
    • mean: 13.72
    • max: 22.62
  • Samples:
    query pos neg label
    ما هو اسم د . كوين اعرض الشخصيات المختلفة التي لعبها نفس الممثل . الدكتورة ميكايلا كوين . ولدت ميكايلا في 15 فبراير 1833 في بوسطن ، ماساتشوستس ، لأبوين جوزيف وإليزابيث كوين . هناك نشأت مع شقيقاتها الأربع : ماري ( التي تم تغيير اسمها إلى ريبيكا ) ، ومارجوري ، وكلوديت ، ومورين . كان والدها يريد ابنا ، لذلك عندما ولدت أطلق عليها اسم ميكايلا ( الملقب مايك ) . ليس لدى د . ماكفارلاند أي تأمينات مدرجة . إذا كنت دكتور ماكفارلاند وترغب في إضافة تأمينات تقبلها ، يرجى تحديث ملفك التعريفي المجاني . الانتساب إلى المستشفى ينتمي د . ماكفارلاند إلى المستشفيات التالية . 15.524045944213867
    من يلعب دور بيرني مادوف ساحر الأكاذيب هو واحد من اثنين من مشاريع Madoff التلفزيونية قيد الإعداد . ABC لديها مسلسل قصير قادم يسمى مادوف ، من بطولة ريتشارد دريفوس وبليث دانر . قصص ذات الصلة . روبرت دي نيرو يسجل الدخول للعب بيرني مادوف في فيلم HBO المحتمل . اتهمت السلطات الأمريكية مسؤول تنفيذي للمحاسبة يزعم أنه ساعد برنارد مادوف في مخطط بونزي الذي تبلغ تكلفته عدة مليارات من الدولارات ، والذي يوسع نطاق تحقيقه في الاحتيال بعد خمس سنوات من اكتشافه . 13.17703644434611
    كم قدم مكعب في طن من حصى البازلاء لذلك 1 طن لديه 2000 - 100 أو 20 قدم مكعب من الحصى . الفناء المكعب هو 3x3x3 = 27 قدما مكعبا من الفناء المكعب ، الإجابة 20 - 27 أو 0 . 74 ياردة مكعبة . العوامل الأخرى التي تؤثر على حجم الحصى هي محتوى الرطوبة ودرجات المواد . يحتوي حصى البازلاء على سبيل المثال على جميع الجزيئات ذات الحجم المحدد ، على سبيل المثال ، 1 - 4 بوصة ، حوالي 120 رطلا للإشارة فقط : 1 قدم مكعب = 6 . 25 جالون ( إمبراطوري ) ، جالون من الماء يزن 10 أرطال ، لذا فإن القدم المكعبة من الماء تزن 62 . 5 رطلا . هذا يعني أن الجاذبية النوعية للحصى هي 120 - 62 . 5 ، أو أقل قليلا من 2 . 1 كيس قدم مكعب واحد ( التربة والمهاد ) يغطي ما يقرب من 8 أقدام مربعة إلى عمق 3 . 2 كيس واحد 75 رطلا ( الحصى والرمل ) يغطي حوالي 4 أقدام مربعة إلى عمق 3 . 3 بوصات سميكة ستغطي حوالي 300 قدم مربع . سيغطي سمك 1 حوالي 150 قدما مربعا . 10.34702980518341
  • Loss: main.MarginMSELoss

Training Hyperparameters

Non-Default Hyperparameters

  • eval_strategy: steps
  • per_device_train_batch_size: 128
  • learning_rate: 2e-05
  • num_train_epochs: 1
  • warmup_ratio: 0.1
  • fp16: True
  • half_precision_backend: amp
  • remove_unused_columns: False
  • load_best_model_at_end: True
  • fp16_backend: amp

All Hyperparameters

Click to expand
  • overwrite_output_dir: False
  • do_predict: False
  • eval_strategy: steps
  • prediction_loss_only: True
  • per_device_train_batch_size: 128
  • per_device_eval_batch_size: 8
  • per_gpu_train_batch_size: None
  • per_gpu_eval_batch_size: None
  • gradient_accumulation_steps: 1
  • eval_accumulation_steps: None
  • torch_empty_cache_steps: None
  • learning_rate: 2e-05
  • weight_decay: 0.0
  • adam_beta1: 0.9
  • adam_beta2: 0.999
  • adam_epsilon: 1e-08
  • max_grad_norm: 1.0
  • num_train_epochs: 1
  • max_steps: -1
  • lr_scheduler_type: linear
  • lr_scheduler_kwargs: {}
  • warmup_ratio: 0.1
  • warmup_steps: 0
  • log_level: passive
  • log_level_replica: warning
  • log_on_each_node: True
  • logging_nan_inf_filter: True
  • save_safetensors: True
  • save_on_each_node: False
  • save_only_model: False
  • restore_callback_states_from_checkpoint: False
  • no_cuda: False
  • use_cpu: False
  • use_mps_device: False
  • seed: 42
  • data_seed: None
  • jit_mode_eval: False
  • use_ipex: False
  • bf16: False
  • fp16: True
  • fp16_opt_level: O1
  • half_precision_backend: amp
  • bf16_full_eval: False
  • fp16_full_eval: False
  • tf32: None
  • local_rank: 0
  • ddp_backend: None
  • tpu_num_cores: None
  • tpu_metrics_debug: False
  • debug: []
  • dataloader_drop_last: False
  • dataloader_num_workers: 0
  • dataloader_prefetch_factor: None
  • past_index: -1
  • disable_tqdm: False
  • remove_unused_columns: False
  • label_names: None
  • load_best_model_at_end: True
  • ignore_data_skip: False
  • fsdp: []
  • fsdp_min_num_params: 0
  • fsdp_config: {'min_num_params': 0, 'xla': False, 'xla_fsdp_v2': False, 'xla_fsdp_grad_ckpt': False}
  • fsdp_transformer_layer_cls_to_wrap: None
  • accelerator_config: {'split_batches': False, 'dispatch_batches': None, 'even_batches': True, 'use_seedable_sampler': True, 'non_blocking': False, 'gradient_accumulation_kwargs': None}
  • deepspeed: None
  • label_smoothing_factor: 0.0
  • optim: adamw_torch
  • optim_args: None
  • adafactor: False
  • group_by_length: False
  • length_column_name: length
  • ddp_find_unused_parameters: None
  • ddp_bucket_cap_mb: None
  • ddp_broadcast_buffers: False
  • dataloader_pin_memory: True
  • dataloader_persistent_workers: False
  • skip_memory_metrics: True
  • use_legacy_prediction_loop: False
  • push_to_hub: False
  • resume_from_checkpoint: None
  • hub_model_id: None
  • hub_strategy: every_save
  • hub_private_repo: None
  • hub_always_push: False
  • gradient_checkpointing: False
  • gradient_checkpointing_kwargs: None
  • include_inputs_for_metrics: False
  • include_for_metrics: []
  • eval_do_concat_batches: True
  • fp16_backend: amp
  • push_to_hub_model_id: None
  • push_to_hub_organization: None
  • mp_parameters:
  • auto_find_batch_size: False
  • full_determinism: False
  • torchdynamo: None
  • ray_scope: last
  • ddp_timeout: 1800
  • torch_compile: False
  • torch_compile_backend: None
  • torch_compile_mode: None
  • dispatch_batches: None
  • split_batches: None
  • include_tokens_per_second: False
  • include_num_input_tokens_seen: False
  • neftune_noise_alpha: None
  • optim_target_modules: None
  • batch_eval_metrics: False
  • eval_on_start: False
  • use_liger_kernel: False
  • eval_use_gather_object: False
  • average_tokens_across_devices: False
  • prompts: None
  • batch_sampler: batch_sampler
  • multi_dataset_batch_sampler: proportional

Training Logs

Epoch Step Training Loss Validation Loss map
0.0853 10000 3.278 2.2049 0.5215
0.1707 20000 1.945 1.7071 0.5616
0.2560 30000 1.5702 1.5086 0.5806
0.3413 40000 1.3658 1.3087 0.5940
0.4267 50000 1.2311 1.2517 0.5862
0.5120 60000 1.1327 1.1454 0.5984
0.5973 70000 1.0624 1.1651 0.5863
0.6827 80000 1.0048 1.0897 0.5985
0.7680 90000 0.965 1.0754 0.6004
0.8533 100000 0.9301 1.0140 0.6032
0.9387 110000 0.9093 1.0304 0.6062
  • The bold row denotes the saved checkpoint.

Framework Versions

  • Python: 3.11.9
  • Sentence Transformers: 3.4.1
  • Transformers: 4.49.0
  • PyTorch: 2.4.1+cu121
  • Accelerate: 1.4.0
  • Datasets: 3.2.0
  • Tokenizers: 0.21.0

Citation

BibTeX

Sentence Transformers

@inproceedings{reimers-2019-sentence-bert,
    title = "Sentence-BERT: Sentence Embeddings using Siamese BERT-Networks",
    author = "Reimers, Nils and Gurevych, Iryna",
    booktitle = "Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing",
    month = "11",
    year = "2019",
    publisher = "Association for Computational Linguistics",
    url = "https://arxiv.org/abs/1908.10084",
}

MarginMSELoss

@misc{hofstätter2021improving,
    title={Improving Efficient Neural Ranking Models with Cross-Architecture Knowledge Distillation},
    author={Sebastian Hofstätter and Sophia Althammer and Michael Schröder and Mete Sertkan and Allan Hanbury},
    year={2021},
    eprint={2010.02666},
    archivePrefix={arXiv},
    primaryClass={cs.IR}
}
@misc{henderson2017efficient,
    title={Efficient Natural Language Response Suggestion for Smart Reply},
    author={Matthew Henderson and Rami Al-Rfou and Brian Strope and Yun-hsuan Sung and Laszlo Lukacs and Ruiqi Guo and Sanjiv Kumar and Balint Miklos and Ray Kurzweil},
    year={2017},
    eprint={1705.00652},
    archivePrefix={arXiv},
    primaryClass={cs.CL}
}