SentenceTransformer based on sentence-transformers/all-distilroberta-v1
This is a sentence-transformers model finetuned from sentence-transformers/all-distilroberta-v1. It maps sentences & paragraphs to a 768-dimensional dense vector space and can be used for semantic textual similarity, semantic search, paraphrase mining, text classification, clustering, and more.
Model Details
Model Description
- Model Type: Sentence Transformer
- Base model: sentence-transformers/all-distilroberta-v1
- Maximum Sequence Length: 512 tokens
- Output Dimensionality: 768 dimensions
- Similarity Function: Cosine Similarity
Model Sources
- Documentation: Sentence Transformers Documentation
- Repository: Sentence Transformers on GitHub
- Hugging Face: Sentence Transformers on Hugging Face
Full Model Architecture
SentenceTransformer(
(0): Transformer({'max_seq_length': 512, 'do_lower_case': False}) with Transformer model: RobertaModel
(1): Pooling({'word_embedding_dimension': 768, 'pooling_mode_cls_token': False, 'pooling_mode_mean_tokens': True, 'pooling_mode_max_tokens': False, 'pooling_mode_mean_sqrt_len_tokens': False, 'pooling_mode_weightedmean_tokens': False, 'pooling_mode_lasttoken': False, 'include_prompt': True})
(2): Normalize()
)
Usage
Direct Usage (Sentence Transformers)
First install the Sentence Transformers library:
pip install -U sentence-transformers
Then you can load this model and run inference.
from sentence_transformers import SentenceTransformer
# Download from the 🤗 Hub
model = SentenceTransformer("sentence_transformers_model_id")
# Run inference
sentences = [
'The weather is lovely today.',
"It's so sunny outside!",
'He drove to the stadium.',
]
embeddings = model.encode(sentences)
print(embeddings.shape)
# [3, 768]
# Get the similarity scores for the embeddings
similarities = model.similarity(embeddings, embeddings)
print(similarities.shape)
# [3, 3]
Evaluation
Metrics
Triplet
- Datasets:
ai-faq-validation
andai-job-test
- Evaluated with
TripletEvaluator
Metric | ai-faq-validation | ai-job-test |
---|---|---|
cosine_accuracy | 1.0 | 1.0 |
Training Details
Training Dataset
Unnamed Dataset
- Size: 19 training samples
- Columns:
question
,answer
, andanswer_neg
- Approximate statistics based on the first 19 samples:
question answer answer_neg type string string string details - min: 21 tokens
- mean: 59.47 tokens
- max: 120 tokens
- min: 2 tokens
- mean: 250.11 tokens
- max: 512 tokens
- min: 2 tokens
- mean: 262.47 tokens
- max: 512 tokens
- Samples:
question answer answer_neg در آبان پرایم چه خدماتی دریافت میکنم؟
آبان پرایم یک صرافی آنلاین است به این معنی که شما تمامی خدمات صرافی را میتوانید به صورت آنلاین و غیر حضوری دریافت کنید.
خدمات ما شامل:
- امکان خرید و فروش ارزهای مختلف تومان، تتر، درهم، دلار آمریکا، دلار استرالیا، دلار کانادا، لیر ترکیه
- نرخ لحظه ای
- واریز و برداشت نقدی
- انجام انواع حوالجات
- واریز مستقیم به حساب شبا ایران با هر رقم از طریق وبسایت
- امکان دریافت گزارش صورت حساب ها
- پشتیبانی ۲۴ ساعتهتوی امارات به کدوم بانک ها واریز انجام میدین؟
واریز به تمامی بانک های امارات انجام میشود.
شما میتوانید با شماره موبایل(با پیش شماره های ایران،امارات، ترکیه، کانادا و استرالیا) یا ایمیل به راحتی حساب کاربری بسازید
https://youtu.be/Sl1ehlS6TYY
برای ثبتنام:
۱) شماره موبایل یا ایمیل خودتون را وارد کنید
۲) در مرحله بعد کد تایید ارسال شده به موبایل یا ایمیل رو وارد کنید
۳) رمز عبور خودتون رو تعریف کنید و وارد حساب کاربری بشیدواریز و برداشت تتر
واریز و برداشت تتر در آبان پرایم به صورت کاملا آنلاین انجام میشود.
https://youtu.be/ARzOJ6Pgp7k
واریز تتر
۱) در صفحه اصلی گزینه deposit تتر رو انتخاب کنید
۲) شبکه واریز (TRC20 یا BSC) رو انتخاب و آدرس ولت رو کپی کنید.
۴) تتر مورد نظرتون رو از ولت مبدا به آدرس ولت آبان پرام انتقال بدید.
۵) چند دقیقه بعد از انتقال تراکنش انجام میشه و اکانت آبان پرایمتون مستقیما شارژ میشه.
برداشت تتر
۱) در صفحه اصلی گزینه Withdraw تتر رو انتخاب کنید.
۳) یکی از شبکههای برداشت (TRC20 یا BSC) رو انتخاب کنید.
۴) آدرس کیف پول مقصد رو وارد کنید
آدرس مقصد رو دقیق و منطبق با شبکه برداشت انتخابی وارد کنید.
۵) مقدار تتری که میخواهید برداشت کنید رو وارد کنید.
۶) بعد از بررسی و اطمینان از صحت اطلاعات درخواست برداشت خود را ثبت کنید.واریز به تمامی بانک های امارات انجام میشود.
- Loss:
MultipleNegativesRankingLoss
with these parameters:{ "scale": 20.0, "similarity_fct": "cos_sim" }
Evaluation Dataset
Unnamed Dataset
- Size: 1 evaluation samples
- Columns:
question
,answer
, andanswer_neg
- Approximate statistics based on the first 1 samples:
question answer answer_neg type string string string details - min: 52 tokens
- mean: 52.0 tokens
- max: 52 tokens
- min: 512 tokens
- mean: 512.0 tokens
- max: 512 tokens
- min: 50 tokens
- mean: 50.0 tokens
- max: 50 tokens
- Samples:
question answer answer_neg رمز عبورم رو فراموش کردم چیکار باید بکنم؟
۱) انتخاب گزینه فراموشی رمز عبور( Forgot Password)
۲) وارد کردن شماره موبایل یا ایمیل
۳) وارد کردن کد امنیتی دریافتی از طریق پیامک یا ایمیل
۴) تعریف رمز جدید
اگر پیامک رمز یکبارمصرف (OTP) دریافت نمیکنید، این مراحل رو انجام بده:
- شماره موبایل رو درست وارد کن. (با پیششماره صحیح)
- چند دقیقه صبر کن و دوباره تلاش کن. ممکنه گاهی اختلال موقتی از سمت سرویسدهنده پیامک باشه.
- اینترنت و آنتن گوشی رو بررسی کن.
- پوشه پیامکهای تبلیغاتی و مسدودشده رو چک کن.
- دوباره درخواست کد بده و مطمئن شو که تعداد دفعات مجاز تموم نشده.
- اگر باز هم دریافت نکردی، با پشتیبانی تماس بگیر.برای انجام حواله با پشتیبانی تماس بگیرید.
- Loss:
MultipleNegativesRankingLoss
with these parameters:{ "scale": 20.0, "similarity_fct": "cos_sim" }
Training Hyperparameters
Non-Default Hyperparameters
eval_strategy
: stepsper_device_train_batch_size
: 16per_device_eval_batch_size
: 16learning_rate
: 2e-05num_train_epochs
: 200warmup_ratio
: 0.1batch_sampler
: no_duplicates
All Hyperparameters
Click to expand
overwrite_output_dir
: Falsedo_predict
: Falseeval_strategy
: stepsprediction_loss_only
: Trueper_device_train_batch_size
: 16per_device_eval_batch_size
: 16per_gpu_train_batch_size
: Noneper_gpu_eval_batch_size
: Nonegradient_accumulation_steps
: 1eval_accumulation_steps
: Nonetorch_empty_cache_steps
: Nonelearning_rate
: 2e-05weight_decay
: 0.0adam_beta1
: 0.9adam_beta2
: 0.999adam_epsilon
: 1e-08max_grad_norm
: 1.0num_train_epochs
: 200max_steps
: -1lr_scheduler_type
: linearlr_scheduler_kwargs
: {}warmup_ratio
: 0.1warmup_steps
: 0log_level
: passivelog_level_replica
: warninglog_on_each_node
: Truelogging_nan_inf_filter
: Truesave_safetensors
: Truesave_on_each_node
: Falsesave_only_model
: Falserestore_callback_states_from_checkpoint
: Falseno_cuda
: Falseuse_cpu
: Falseuse_mps_device
: Falseseed
: 42data_seed
: Nonejit_mode_eval
: Falseuse_ipex
: Falsebf16
: Falsefp16
: Falsefp16_opt_level
: O1half_precision_backend
: autobf16_full_eval
: Falsefp16_full_eval
: Falsetf32
: Nonelocal_rank
: 0ddp_backend
: Nonetpu_num_cores
: Nonetpu_metrics_debug
: Falsedebug
: []dataloader_drop_last
: Falsedataloader_num_workers
: 0dataloader_prefetch_factor
: Nonepast_index
: -1disable_tqdm
: Falseremove_unused_columns
: Truelabel_names
: Noneload_best_model_at_end
: Falseignore_data_skip
: Falsefsdp
: []fsdp_min_num_params
: 0fsdp_config
: {'min_num_params': 0, 'xla': False, 'xla_fsdp_v2': False, 'xla_fsdp_grad_ckpt': False}fsdp_transformer_layer_cls_to_wrap
: Noneaccelerator_config
: {'split_batches': False, 'dispatch_batches': None, 'even_batches': True, 'use_seedable_sampler': True, 'non_blocking': False, 'gradient_accumulation_kwargs': None}deepspeed
: Nonelabel_smoothing_factor
: 0.0optim
: adamw_torchoptim_args
: Noneadafactor
: Falsegroup_by_length
: Falselength_column_name
: lengthddp_find_unused_parameters
: Noneddp_bucket_cap_mb
: Noneddp_broadcast_buffers
: Falsedataloader_pin_memory
: Truedataloader_persistent_workers
: Falseskip_memory_metrics
: Trueuse_legacy_prediction_loop
: Falsepush_to_hub
: Falseresume_from_checkpoint
: Nonehub_model_id
: Nonehub_strategy
: every_savehub_private_repo
: Nonehub_always_push
: Falsegradient_checkpointing
: Falsegradient_checkpointing_kwargs
: Noneinclude_inputs_for_metrics
: Falseinclude_for_metrics
: []eval_do_concat_batches
: Truefp16_backend
: autopush_to_hub_model_id
: Nonepush_to_hub_organization
: Nonemp_parameters
:auto_find_batch_size
: Falsefull_determinism
: Falsetorchdynamo
: Noneray_scope
: lastddp_timeout
: 1800torch_compile
: Falsetorch_compile_backend
: Nonetorch_compile_mode
: Nonedispatch_batches
: Nonesplit_batches
: Noneinclude_tokens_per_second
: Falseinclude_num_input_tokens_seen
: Falseneftune_noise_alpha
: Noneoptim_target_modules
: Nonebatch_eval_metrics
: Falseeval_on_start
: Falseuse_liger_kernel
: Falseeval_use_gather_object
: Falseaverage_tokens_across_devices
: Falseprompts
: Nonebatch_sampler
: no_duplicatesmulti_dataset_batch_sampler
: proportional
Training Logs
Epoch | Step | Training Loss | Validation Loss | ai-faq-validation_cosine_accuracy | ai-job-test_cosine_accuracy |
---|---|---|---|---|---|
-1 | -1 | - | - | 0.0 | - |
50.0 | 100 | 1.0736 | 0.5462 | 1.0 | - |
100.0 | 200 | 0.0041 | 0.1209 | 1.0 | - |
150.0 | 300 | 0.0002 | 0.0663 | 1.0 | - |
200.0 | 400 | 0.0001 | 0.0556 | 1.0 | - |
-1 | -1 | - | - | 1.0 | 1.0 |
Framework Versions
- Python: 3.10.16
- Sentence Transformers: 3.4.1
- Transformers: 4.50.0.dev0
- PyTorch: 2.6.0+cu124
- Accelerate: 1.3.0
- Datasets: 3.3.2
- Tokenizers: 0.21.0
Citation
BibTeX
Sentence Transformers
@inproceedings{reimers-2019-sentence-bert,
title = "Sentence-BERT: Sentence Embeddings using Siamese BERT-Networks",
author = "Reimers, Nils and Gurevych, Iryna",
booktitle = "Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing",
month = "11",
year = "2019",
publisher = "Association for Computational Linguistics",
url = "https://arxiv.org/abs/1908.10084",
}
MultipleNegativesRankingLoss
@misc{henderson2017efficient,
title={Efficient Natural Language Response Suggestion for Smart Reply},
author={Matthew Henderson and Rami Al-Rfou and Brian Strope and Yun-hsuan Sung and Laszlo Lukacs and Ruiqi Guo and Sanjiv Kumar and Balint Miklos and Ray Kurzweil},
year={2017},
eprint={1705.00652},
archivePrefix={arXiv},
primaryClass={cs.CL}
}
- Downloads last month
- 17
Inference Providers
NEW
This model is not currently available via any of the supported Inference Providers.
Model tree for Shahriardev/distobert-finetuned-embedding-faq1-v1-1
Base model
sentence-transformers/all-distilroberta-v1Evaluation results
- Cosine Accuracy on ai faq validationself-reported1.000
- Cosine Accuracy on ai job testself-reported1.000