Edit model card

SentenceTransformer based on ai-forever/sbert_large_nlu_ru

This is a sentence-transformers model finetuned from ai-forever/sbert_large_nlu_ru on the csv dataset. It maps sentences & paragraphs to a 1024-dimensional dense vector space and can be used for semantic textual similarity, semantic search, paraphrase mining, text classification, clustering, and more.

Model Details

Model Description

  • Model Type: Sentence Transformer
  • Base model: ai-forever/sbert_large_nlu_ru
  • Maximum Sequence Length: 512 tokens
  • Output Dimensionality: 1024 tokens
  • Similarity Function: Cosine Similarity
  • Training Dataset:
    • csv

Model Sources

Full Model Architecture

SentenceTransformer(
  (0): Transformer({'max_seq_length': 512, 'do_lower_case': False}) with Transformer model: BertModel 
  (1): Pooling({'word_embedding_dimension': 1024, 'pooling_mode_cls_token': False, 'pooling_mode_mean_tokens': True, 'pooling_mode_max_tokens': False, 'pooling_mode_mean_sqrt_len_tokens': False, 'pooling_mode_weightedmean_tokens': False, 'pooling_mode_lasttoken': False, 'include_prompt': True})
  (2): Normalize()
)

Usage

Direct Usage (Sentence Transformers)

First install the Sentence Transformers library:

pip install -U sentence-transformers

Then you can load this model and run inference.

from sentence_transformers import SentenceTransformer

# Download from the 🤗 Hub
model = SentenceTransformer("zloishavrin/ru-sbert-00-1-pl")
# Run inference
sentences = [
    'В акции примут участие ветераны, участники спецоперации, депутаты фракции «Единой России» в Госдуме, активисты МГЕР и движения «Волонтёры Победы».',
    '22 июня - особый день для нашей страны.  83 года назад в этот день началась Великая Отечественная война.  Сегодня мы скорбим по всем, кто ценой своей жизни выполнил святой долг, защитил нашу Родину!  Подвиги наших предков навсегда останутся в памяти и сердцах!',
    'https://www.bashinform.ru/news/politics/2024-09-09/radiy-habirov-pobedil-na-vyborah-v-bashkirii-3921150',
]
embeddings = model.encode(sentences)
print(embeddings.shape)
# [3, 1024]

# Get the similarity scores for the embeddings
similarities = model.similarity(embeddings, embeddings)
print(similarities.shape)
# [3, 3]

Training Details

Training Dataset

csv

  • Dataset: csv
  • Size: 2,030 training samples
  • Columns: text1, text2, and label
  • Approximate statistics based on the first 1000 samples:
    text1 text2 label
    type string string int
    details
    • min: 8 tokens
    • mean: 37.79 tokens
    • max: 77 tokens
    • min: 8 tokens
    • mean: 174.5 tokens
    • max: 512 tokens
    • 0: ~49.80%
    • 1: ~50.20%
  • Samples:
    text1 text2 label
    Региональные отделения Единой России сейчас продолжают сбор новых партий помощи, чтобы закрыть все потребности жителей. Люди покинули свои дома практически без вещей, поэтому нужно всё, от посуды до одежды. На призыв о помощи откликнулись депутаты всех уровней, общественники и жители регионов. Все готовы поддержать курян. 🎗22 июня - День памяти и скорби Эта дата имеет для нашей страны особое значение —День начала Великой Отечественной войны В этот день мы отдаем дань памяти всем погибшим и уважения всем, кто сражался за свободу и независимость нашей страны в те трагические годы, кто, не щадя себя, трудился в тылу во имя Великой Победы. Героизм и мужество нашего народа, плечом к плечу вставшего на защиту Отечества, останется в памяти поколений. Сохранить и защитить эту память – наш священный долг. 0
    Акции памяти в 40 странах мира проведут активисты «Волонтеры Победы». В том числе, в Германии, Индии, Турции, ЮАР, на Кипре, в Сербии, Бразилии, Австралии, Египте, Ливане, Мексике, Нидерландах, Таджикистане, Узбекистане и других. 🕯️ В День памяти и скорби хочу еще раз напомнить о священном долге каждого из нас - хранить память о великом подвиге советского народа, спасшего мир от нацизма, ковавшего Победу в тылу и на фронте. Делать это не только сегодня - каждый день, всегда. 🗓️ 22 июня - был и останется днем, наполненным трагедией, днем, с которого начался наш путь к разгрому фашизма. Вечная слава героям Великой Отечественной войны и тем, кто прямо сейчас защищает священные рубежи нашей Родины, борется с поднявшим голову неонацизмом. 🕯В ночь с 21 по 22 июня принял участие во Всероссийской мемориальной акции «Свеча памяти», возле Музея Победы, собралось пять тысяч человек. 🔥Ровно в полночь ветеран Великой Отечественной Мария Рохлина вместе с генеральным директором Музея Победы Александром Школьником передали частицу Вечного огня участникам памятного события. 🕯Во время зажжения свечей на фасаде музея транслировалось видео с изображением 1418 горящих свечей — по числу дней войны. 🇷🇺Представители движения «Волонтеры Победы» составили «огненную картину» — плакат художника Ираклия Тоидзе «Героям — салют Родины!» с изображением женщины, защищавшей Москву. 🇷🇺 Только помня и вдохновляясь подвигом наших героических предков, мы снова сможем одержать Победу над старым врагом! Другого выбора у нашего великого народа нет - победили тогда, победим и сейчас! ХИНШТЕЙН. Подписаться. 1
    В акции примут участие ветераны, участники спецоперации, депутаты фракции «Единой России» в Госдуме, активисты МГЕР и движения «Волонтёры Победы». Сегодня мы все вместе вспоминаем трагические события 1941-го. В этот день 83 года назад началась Великая Отечественная война. Не было семьи, которой она не коснулась. Мы чтим светлую память миллионов людей, отдавших жизни в Великой Отечественной войне, мирных, ни в чём не повинных граждан – наших соотечественников. Советскому народу удалось остановить безжалостных истребителей и ценой невероятных потерь одержать такую долгожданную Победу. Фашизм был повержен благодаря единству. Мы всегда будем следовать примеру истинных патриотов Отечества, гордиться подвигами героев, чья доблесть и бесстрашие стали залогом нашей свободы и независимости. Победа будет за нами! 1
  • Loss: CoSENTLoss with these parameters:
    {
        "scale": 20.0,
        "similarity_fct": "pairwise_cos_sim"
    }
    

Evaluation Dataset

csv

  • Dataset: csv
  • Size: 2,030 evaluation samples
  • Columns: text1, text2, and label
  • Approximate statistics based on the first 1000 samples:
    text1 text2 label
    type string string int
    details
    • min: 8 tokens
    • mean: 37.25 tokens
    • max: 77 tokens
    • min: 8 tokens
    • mean: 183.14 tokens
    • max: 509 tokens
    • 0: ~51.48%
    • 1: ~48.52%
  • Samples:
    text1 text2 label
    Проводят встречи с первичными отделениями 🍁Дорогие школьники и студенты! Уважаемые педагоги и родители! Поздравляю вас с 1 сентября! День знаний - один из самых добрых и светлых праздников, который дорог каждому, кто учился, учится и учит. Для каждого поколения он по-своему волнующий и радостный. Уже завтра начнется новый учебный год. Самые теплые слова напутствий - первоклассникам. Вы - главные герои  праздника! Для всех школьников и студентов сейчас наступает яркое, интересное и неповторимое время, когда особенно важно быть любознательными и активными, потому что закладывается основа будущего. Начало учебного года - волнующее событие и для родителей. Пусть ваши дети дарят вам больше поводов для гордости! Особые слова благодарности - педагогам, которые не только обучают будущее поколение, но и прививают ребятам любовь к Отечеству, вежливость, милосердие, верность слову. Друзья! Желаю вам крепкого здоровья, плодотворной работы, счастья и благополучия! Родителям - мудрости и терпения, а ученикам и студентам - любознательности, усердия, новых открытий и успехов. С праздником! С Днем знаний! #ТамбовскаяОбласть #АлександрПоляков #ЕдинаяРоссия #ЕР68 #Госдума #Школа #ДеньЗнаний 0
    В ночь с 21 на 22 июня В городах создадут сотни «огненных картин», посвящённых событиям Великой Отечественной войны. 🔥 22.06. КО ДНЮ ПАМЯТИ И СКОРБИ. Стихотворение «МЫ» Ольги ЕРШОВОЙ читают Сергей БЕЗРУКОВ и автор. «Я хотел бы молчать, но, кажется, не могу; Я ребёнок, искавший крошки зимой в снегу, Я солдат, что за ночь побоища стал седым, Партизан, на последнем вздохе сглотнувший дым, Я блокадник, застывший замертво у станка, Я девчонка, сестру схватившая за рукав, Я еврей, пробуривший дырочку из земли, Чтобы... вдруг не найдут...(заметили и нашли), Я подопытный кролик вермахтских лагерей - Чей-то сын, что для них не стоил и двух рублей, Я та мать, что в одно мгновенье сошла с ума, Я гора похоронок, скорби людской тюрьма, Я Хелмно, Треблинка, Белжец и Собибор, Я от мук и крови выгоревший простор, Нерождённый ребёнок, отнятая судьба, Я в яру распятом щуплых людей гурьба, Я над грудой тел склонённая медсестра, Я истошный крик земных и душевных ран; Огнемётом и потом выбитая стезя, Я огромное что-то, что предавать нельзя». Проникновенное, пронзительное стихотворение - напоминание о страшных преступлениях фашизма. Чтобы помнили. Видео создано при поддержке продюсерского центра «Интеграция», режиссер-постановщик - А. Голубев. #ДеньПамятииСкорби #Россия #Интеграция #БезруковЕршова 📮Подпишись на ЛОМОВКУ 1
    1 июня в России будут отмечать День защиты детей. 🍀Поздравляю с Международным днем защиты детей! 🍀Международный день, призванный привлечь внимание людей к проблемам, с которыми сталкиваются дети на всей планете. 🍀День защиты детей отмечается ежегодно 1 июня. Он был учреждён в ноябре 1949 года в Париже решением конгресса Международной демократической федерации женщин. #мир #карпов #дети 1
  • Loss: CoSENTLoss with these parameters:
    {
        "scale": 20.0,
        "similarity_fct": "pairwise_cos_sim"
    }
    

Training Hyperparameters

All Hyperparameters

Click to expand
  • overwrite_output_dir: False
  • do_predict: False
  • eval_strategy: no
  • prediction_loss_only: True
  • per_device_train_batch_size: 8
  • per_device_eval_batch_size: 8
  • per_gpu_train_batch_size: None
  • per_gpu_eval_batch_size: None
  • gradient_accumulation_steps: 1
  • eval_accumulation_steps: None
  • torch_empty_cache_steps: None
  • learning_rate: 5e-05
  • weight_decay: 0.0
  • adam_beta1: 0.9
  • adam_beta2: 0.999
  • adam_epsilon: 1e-08
  • max_grad_norm: 1.0
  • num_train_epochs: 3.0
  • max_steps: -1
  • lr_scheduler_type: linear
  • lr_scheduler_kwargs: {}
  • warmup_ratio: 0.0
  • warmup_steps: 0
  • log_level: passive
  • log_level_replica: warning
  • log_on_each_node: True
  • logging_nan_inf_filter: True
  • save_safetensors: True
  • save_on_each_node: False
  • save_only_model: False
  • restore_callback_states_from_checkpoint: False
  • no_cuda: False
  • use_cpu: False
  • use_mps_device: False
  • seed: 42
  • data_seed: None
  • jit_mode_eval: False
  • use_ipex: False
  • bf16: False
  • fp16: False
  • fp16_opt_level: O1
  • half_precision_backend: auto
  • bf16_full_eval: False
  • fp16_full_eval: False
  • tf32: None
  • local_rank: 0
  • ddp_backend: None
  • tpu_num_cores: None
  • tpu_metrics_debug: False
  • debug: []
  • dataloader_drop_last: False
  • dataloader_num_workers: 0
  • dataloader_prefetch_factor: None
  • past_index: -1
  • disable_tqdm: False
  • remove_unused_columns: True
  • label_names: None
  • load_best_model_at_end: False
  • ignore_data_skip: False
  • fsdp: []
  • fsdp_min_num_params: 0
  • fsdp_config: {'min_num_params': 0, 'xla': False, 'xla_fsdp_v2': False, 'xla_fsdp_grad_ckpt': False}
  • fsdp_transformer_layer_cls_to_wrap: None
  • accelerator_config: {'split_batches': False, 'dispatch_batches': None, 'even_batches': True, 'use_seedable_sampler': True, 'non_blocking': False, 'gradient_accumulation_kwargs': None}
  • deepspeed: None
  • label_smoothing_factor: 0.0
  • optim: adamw_torch
  • optim_args: None
  • adafactor: False
  • group_by_length: False
  • length_column_name: length
  • ddp_find_unused_parameters: None
  • ddp_bucket_cap_mb: None
  • ddp_broadcast_buffers: False
  • dataloader_pin_memory: True
  • dataloader_persistent_workers: False
  • skip_memory_metrics: True
  • use_legacy_prediction_loop: False
  • push_to_hub: False
  • resume_from_checkpoint: None
  • hub_model_id: None
  • hub_strategy: every_save
  • hub_private_repo: False
  • hub_always_push: False
  • gradient_checkpointing: False
  • gradient_checkpointing_kwargs: None
  • include_inputs_for_metrics: False
  • eval_do_concat_batches: True
  • fp16_backend: auto
  • push_to_hub_model_id: None
  • push_to_hub_organization: None
  • mp_parameters:
  • auto_find_batch_size: False
  • full_determinism: False
  • torchdynamo: None
  • ray_scope: last
  • ddp_timeout: 1800
  • torch_compile: False
  • torch_compile_backend: None
  • torch_compile_mode: None
  • dispatch_batches: None
  • split_batches: None
  • include_tokens_per_second: False
  • include_num_input_tokens_seen: False
  • neftune_noise_alpha: None
  • optim_target_modules: None
  • batch_eval_metrics: False
  • eval_on_start: False
  • eval_use_gather_object: False
  • batch_sampler: batch_sampler
  • multi_dataset_batch_sampler: proportional

Training Logs

Epoch Step Training Loss
2.4631 500 2.5526

Framework Versions

  • Python: 3.10.12
  • Sentence Transformers: 3.1.1
  • Transformers: 4.44.2
  • PyTorch: 2.4.1+cu121
  • Accelerate: 0.34.2
  • Datasets: 3.0.1
  • Tokenizers: 0.19.1

Citation

BibTeX

Sentence Transformers

@inproceedings{reimers-2019-sentence-bert,
    title = "Sentence-BERT: Sentence Embeddings using Siamese BERT-Networks",
    author = "Reimers, Nils and Gurevych, Iryna",
    booktitle = "Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing",
    month = "11",
    year = "2019",
    publisher = "Association for Computational Linguistics",
    url = "https://arxiv.org/abs/1908.10084",
}

CoSENTLoss

@online{kexuefm-8847,
    title={CoSENT: A more efficient sentence vector scheme than Sentence-BERT},
    author={Su Jianlin},
    year={2022},
    month={Jan},
    url={https://kexue.fm/archives/8847},
}
Downloads last month
7
Safetensors
Model size
427M params
Tensor type
F32
·
Inference Examples
This model does not have enough activity to be deployed to Inference API (serverless) yet. Increase its social visibility and check back later, or deploy to Inference Endpoints (dedicated) instead.

Model tree for zloishavrin/ru-sbert-00-1-pl

Finetuned
(5)
this model