---
base_model: sentence-transformers/paraphrase-multilingual-MiniLM-L12-v2
language:
- hu
library_name: sentence-transformers
license: apache-2.0
metrics:
- cosine_accuracy
- dot_accuracy
- manhattan_accuracy
- euclidean_accuracy
- max_accuracy
pipeline_tag: sentence-similarity
tags:
- sentence-transformers
- sentence-similarity
- feature-extraction
- generated_from_trainer
- dataset_size:857856
- loss:MultipleNegativesRankingLoss
widget:
- source_sentence: Emberek várnak a lámpánál kerékpárral.
sentences:
- Az emberek piros lámpánál haladnak.
- Az emberek a kerékpárjukon vannak.
- Egy fekete kutya úszik a vízben egy teniszlabdával a szájában
- source_sentence: A kutya a vízben van.
sentences:
- Két férfi takarítja a havat a tetőről, az egyik egy emelőben ül, a másik pedig
a tetőn.
- A macska a vízben van, és dühös.
- Egy kutya van a vízben, a szájában egy faág.
- source_sentence: A nő feketét visel.
sentences:
- Egy barna kutya fröcsköl, ahogy úszik a vízben.
- Egy tetoválással rendelkező nő, aki fekete tank tetején néz a földre.
- 'Egy kékbe öltözött nő intenzív arckifejezéssel üti a teniszlabdát. A képen:'
- source_sentence: Az emberek alszanak.
sentences:
- Három ember beszélget egy városi utcán.
- A nő fehéret visel.
- Egy apa és a fia ölelgeti alvás közben.
- source_sentence: Az emberek alszanak.
sentences:
- Egy feketébe öltözött nő cigarettát és bevásárlótáskát tart a kezében, miközben
egy idősebb nő átmegy az utcán.
- Egy csoport ember ül egy nyitott, térszerű területen, mögötte nagy bokrok és egy
sor viktoriánus stílusú épület, melyek közül sokat a kép jobb oldalán lévő erős
elmosódás tesz kivehetetlenné.
- Egy apa és a fia ölelgeti alvás közben.
model-index:
- name: paraphrase-multilingual-MiniLM-L12-v2
results:
- task:
type: triplet
name: Triplet
dataset:
name: all nli dev
type: all-nli-dev
metrics:
- type: cosine_accuracy
value: 0.992
name: Cosine Accuracy
- type: dot_accuracy
value: 0.0108
name: Dot Accuracy
- type: manhattan_accuracy
value: 0.9908
name: Manhattan Accuracy
- type: euclidean_accuracy
value: 0.9908
name: Euclidean Accuracy
- type: max_accuracy
value: 0.992
name: Max Accuracy
- task:
type: triplet
name: Triplet
dataset:
name: all nli test
type: all-nli-test
metrics:
- type: cosine_accuracy
value: 0.9913636363636363
name: Cosine Accuracy
- type: dot_accuracy
value: 0.013939393939393939
name: Dot Accuracy
- type: manhattan_accuracy
value: 0.990909090909091
name: Manhattan Accuracy
- type: euclidean_accuracy
value: 0.9910606060606061
name: Euclidean Accuracy
- type: max_accuracy
value: 0.9913636363636363
name: Max Accuracy
---
# paraphrase-multilingual-MiniLM-L12-v2
This is a [sentence-transformers](https://www.SBERT.net) model finetuned from [sentence-transformers/paraphrase-multilingual-MiniLM-L12-v2](https://huggingface.co/sentence-transformers/paraphrase-multilingual-MiniLM-L12-v2) on the train dataset. It maps sentences & paragraphs to a 384-dimensional dense vector space and can be used for semantic textual similarity, semantic search, paraphrase mining, text classification, clustering, and more.
## Model Details
### Model Description
- **Model Type:** Sentence Transformer
- **Base model:** [sentence-transformers/paraphrase-multilingual-MiniLM-L12-v2](https://huggingface.co/sentence-transformers/paraphrase-multilingual-MiniLM-L12-v2)
- **Maximum Sequence Length:** 128 tokens
- **Output Dimensionality:** 384 tokens
- **Similarity Function:** Cosine Similarity
- **Training Dataset:**
- train
- **Language:** hu
- **License:** apache-2.0
### Model Sources
- **Documentation:** [Sentence Transformers Documentation](https://sbert.net)
- **Repository:** [Sentence Transformers on GitHub](https://github.com/UKPLab/sentence-transformers)
- **Hugging Face:** [Sentence Transformers on Hugging Face](https://huggingface.co/models?library=sentence-transformers)
### Full Model Architecture
```
SentenceTransformer(
(0): Transformer({'max_seq_length': 128, 'do_lower_case': False}) with Transformer model: BertModel
(1): Pooling({'word_embedding_dimension': 384, 'pooling_mode_cls_token': False, 'pooling_mode_mean_tokens': True, 'pooling_mode_max_tokens': False, 'pooling_mode_mean_sqrt_len_tokens': False, 'pooling_mode_weightedmean_tokens': False, 'pooling_mode_lasttoken': False, 'include_prompt': True})
)
```
## Usage
### Direct Usage (Sentence Transformers)
First install the Sentence Transformers library:
```bash
pip install -U sentence-transformers
```
Then you can load this model and run inference.
```python
from sentence_transformers import SentenceTransformer
# Download from the 🤗 Hub
model = SentenceTransformer("karsar/paraphrase-multilingual-MiniLM-L12-hu_v1")
# Run inference
sentences = [
'Az emberek alszanak.',
'Egy apa és a fia ölelgeti alvás közben.',
'Egy csoport ember ül egy nyitott, térszerű területen, mögötte nagy bokrok és egy sor viktoriánus stílusú épület, melyek közül sokat a kép jobb oldalán lévő erős elmosódás tesz kivehetetlenné.',
]
embeddings = model.encode(sentences)
print(embeddings.shape)
# [3, 384]
# Get the similarity scores for the embeddings
similarities = model.similarity(embeddings, embeddings)
print(similarities.shape)
# [3, 3]
```
## Evaluation
### Metrics
#### Triplet
* Dataset: `all-nli-dev`
* Evaluated with [TripletEvaluator
](https://sbert.net/docs/package_reference/sentence_transformer/evaluation.html#sentence_transformers.evaluation.TripletEvaluator)
| Metric | Value |
|:-------------------|:----------|
| cosine_accuracy | 0.992 |
| dot_accuracy | 0.0108 |
| manhattan_accuracy | 0.9908 |
| euclidean_accuracy | 0.9908 |
| **max_accuracy** | **0.992** |
#### Triplet
* Dataset: `all-nli-test`
* Evaluated with [TripletEvaluator
](https://sbert.net/docs/package_reference/sentence_transformer/evaluation.html#sentence_transformers.evaluation.TripletEvaluator)
| Metric | Value |
|:-------------------|:-----------|
| cosine_accuracy | 0.9914 |
| dot_accuracy | 0.0139 |
| manhattan_accuracy | 0.9909 |
| euclidean_accuracy | 0.9911 |
| **max_accuracy** | **0.9914** |
## Training Details
### Training Dataset
#### train
* Dataset: train
* Size: 857,856 training samples
* Columns: anchor
, positive
, and negative
* Approximate statistics based on the first 1000 samples:
| | anchor | positive | negative |
|:--------|:----------------------------------------------------------------------------------|:----------------------------------------------------------------------------------|:----------------------------------------------------------------------------------|
| type | string | string | string |
| details |
Egy lóháton ülő ember átugrik egy lerombolt repülőgép felett.
| Egy ember a szabadban, lóháton.
| Egy ember egy étteremben van, és omlettet rendel.
|
| Gyerekek mosolyogva és integetett a kamera
| Gyermekek vannak jelen
| A gyerekek homlokot rántanak
|
| Egy fiú ugrál a gördeszkát a közepén egy piros híd.
| A fiú gördeszkás trükköt csinál.
| A fiú korcsolyázik a járdán.
|
* Loss: [MultipleNegativesRankingLoss
](https://sbert.net/docs/package_reference/sentence_transformer/losses.html#multiplenegativesrankingloss) with these parameters:
```json
{
"scale": 20.0,
"similarity_fct": "cos_sim"
}
```
### Evaluation Dataset
#### train
* Dataset: train
* Size: 5,000 evaluation samples
* Columns: anchor
, positive
, and negative
* Approximate statistics based on the first 1000 samples:
| | anchor | positive | negative |
|:--------|:----------------------------------------------------------------------------------|:----------------------------------------------------------------------------------|:----------------------------------------------------------------------------------|
| type | string | string | string |
| details | Egy lóháton ülő ember átugrik egy lerombolt repülőgép felett.
| Egy ember a szabadban, lóháton.
| Egy ember egy étteremben van, és omlettet rendel.
|
| Gyerekek mosolyogva és integetett a kamera
| Gyermekek vannak jelen
| A gyerekek homlokot rántanak
|
| Egy fiú ugrál a gördeszkát a közepén egy piros híd.
| A fiú gördeszkás trükköt csinál.
| A fiú korcsolyázik a járdán.
|
* Loss: [MultipleNegativesRankingLoss
](https://sbert.net/docs/package_reference/sentence_transformer/losses.html#multiplenegativesrankingloss) with these parameters:
```json
{
"scale": 20.0,
"similarity_fct": "cos_sim"
}
```
### Training Hyperparameters
#### Non-Default Hyperparameters
- `eval_strategy`: steps
- `per_device_train_batch_size`: 128
- `per_device_eval_batch_size`: 128
- `num_train_epochs`: 1
- `warmup_ratio`: 0.1
- `bf16`: True
- `batch_sampler`: no_duplicates
#### All Hyperparameters