Alikhan Urumov
commited on
Commit
•
87ceb7f
1
Parent(s):
7472b7a
Update README.md
Browse files
README.md
CHANGED
@@ -4,53 +4,51 @@ tags:
|
|
4 |
model-index:
|
5 |
- name: wav2vec2-russian
|
6 |
results: []
|
|
|
|
|
|
|
7 |
---
|
8 |
|
9 |
<!-- This model card has been generated automatically according to the information the Trainer had access to. You
|
10 |
should probably proofread and complete it, then remove this comment. -->
|
11 |
|
12 |
# wav2vec2-russian
|
|
|
|
|
|
|
13 |
|
14 |
-
This model was trained from scratch on the None dataset.
|
15 |
-
It achieves the following results on the evaluation set:
|
16 |
-
- eval_loss: 0.3262
|
17 |
-
- eval_wer: 0.4523
|
18 |
-
- eval_runtime: 160.4206
|
19 |
-
- eval_samples_per_second: 9.444
|
20 |
-
- eval_steps_per_second: 1.184
|
21 |
-
- epoch: 4.17
|
22 |
-
- step: 7500
|
23 |
-
|
24 |
-
## Model description
|
25 |
-
|
26 |
-
More information needed
|
27 |
-
|
28 |
-
## Intended uses & limitations
|
29 |
-
|
30 |
-
More information needed
|
31 |
-
|
32 |
-
## Training and evaluation data
|
33 |
-
|
34 |
-
More information needed
|
35 |
-
|
36 |
-
## Training procedure
|
37 |
-
|
38 |
-
### Training hyperparameters
|
39 |
-
|
40 |
-
The following hyperparameters were used during training:
|
41 |
-
- learning_rate: 1e-07
|
42 |
-
- train_batch_size: 16
|
43 |
-
- eval_batch_size: 8
|
44 |
-
- seed: 42
|
45 |
-
- optimizer: Adam with betas=(0.9,0.999) and epsilon=1e-08
|
46 |
-
- lr_scheduler_type: linear
|
47 |
-
- lr_scheduler_warmup_steps: 1000
|
48 |
-
- num_epochs: 10
|
49 |
-
- mixed_precision_training: Native AMP
|
50 |
|
51 |
-
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
52 |
|
53 |
-
|
54 |
-
|
55 |
-
|
56 |
-
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
4 |
model-index:
|
5 |
- name: wav2vec2-russian
|
6 |
results: []
|
7 |
+
widget:
|
8 |
+
- src: https://cdn-media.huggingface.co/speech_samples/common_voice_ru_18849022.mp3
|
9 |
+
|
10 |
---
|
11 |
|
12 |
<!-- This model card has been generated automatically according to the information the Trainer had access to. You
|
13 |
should probably proofread and complete it, then remove this comment. -->
|
14 |
|
15 |
# wav2vec2-russian
|
16 |
+
#
|
17 |
+
---
|
18 |
+
Загрузите аудиофайл в формате wav для распознования. Результат можно откорректировать в другой моей сети. которая исправляет ошибки, расставляет знаки припинания и исправляет цифры. https://huggingface.co/UrukHan/t5-russian-spell
|
19 |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
20 |
|
21 |
+
<table border="0">
|
22 |
+
<tr>
|
23 |
+
<td><b style="font-size:30px">Output wav2vec2</b></td>
|
24 |
+
<td><b style="font-size:30px">Output spell correcor</b></td>
|
25 |
+
</tr>
|
26 |
+
<tr>
|
27 |
+
<td>ывсем привет выныканалетоп армии и это двадцать пятый день спец операций на украине ет самый главной новости российские военные ракетами кинжалы калибр уничтожили крупную военную топливную базу украины ракетным ударом по населенному пункту под жетамиром уничтжены более стаукраинских военных в две тысячи двадцать втором году</td>
|
28 |
+
<td>Всем привет! Вы в курсе новостей от армии. И это 25 день спецопераций на Украине. Есть самые главные новости. Российские военные ракетами «Кинжалы» и «Кинжалы» калибра уничтожили крупную военную топливную базу Украины. Ракетным ударом по населенному пункту под Жетамиром уничтожены более ста украинских военных в 2022г.</td>
|
29 |
+
</tr>
|
30 |
+
</table>
|
31 |
|
32 |
+
#
|
33 |
+
---
|
34 |
+
# Запуск сети пример в колабе https://colab.research.google.com/drive/1dVZvccYJq02hmEsapWgmuJ-pLdezFnn1?usp=sharing
|
35 |
+
#
|
36 |
+
```python
|
37 |
+
from transformers import AutoModelForCTC, Wav2Vec2Processor
|
38 |
+
model = AutoModelForCTC.from_pretrained("wav2vec2-russian-colab")
|
39 |
+
processor = Wav2Vec2Processor.from_pretrained("wav2vec2-russian-colab")
|
40 |
+
def map_to_result(batch):
|
41 |
+
with torch.no_grad():
|
42 |
+
input_values = torch.tensor(batch["input_values"]).unsqueeze(0) #, device="cuda"
|
43 |
+
logits = model(input_values).logits
|
44 |
+
pred_ids = torch.argmax(logits, dim=-1)
|
45 |
+
batch = processor.batch_decode(pred_ids)[0]
|
46 |
+
return batch
|
47 |
+
|
48 |
+
map_to_result()
|
49 |
+
```
|
50 |
+
|
51 |
+
#
|
52 |
+
---
|
53 |
+
# Тренировка модели с обработкой данных и созданием датасета разобрать можете в колабе:
|
54 |
+
# https://colab.research.google.com/drive/1zkCA2PtKxD2acqLr55USh35OomoOwOhm?usp=sharing
|