Alikhan Urumov commited on
Commit
5835667
1 Parent(s): b1a334c

update model card README.md

Browse files
Files changed (1) hide show
  1. README.md +44 -40
README.md CHANGED
@@ -4,54 +4,58 @@ tags:
4
  model-index:
5
  - name: wav2vec2-ru
6
  results: []
7
- widget:
8
- - src: https://cdn-media.huggingface.co/speech_samples/common_voice_ru_18849022.mp3
9
-
10
  ---
11
 
12
  <!-- This model card has been generated automatically according to the information the Trainer had access to. You
13
  should probably proofread and complete it, then remove this comment. -->
14
 
15
  # wav2vec2-ru
16
- #
17
 
18
- модель для распознания аудио. результаты модели можно потом прогнать через мою сеть исправления текстов UrukHan/t5-russian-spell
 
 
 
19
 
20
- <table border="0">
21
- <tr>
22
- <td><b style="font-size:30px">Output wav2vec2</b></td>
23
- <td><b style="font-size:30px">Output spell correcor</b></td>
24
- </tr>
25
- <tr>
26
- <td>ывсем привет выныканалетоп армии и это двадцать пятый день спец операций на украине ет самый главной новости российские военные ракетами кинжалы калибр уничтожили крупную военную топливную базу украины ракетным ударом по населенному пункту под жетамиром уничтжены более стаукраинских военных в две тысячи двадцать втором году</td>
27
- <td>Всем привет! Вы в курсе новостей от армии. И это 25 день спецопераций на Украине. Есть самые главные новости. Российские военные ракетами «Кинжалы» и «Кинжалы» калибра уничтожили крупную военную топливную базу Украины. Ракетным ударом по населенному пункту под Жетамиром уничтожены более ста украинских военных в 2022г.</td>
28
- </tr>
29
- </table>
30
 
 
31
 
32
- ---
33
- Загрузите аудиофайл в формате wav для распознования. Результат можно откорректировать в другой моей сети. которая исправляет ошибки, расставляет знаки припинания и исправляет цифры. https://huggingface.co/UrukHan/t5-russian-spell
34
 
35
- #
36
- ---
37
- # Запуск сети пример в колабе https://colab.research.google.com/drive/1dVZvccYJq02hmEsapWgmuJ-pLdezFnn1?usp=sharing
38
- #
39
- ```python
40
- from transformers import AutoModelForCTC, Wav2Vec2Processor
41
- model = AutoModelForCTC.from_pretrained("UrukHan/wav2vec2-ru")
42
- processor = Wav2Vec2Processor.from_pretrained("UrukHan/wav2vec2-ru")
43
- def map_to_result(batch):
44
- with torch.no_grad():
45
- input_values = torch.tensor(batch["input_values"]).unsqueeze(0) #, device="cuda"
46
- logits = model(input_values).logits
47
- pred_ids = torch.argmax(logits, dim=-1)
48
- batch = processor.batch_decode(pred_ids)[0]
49
- return batch
50
-
51
- map_to_result()
52
- ```
53
-
54
- #
55
- ---
56
- # Тренировка модели с обработкой данных и созданием датасета разобрать можете в колабе:
57
- # https://colab.research.google.com/drive/1zkCA2PtKxD2acqLr55USh35OomoOwOhm?usp=sharing
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
4
  model-index:
5
  - name: wav2vec2-ru
6
  results: []
 
 
 
7
  ---
8
 
9
  <!-- This model card has been generated automatically according to the information the Trainer had access to. You
10
  should probably proofread and complete it, then remove this comment. -->
11
 
12
  # wav2vec2-ru
 
13
 
14
+ This model was trained from scratch on the None dataset.
15
+ It achieves the following results on the evaluation set:
16
+ - Loss: 0.4769
17
+ - Wer: 0.4203
18
 
19
+ ## Model description
 
 
 
 
 
 
 
 
 
20
 
21
+ More information needed
22
 
23
+ ## Intended uses & limitations
 
24
 
25
+ More information needed
26
+
27
+ ## Training and evaluation data
28
+
29
+ More information needed
30
+
31
+ ## Training procedure
32
+
33
+ ### Training hyperparameters
34
+
35
+ The following hyperparameters were used during training:
36
+ - learning_rate: 1e-06
37
+ - train_batch_size: 1
38
+ - eval_batch_size: 8
39
+ - seed: 42
40
+ - optimizer: Adam with betas=(0.9,0.999) and epsilon=1e-08
41
+ - lr_scheduler_type: linear
42
+ - lr_scheduler_warmup_steps: 1000
43
+ - num_epochs: 1
44
+ - mixed_precision_training: Native AMP
45
+
46
+ ### Training results
47
+
48
+ | Training Loss | Epoch | Step | Validation Loss | Wer |
49
+ |:-------------:|:-----:|:----:|:---------------:|:------:|
50
+ | 0.4752 | 0.21 | 1000 | 0.4760 | 0.4203 |
51
+ | 0.4993 | 0.42 | 2000 | 0.4820 | 0.4167 |
52
+ | 0.4825 | 0.64 | 3000 | 0.4809 | 0.4215 |
53
+ | 0.4892 | 0.85 | 4000 | 0.4769 | 0.4203 |
54
+
55
+
56
+ ### Framework versions
57
+
58
+ - Transformers 4.20.0
59
+ - Pytorch 1.11.0+cu113
60
+ - Datasets 2.3.2
61
+ - Tokenizers 0.12.1