kevinwang676 commited on
Commit
b64ce94
·
verified ·
1 Parent(s): ca53f73

Add files using upload-large-folder tool

Browse files
Files changed (47) hide show
  1. .gitattributes +1 -0
  2. Docker/damo.sha256 +3 -0
  3. Docker/download.py +8 -0
  4. Docker/download.sh +11 -0
  5. Docker/links.sha256 +12 -0
  6. Docker/links.txt +34 -0
  7. GPT_SoVITS/pretrained_models/chinese-hubert-base/pytorch_model.bin +3 -0
  8. GPT_SoVITS/pretrained_models/chinese-roberta-wwm-ext-large/pytorch_model.bin +3 -0
  9. GPT_SoVITS/pretrained_models/fast_langdetect/lid.176.bin +3 -0
  10. GPT_SoVITS/pretrained_models/gsv-v2final-pretrained/s1bert25hz-5kh-longer-epoch=12-step=369668.ckpt +3 -0
  11. GPT_SoVITS/pretrained_models/gsv-v2final-pretrained/s2D2333k.pth +3 -0
  12. GPT_SoVITS/pretrained_models/gsv-v2final-pretrained/s2G2333k.pth +3 -0
  13. GPT_SoVITS/pretrained_models/gsv-v4-pretrained/s2Gv4.pth +3 -0
  14. GPT_SoVITS/pretrained_models/gsv-v4-pretrained/vocoder.pth +3 -0
  15. GPT_SoVITS/pretrained_models/models--nvidia--bigvgan_v2_24khz_100band_256x/bigvgan_generator.pt +3 -0
  16. GPT_SoVITS/text/G2PWModel/g2pW.onnx +3 -0
  17. GPT_SoVITS/text/engdict_cache.pickle +3 -0
  18. GPT_SoVITS/text/g2pw/polyphonic.pickle +3 -0
  19. GPT_SoVITS/text/ja_userdic/userdict.csv +3 -0
  20. GPT_SoVITS/text/namedict_cache.pickle +3 -0
  21. tools/AP_BWE_main/24kto48k/readme.txt +11 -0
  22. tools/AP_BWE_main/LICENSE +21 -0
  23. tools/AP_BWE_main/README.md +91 -0
  24. tools/AP_BWE_main/datasets1/__init__.py +1 -0
  25. tools/AP_BWE_main/datasets1/dataset.py +108 -0
  26. tools/AP_BWE_main/models/__init__.py +1 -0
  27. tools/AP_BWE_main/models/model.py +464 -0
  28. tools/asr/config.py +36 -0
  29. tools/asr/fasterwhisper_asr.py +129 -0
  30. tools/asr/funasr_asr.py +118 -0
  31. tools/asr/models/.gitignore +2 -0
  32. tools/denoise-model/.gitignore +2 -0
  33. tools/i18n/i18n.py +41 -0
  34. tools/i18n/locale/en_US.json +211 -0
  35. tools/i18n/locale/es_ES.json +211 -0
  36. tools/i18n/locale/fr_FR.json +211 -0
  37. tools/i18n/locale/it_IT.json +211 -0
  38. tools/i18n/locale/ja_JP.json +211 -0
  39. tools/i18n/locale/ko_KR.json +211 -0
  40. tools/i18n/locale/pt_BR.json +211 -0
  41. tools/i18n/locale/ru_RU.json +211 -0
  42. tools/i18n/locale/tr_TR.json +211 -0
  43. tools/i18n/locale/zh_CN.json +211 -0
  44. tools/i18n/locale/zh_HK.json +211 -0
  45. tools/i18n/locale/zh_SG.json +211 -0
  46. tools/i18n/locale/zh_TW.json +211 -0
  47. tools/i18n/scan_i18n.py +137 -0
.gitattributes CHANGED
@@ -33,3 +33,4 @@ saved_model/**/* filter=lfs diff=lfs merge=lfs -text
33
  *.zip filter=lfs diff=lfs merge=lfs -text
34
  *.zst filter=lfs diff=lfs merge=lfs -text
35
  *tfevents* filter=lfs diff=lfs merge=lfs -text
 
 
33
  *.zip filter=lfs diff=lfs merge=lfs -text
34
  *.zst filter=lfs diff=lfs merge=lfs -text
35
  *tfevents* filter=lfs diff=lfs merge=lfs -text
36
+ GPT_SoVITS/text/ja_userdic/userdict.csv filter=lfs diff=lfs merge=lfs -text
Docker/damo.sha256 ADDED
@@ -0,0 +1,3 @@
 
 
 
 
1
+ 5bba782a5e9196166233b9ab12ba04cadff9ef9212b4ff6153ed9290ff679025 /workspace/tools/damo_asr/models/speech_paraformer-large_asr_nat-zh-cn-16k-common-vocab8404-pytorch/model.pb
2
+ b3be75be477f0780277f3bae0fe489f48718f585f3a6e45d7dd1fbb1a4255fc5 /workspace/tools/damo_asr/models/speech_fsmn_vad_zh-cn-16k-common-pytorch/model.pb
3
+ a5818bb9d933805a916eebe41eb41648f7f9caad30b4bd59d56f3ca135421916 /workspace/tools/damo_asr/models/punc_ct-transformer_zh-cn-common-vocab272727-pytorch/model.pb
Docker/download.py ADDED
@@ -0,0 +1,8 @@
 
 
 
 
 
 
 
 
 
1
+ # Download moda ASR related models
2
+ from modelscope import snapshot_download
3
+
4
+ model_dir = snapshot_download(
5
+ "damo/speech_paraformer-large_asr_nat-zh-cn-16k-common-vocab8404-pytorch", revision="v2.0.4"
6
+ )
7
+ model_dir = snapshot_download("damo/speech_fsmn_vad_zh-cn-16k-common-pytorch", revision="v2.0.4")
8
+ model_dir = snapshot_download("damo/punc_ct-transformer_zh-cn-common-vocab272727-pytorch", revision="v2.0.4")
Docker/download.sh ADDED
@@ -0,0 +1,11 @@
 
 
 
 
 
 
 
 
 
 
 
 
1
+ #!/usr/bin/env bash
2
+
3
+ set -Eeuo pipefail
4
+
5
+ echo "Downloading models..."
6
+
7
+ aria2c --disable-ipv6 --input-file /workspace/Docker/links.txt --dir /workspace --continue
8
+
9
+ echo "Checking SHA256..."
10
+
11
+ parallel --will-cite -a /workspace/Docker/links.sha256 "echo -n {} | sha256sum -c"
Docker/links.sha256 ADDED
@@ -0,0 +1,12 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ b1c1e17e9c99547a89388f72048cd6e1b41b5a18b170e86a46dfde0324d63eb1 /workspace/GPT_SoVITS/pretrained_models/s1bert25hz-2kh-longer-epoch=68e-step=50232.ckpt
2
+ fc579c1db3c1e21b721001cf99d7a584214280df19b002e200b630a34fa06eb8 /workspace/GPT_SoVITS/pretrained_models/s2D488k.pth
3
+ 020a014e1e01e550e510f2f61fae5e5f5b6aab40f15c22f1f12f724df507e835 /workspace/GPT_SoVITS/pretrained_models/s2G488k.pth
4
+ 24164f129c66499d1346e2aa55f183250c223161ec2770c0da3d3b08cf432d3c /workspace/GPT_SoVITS/pretrained_models/chinese-hubert-base/pytorch_model.bin
5
+ e53a693acc59ace251d143d068096ae0d7b79e4b1b503fa84c9dcf576448c1d8 /workspace/GPT_SoVITS/pretrained_models/chinese-roberta-wwm-ext-large/pytorch_model.bin
6
+ 39796caa5db18d7f9382d8ac997ac967bfd85f7761014bb807d2543cc844ef05 /workspace/tools/uvr5/uvr5_weights/HP2_all_vocals.pth
7
+ 45e6b65199e781b4a6542002699be9f19cd3d1cb7d1558bc2bfbcd84674dfe28 /workspace/tools/uvr5/uvr5_weights/HP3_all_vocals.pth
8
+ 5908891829634926119720241e8573d97cbeb8277110a7512bdb0bd7563258ee /workspace/tools/uvr5/uvr5_weights/HP5_only_main_vocal.pth
9
+ 8c8fd1582f9aabc363e47af62ddb88df6cae7e064cae75bbf041a067a5e0aee2 /workspace/tools/uvr5/uvr5_weights/VR-DeEchoAggressive.pth
10
+ 01376dd2a571bf3cb9cced680732726d2d732609d09216a610b0d110f133febe /workspace/tools/uvr5/uvr5_weights/VR-DeEchoDeReverb.pth
11
+ 56aba59db3bcdd14a14464e62f3129698ecdea62eee0f003b9360923eb3ac79e /workspace/tools/uvr5/uvr5_weights/VR-DeEchoNormal.pth
12
+ 233bb5c6aaa365e568659a0a81211746fa881f8f47f82d9e864fce1f7692db80 /workspace/tools/uvr5/uvr5_weights/onnx_dereverb_By_FoxJoy/vocals.onnx
Docker/links.txt ADDED
@@ -0,0 +1,34 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ # GPT-SoVITS models
2
+ https://huggingface.co/lj1995/GPT-SoVITS/resolve/main/s1bert25hz-2kh-longer-epoch%3D68e-step%3D50232.ckpt
3
+ out=GPT_SoVITS/pretrained_models/s1bert25hz-2kh-longer-epoch=68e-step=50232.ckpt
4
+ https://huggingface.co/lj1995/GPT-SoVITS/resolve/main/s2D488k.pth
5
+ out=GPT_SoVITS/pretrained_models/s2D488k.pth
6
+ https://huggingface.co/lj1995/GPT-SoVITS/resolve/main/s2G488k.pth
7
+ out=GPT_SoVITS/pretrained_models/s2G488k.pth
8
+ https://huggingface.co/lj1995/GPT-SoVITS/resolve/main/chinese-hubert-base/config.json
9
+ out=GPT_SoVITS/pretrained_models/chinese-hubert-base/config.json
10
+ https://huggingface.co/lj1995/GPT-SoVITS/resolve/main/chinese-hubert-base/preprocessor_config.json
11
+ out=GPT_SoVITS/pretrained_models/chinese-hubert-base/preprocessor_config.json
12
+ https://huggingface.co/lj1995/GPT-SoVITS/resolve/main/chinese-hubert-base/pytorch_model.bin
13
+ out=GPT_SoVITS/pretrained_models/chinese-hubert-base/pytorch_model.bin
14
+ https://huggingface.co/lj1995/GPT-SoVITS/resolve/main/chinese-roberta-wwm-ext-large/config.json
15
+ out=GPT_SoVITS/pretrained_models/chinese-roberta-wwm-ext-large/config.json
16
+ https://huggingface.co/lj1995/GPT-SoVITS/resolve/main/chinese-roberta-wwm-ext-large/pytorch_model.bin
17
+ out=GPT_SoVITS/pretrained_models/chinese-roberta-wwm-ext-large/pytorch_model.bin
18
+ https://huggingface.co/lj1995/GPT-SoVITS/resolve/main/chinese-roberta-wwm-ext-large/tokenizer.json
19
+ out=GPT_SoVITS/pretrained_models/chinese-roberta-wwm-ext-large/tokenizer.json
20
+ # UVR5
21
+ https://huggingface.co/lj1995/VoiceConversionWebUI/resolve/main/uvr5_weights/HP2_all_vocals.pth
22
+ out=tools/uvr5/uvr5_weights/HP2_all_vocals.pth
23
+ https://huggingface.co/lj1995/VoiceConversionWebUI/resolve/main/uvr5_weights/HP3_all_vocals.pth
24
+ out=tools/uvr5/uvr5_weights/HP3_all_vocals.pth
25
+ https://huggingface.co/lj1995/VoiceConversionWebUI/resolve/main/uvr5_weights/HP5_only_main_vocal.pth
26
+ out=tools/uvr5/uvr5_weights/HP5_only_main_vocal.pth
27
+ https://huggingface.co/lj1995/VoiceConversionWebUI/resolve/main/uvr5_weights/VR-DeEchoAggressive.pth
28
+ out=tools/uvr5/uvr5_weights/VR-DeEchoAggressive.pth
29
+ https://huggingface.co/lj1995/VoiceConversionWebUI/resolve/main/uvr5_weights/VR-DeEchoDeReverb.pth
30
+ out=tools/uvr5/uvr5_weights/VR-DeEchoDeReverb.pth
31
+ https://huggingface.co/lj1995/VoiceConversionWebUI/resolve/main/uvr5_weights/VR-DeEchoNormal.pth
32
+ out=tools/uvr5/uvr5_weights/VR-DeEchoNormal.pth
33
+ https://huggingface.co/lj1995/VoiceConversionWebUI/resolve/main/uvr5_weights/onnx_dereverb_By_FoxJoy/vocals.onnx
34
+ out=tools/uvr5/uvr5_weights/onnx_dereverb_By_FoxJoy/vocals.onnx
GPT_SoVITS/pretrained_models/chinese-hubert-base/pytorch_model.bin ADDED
@@ -0,0 +1,3 @@
 
 
 
 
1
+ version https://git-lfs.github.com/spec/v1
2
+ oid sha256:24164f129c66499d1346e2aa55f183250c223161ec2770c0da3d3b08cf432d3c
3
+ size 188811417
GPT_SoVITS/pretrained_models/chinese-roberta-wwm-ext-large/pytorch_model.bin ADDED
@@ -0,0 +1,3 @@
 
 
 
 
1
+ version https://git-lfs.github.com/spec/v1
2
+ oid sha256:e53a693acc59ace251d143d068096ae0d7b79e4b1b503fa84c9dcf576448c1d8
3
+ size 651225145
GPT_SoVITS/pretrained_models/fast_langdetect/lid.176.bin ADDED
@@ -0,0 +1,3 @@
 
 
 
 
1
+ version https://git-lfs.github.com/spec/v1
2
+ oid sha256:7e69ec5451bc261cc7844e49e4792a85d7f09c06789ec800fc4a44aec362764e
3
+ size 131266198
GPT_SoVITS/pretrained_models/gsv-v2final-pretrained/s1bert25hz-5kh-longer-epoch=12-step=369668.ckpt ADDED
@@ -0,0 +1,3 @@
 
 
 
 
1
+ version https://git-lfs.github.com/spec/v1
2
+ oid sha256:732f94e63b148066e24c7f9d2637f3374083e637635f07fbdb695dee20ddbe1f
3
+ size 155315150
GPT_SoVITS/pretrained_models/gsv-v2final-pretrained/s2D2333k.pth ADDED
@@ -0,0 +1,3 @@
 
 
 
 
1
+ version https://git-lfs.github.com/spec/v1
2
+ oid sha256:8ae7fe8dd8c8f2e718de359e00edac88b0c71ab2fd10b07ad4cc45070eb8a836
3
+ size 93534164
GPT_SoVITS/pretrained_models/gsv-v2final-pretrained/s2G2333k.pth ADDED
@@ -0,0 +1,3 @@
 
 
 
 
1
+ version https://git-lfs.github.com/spec/v1
2
+ oid sha256:924fdccaa3c574bf139c25c9759aa1ed3b3f99e19a7c529ee996c2bc17663695
3
+ size 106035259
GPT_SoVITS/pretrained_models/gsv-v4-pretrained/s2Gv4.pth ADDED
@@ -0,0 +1,3 @@
 
 
 
 
1
+ version https://git-lfs.github.com/spec/v1
2
+ oid sha256:906fe22f48c3e037a389df291d4d32a9414e15dbb8f9628643e83aaced109ea4
3
+ size 769025545
GPT_SoVITS/pretrained_models/gsv-v4-pretrained/vocoder.pth ADDED
@@ -0,0 +1,3 @@
 
 
 
 
1
+ version https://git-lfs.github.com/spec/v1
2
+ oid sha256:4d611913df7b12d49e8976c944558d2d096816365edfc6c35a9e85b67dd14ed9
3
+ size 57781109
GPT_SoVITS/pretrained_models/models--nvidia--bigvgan_v2_24khz_100band_256x/bigvgan_generator.pt ADDED
@@ -0,0 +1,3 @@
 
 
 
 
1
+ version https://git-lfs.github.com/spec/v1
2
+ oid sha256:ee5e2f9cd60b51db75e1806f4fe7621733757586c541c78cb3dd369d5ba24476
3
+ size 225179685
GPT_SoVITS/text/G2PWModel/g2pW.onnx ADDED
@@ -0,0 +1,3 @@
 
 
 
 
1
+ version https://git-lfs.github.com/spec/v1
2
+ oid sha256:2eb3c71fd95117b2e1abef8d2d0cd78aae894bbe7f0fac105ddc9c32ce63cbd0
3
+ size 635212732
GPT_SoVITS/text/engdict_cache.pickle ADDED
@@ -0,0 +1,3 @@
 
 
 
 
1
+ version https://git-lfs.github.com/spec/v1
2
+ oid sha256:9bff9393f4b192d873a11335efc8f124771087b6dc847d34fd240c2846889d2b
3
+ size 5965909
GPT_SoVITS/text/g2pw/polyphonic.pickle ADDED
@@ -0,0 +1,3 @@
 
 
 
 
1
+ version https://git-lfs.github.com/spec/v1
2
+ oid sha256:f425246160a32c578557cd3151cd0bb97f5f44c3aaf65e718dd2c3213c04fb4b
3
+ size 1322387
GPT_SoVITS/text/ja_userdic/userdict.csv ADDED
@@ -0,0 +1,3 @@
 
 
 
 
1
+ version https://git-lfs.github.com/spec/v1
2
+ oid sha256:d857e443ee48d9641096816a98996669602895411e4330d7d91d1dbe1103389f
3
+ size 17180971
GPT_SoVITS/text/namedict_cache.pickle ADDED
@@ -0,0 +1,3 @@
 
 
 
 
1
+ version https://git-lfs.github.com/spec/v1
2
+ oid sha256:559552094c4a6e995213e3fa586330e078ef8cb3a7a95a3109e945111cd2bfc1
3
+ size 760663
tools/AP_BWE_main/24kto48k/readme.txt ADDED
@@ -0,0 +1,11 @@
 
 
 
 
 
 
 
 
 
 
 
 
1
+ For the inference of the v3 model, if you find that the generated audio sounds somewhat muffled, you can try using this audio super-resolution model.
2
+ 对于v3模型的推理,如果你发现生成的音频比较闷,可以尝试这个音频超分模型。
3
+
4
+ put g_24kto48k.zip and config.json in this folder
5
+ 把g_24kto48k.zip and config.json下到这个文件夹
6
+
7
+ download link 下载链接:
8
+ https://drive.google.com/drive/folders/1IIYTf2zbJWzelu4IftKD6ooHloJ8mnZF?usp=share_link
9
+
10
+ audio sr project page 音频超分项目主页:
11
+ https://github.com/yxlu-0102/AP-BWE
tools/AP_BWE_main/LICENSE ADDED
@@ -0,0 +1,21 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ MIT License
2
+
3
+ Copyright (c) 2023 Ye-Xin Lu
4
+
5
+ Permission is hereby granted, free of charge, to any person obtaining a copy
6
+ of this software and associated documentation files (the "Software"), to deal
7
+ in the Software without restriction, including without limitation the rights
8
+ to use, copy, modify, merge, publish, distribute, sublicense, and/or sell
9
+ copies of the Software, and to permit persons to whom the Software is
10
+ furnished to do so, subject to the following conditions:
11
+
12
+ The above copyright notice and this permission notice shall be included in all
13
+ copies or substantial portions of the Software.
14
+
15
+ THE SOFTWARE IS PROVIDED "AS IS", WITHOUT WARRANTY OF ANY KIND, EXPRESS OR
16
+ IMPLIED, INCLUDING BUT NOT LIMITED TO THE WARRANTIES OF MERCHANTABILITY,
17
+ FITNESS FOR A PARTICULAR PURPOSE AND NONINFRINGEMENT. IN NO EVENT SHALL THE
18
+ AUTHORS OR COPYRIGHT HOLDERS BE LIABLE FOR ANY CLAIM, DAMAGES OR OTHER
19
+ LIABILITY, WHETHER IN AN ACTION OF CONTRACT, TORT OR OTHERWISE, ARISING FROM,
20
+ OUT OF OR IN CONNECTION WITH THE SOFTWARE OR THE USE OR OTHER DEALINGS IN THE
21
+ SOFTWARE.
tools/AP_BWE_main/README.md ADDED
@@ -0,0 +1,91 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ # Towards High-Quality and Efficient Speech Bandwidth Extension with Parallel Amplitude and Phase Prediction
2
+ ### Ye-Xin Lu, Yang Ai, Hui-Peng Du, Zhen-Hua Ling
3
+
4
+ **Abstract:**
5
+ Speech bandwidth extension (BWE) refers to widening the frequency bandwidth range of speech signals, enhancing the speech quality towards brighter and fuller.
6
+ This paper proposes a generative adversarial network (GAN) based BWE model with parallel prediction of Amplitude and Phase spectra, named AP-BWE, which achieves both high-quality and efficient wideband speech waveform generation.
7
+ The proposed AP-BWE generator is entirely based on convolutional neural networks (CNNs).
8
+ It features a dual-stream architecture with mutual interaction, where the amplitude stream and the phase stream communicate with each other and respectively extend the high-frequency components from the input narrowband amplitude and phase spectra.
9
+ To improve the naturalness of the extended speech signals, we employ a multi-period discriminator at the waveform level and design a pair of multi-resolution amplitude and phase discriminators at the spectral level, respectively.
10
+ Experimental results demonstrate that our proposed AP-BWE achieves state-of-the-art performance in terms of speech quality for BWE tasks targeting sampling rates of both 16 kHz and 48 kHz.
11
+ In terms of generation efficiency, due to the all-convolutional architecture and all-frame-level operations, the proposed AP-BWE can generate 48 kHz waveform samples 292.3 times faster than real-time on a single RTX 4090 GPU and 18.1 times faster than real-time on a single CPU.
12
+ Notably, to our knowledge, AP-BWE is the first to achieve the direct extension of the high-frequency phase spectrum, which is beneficial for improving the effectiveness of existing BWE methods.
13
+
14
+ **We provide our implementation as open source in this repository. Audio samples can be found at the [demo website](http://yxlu-0102.github.io/AP-BWE).**
15
+
16
+
17
+ ## Pre-requisites
18
+ 0. Python >= 3.9.
19
+ 0. Clone this repository.
20
+ 0. Install python requirements. Please refer [requirements.txt](requirements.txt).
21
+ 0. Download datasets
22
+ 1. Download and extract the [VCTK-0.92 dataset](https://datashare.ed.ac.uk/handle/10283/3443), and move its `wav48` directory into [VCTK-Corpus-0.92](VCTK-Corpus-0.92) and rename it as `wav48_origin`.
23
+ 1. Trim the silence of the dataset, and the trimmed files will be saved to `wav48_silence_trimmed`.
24
+ ```
25
+ cd VCTK-Corpus-0.92
26
+ python flac2wav.py
27
+ ```
28
+ 1. Move all the trimmed training files from `wav48_silence_trimmed` to [wav48/train](wav48/train) following the indexes in [training.txt](VCTK-Corpus-0.92/training.txt), and move all the untrimmed test files from `wav48_origin` to [wav48/test](wav48/test) following the indexes in [test.txt](VCTK-Corpus-0.92/test.txt).
29
+
30
+ ## Training
31
+ ```
32
+ cd train
33
+ CUDA_VISIBLE_DEVICES=0 python train_16k.py --config [config file path]
34
+ CUDA_VISIBLE_DEVICES=0 python train_48k.py --config [config file path]
35
+ ```
36
+ Checkpoints and copies of the configuration file are saved in the `cp_model` directory by default.<br>
37
+ You can change the path by using the `--checkpoint_path` option.
38
+ Here is an example:
39
+ ```
40
+ CUDA_VISIBLE_DEVICES=0 python train_16k.py --config ../configs/config_2kto16k.json --checkpoint_path ../checkpoints/AP-BWE_2kto16k
41
+ ```
42
+
43
+ ## Inference
44
+ ```
45
+ cd inference
46
+ python inference_16k.py --checkpoint_file [generator checkpoint file path]
47
+ python inference_48k.py --checkpoint_file [generator checkpoint file path]
48
+ ```
49
+ You can download the [pretrained weights](https://drive.google.com/drive/folders/1IIYTf2zbJWzelu4IftKD6ooHloJ8mnZF?usp=share_link) we provide and move all the files to the `checkpoints` directory.
50
+ <br>
51
+ Generated wav files are saved in `generated_files` by default.
52
+ You can change the path by adding `--output_dir` option.
53
+ Here is an example:
54
+ ```
55
+ python inference_16k.py --checkpoint_file ../checkpoints/2kto16k/g_2kto16k --output_dir ../generated_files/2kto16k
56
+ ```
57
+
58
+ ## Model Structure
59
+ ![model](Figures/model.png)
60
+
61
+ ## Comparison with other speech BWE methods
62
+ ### 2k/4k/8kHz to 16kHz
63
+ <p align="center">
64
+ <img src="Figures/table_16k.png" alt="comparison" width="90%"/>
65
+ </p>
66
+
67
+ ### 8k/12k/16/24kHz to 16kHz
68
+ <p align="center">
69
+ <img src="Figures/table_48k.png" alt="comparison" width="100%"/>
70
+ </p>
71
+
72
+ ## Acknowledgements
73
+ We referred to [HiFi-GAN](https://github.com/jik876/hifi-gan) and [NSPP](https://github.com/YangAi520/NSPP) to implement this.
74
+
75
+ ## Citation
76
+ ```
77
+ @article{lu2024towards,
78
+ title={Towards high-quality and efficient speech bandwidth extension with parallel amplitude and phase prediction},
79
+ author={Lu, Ye-Xin and Ai, Yang and Du, Hui-Peng and Ling, Zhen-Hua},
80
+ journal={arXiv preprint arXiv:2401.06387},
81
+ year={2024}
82
+ }
83
+
84
+ @inproceedings{lu2024multi,
85
+ title={Multi-Stage Speech Bandwidth Extension with Flexible Sampling Rate Control},
86
+ author={Lu, Ye-Xin and Ai, Yang and Sheng, Zheng-Yan and Ling, Zhen-Hua},
87
+ booktitle={Proc. Interspeech},
88
+ pages={2270--2274},
89
+ year={2024}
90
+ }
91
+ ```
tools/AP_BWE_main/datasets1/__init__.py ADDED
@@ -0,0 +1 @@
 
 
1
+
tools/AP_BWE_main/datasets1/dataset.py ADDED
@@ -0,0 +1,108 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ import os
2
+ import random
3
+ import torch
4
+ import torchaudio
5
+ import torch.utils.data
6
+ import torchaudio.functional as aF
7
+
8
+
9
+ def amp_pha_stft(audio, n_fft, hop_size, win_size, center=True):
10
+ hann_window = torch.hann_window(win_size).to(audio.device)
11
+ stft_spec = torch.stft(
12
+ audio,
13
+ n_fft,
14
+ hop_length=hop_size,
15
+ win_length=win_size,
16
+ window=hann_window,
17
+ center=center,
18
+ pad_mode="reflect",
19
+ normalized=False,
20
+ return_complex=True,
21
+ )
22
+ log_amp = torch.log(torch.abs(stft_spec) + 1e-4)
23
+ pha = torch.angle(stft_spec)
24
+
25
+ com = torch.stack((torch.exp(log_amp) * torch.cos(pha), torch.exp(log_amp) * torch.sin(pha)), dim=-1)
26
+
27
+ return log_amp, pha, com
28
+
29
+
30
+ def amp_pha_istft(log_amp, pha, n_fft, hop_size, win_size, center=True):
31
+ amp = torch.exp(log_amp)
32
+ com = torch.complex(amp * torch.cos(pha), amp * torch.sin(pha))
33
+ hann_window = torch.hann_window(win_size).to(com.device)
34
+ audio = torch.istft(com, n_fft, hop_length=hop_size, win_length=win_size, window=hann_window, center=center)
35
+
36
+ return audio
37
+
38
+
39
+ def get_dataset_filelist(a):
40
+ with open(a.input_training_file, "r", encoding="utf-8") as fi:
41
+ training_indexes = [x.split("|")[0] for x in fi.read().split("\n") if len(x) > 0]
42
+
43
+ with open(a.input_validation_file, "r", encoding="utf-8") as fi:
44
+ validation_indexes = [x.split("|")[0] for x in fi.read().split("\n") if len(x) > 0]
45
+
46
+ return training_indexes, validation_indexes
47
+
48
+
49
+ class Dataset(torch.utils.data.Dataset):
50
+ def __init__(
51
+ self,
52
+ training_indexes,
53
+ wavs_dir,
54
+ segment_size,
55
+ hr_sampling_rate,
56
+ lr_sampling_rate,
57
+ split=True,
58
+ shuffle=True,
59
+ n_cache_reuse=1,
60
+ device=None,
61
+ ):
62
+ self.audio_indexes = training_indexes
63
+ random.seed(1234)
64
+ if shuffle:
65
+ random.shuffle(self.audio_indexes)
66
+ self.wavs_dir = wavs_dir
67
+ self.segment_size = segment_size
68
+ self.hr_sampling_rate = hr_sampling_rate
69
+ self.lr_sampling_rate = lr_sampling_rate
70
+ self.split = split
71
+ self.cached_wav = None
72
+ self.n_cache_reuse = n_cache_reuse
73
+ self._cache_ref_count = 0
74
+ self.device = device
75
+
76
+ def __getitem__(self, index):
77
+ filename = self.audio_indexes[index]
78
+ if self._cache_ref_count == 0:
79
+ audio, orig_sampling_rate = torchaudio.load(os.path.join(self.wavs_dir, filename + ".wav"))
80
+ self.cached_wav = audio
81
+ self._cache_ref_count = self.n_cache_reuse
82
+ else:
83
+ audio = self.cached_wav
84
+ self._cache_ref_count -= 1
85
+
86
+ if orig_sampling_rate == self.hr_sampling_rate:
87
+ audio_hr = audio
88
+ else:
89
+ audio_hr = aF.resample(audio, orig_freq=orig_sampling_rate, new_freq=self.hr_sampling_rate)
90
+
91
+ audio_lr = aF.resample(audio, orig_freq=orig_sampling_rate, new_freq=self.lr_sampling_rate)
92
+ audio_lr = aF.resample(audio_lr, orig_freq=self.lr_sampling_rate, new_freq=self.hr_sampling_rate)
93
+ audio_lr = audio_lr[:, : audio_hr.size(1)]
94
+
95
+ if self.split:
96
+ if audio_hr.size(1) >= self.segment_size:
97
+ max_audio_start = audio_hr.size(1) - self.segment_size
98
+ audio_start = random.randint(0, max_audio_start)
99
+ audio_hr = audio_hr[:, audio_start : audio_start + self.segment_size]
100
+ audio_lr = audio_lr[:, audio_start : audio_start + self.segment_size]
101
+ else:
102
+ audio_hr = torch.nn.functional.pad(audio_hr, (0, self.segment_size - audio_hr.size(1)), "constant")
103
+ audio_lr = torch.nn.functional.pad(audio_lr, (0, self.segment_size - audio_lr.size(1)), "constant")
104
+
105
+ return (audio_hr.squeeze(), audio_lr.squeeze())
106
+
107
+ def __len__(self):
108
+ return len(self.audio_indexes)
tools/AP_BWE_main/models/__init__.py ADDED
@@ -0,0 +1 @@
 
 
1
+
tools/AP_BWE_main/models/model.py ADDED
@@ -0,0 +1,464 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ import torch
2
+ import torch.nn.functional as F
3
+ import torch.nn as nn
4
+ from torch.nn.utils import weight_norm, spectral_norm
5
+
6
+
7
+ # from utils import init_weights, get_padding
8
+ def get_padding(kernel_size, dilation=1):
9
+ return int((kernel_size * dilation - dilation) / 2)
10
+
11
+
12
+ def init_weights(m, mean=0.0, std=0.01):
13
+ classname = m.__class__.__name__
14
+ if classname.find("Conv") != -1:
15
+ m.weight.data.normal_(mean, std)
16
+
17
+
18
+ import numpy as np
19
+ from typing import Tuple, List
20
+
21
+ LRELU_SLOPE = 0.1
22
+
23
+
24
+ class ConvNeXtBlock(nn.Module):
25
+ """ConvNeXt Block adapted from https://github.com/facebookresearch/ConvNeXt to 1D audio signal.
26
+
27
+ Args:
28
+ dim (int): Number of input channels.
29
+ intermediate_dim (int): Dimensionality of the intermediate layer.
30
+ layer_scale_init_value (float, optional): Initial value for the layer scale. None means no scaling.
31
+ Defaults to None.
32
+ adanorm_num_embeddings (int, optional): Number of embeddings for AdaLayerNorm.
33
+ None means non-conditional LayerNorm. Defaults to None.
34
+ """
35
+
36
+ def __init__(
37
+ self,
38
+ dim: int,
39
+ layer_scale_init_value=None,
40
+ adanorm_num_embeddings=None,
41
+ ):
42
+ super().__init__()
43
+ self.dwconv = nn.Conv1d(dim, dim, kernel_size=7, padding=3, groups=dim) # depthwise conv
44
+ self.adanorm = adanorm_num_embeddings is not None
45
+
46
+ self.norm = nn.LayerNorm(dim, eps=1e-6)
47
+ self.pwconv1 = nn.Linear(dim, dim * 3) # pointwise/1x1 convs, implemented with linear layers
48
+ self.act = nn.GELU()
49
+ self.pwconv2 = nn.Linear(dim * 3, dim)
50
+ self.gamma = (
51
+ nn.Parameter(layer_scale_init_value * torch.ones(dim), requires_grad=True)
52
+ if layer_scale_init_value > 0
53
+ else None
54
+ )
55
+
56
+ def forward(self, x, cond_embedding_id=None):
57
+ residual = x
58
+ x = self.dwconv(x)
59
+ x = x.transpose(1, 2) # (B, C, T) -> (B, T, C)
60
+ if self.adanorm:
61
+ assert cond_embedding_id is not None
62
+ x = self.norm(x, cond_embedding_id)
63
+ else:
64
+ x = self.norm(x)
65
+ x = self.pwconv1(x)
66
+ x = self.act(x)
67
+ x = self.pwconv2(x)
68
+ if self.gamma is not None:
69
+ x = self.gamma * x
70
+ x = x.transpose(1, 2) # (B, T, C) -> (B, C, T)
71
+
72
+ x = residual + x
73
+ return x
74
+
75
+
76
+ class APNet_BWE_Model(torch.nn.Module):
77
+ def __init__(self, h):
78
+ super(APNet_BWE_Model, self).__init__()
79
+ self.h = h
80
+ self.adanorm_num_embeddings = None
81
+ layer_scale_init_value = 1 / h.ConvNeXt_layers
82
+
83
+ self.conv_pre_mag = nn.Conv1d(h.n_fft // 2 + 1, h.ConvNeXt_channels, 7, 1, padding=get_padding(7, 1))
84
+ self.norm_pre_mag = nn.LayerNorm(h.ConvNeXt_channels, eps=1e-6)
85
+ self.conv_pre_pha = nn.Conv1d(h.n_fft // 2 + 1, h.ConvNeXt_channels, 7, 1, padding=get_padding(7, 1))
86
+ self.norm_pre_pha = nn.LayerNorm(h.ConvNeXt_channels, eps=1e-6)
87
+
88
+ self.convnext_mag = nn.ModuleList(
89
+ [
90
+ ConvNeXtBlock(
91
+ dim=h.ConvNeXt_channels,
92
+ layer_scale_init_value=layer_scale_init_value,
93
+ adanorm_num_embeddings=self.adanorm_num_embeddings,
94
+ )
95
+ for _ in range(h.ConvNeXt_layers)
96
+ ]
97
+ )
98
+
99
+ self.convnext_pha = nn.ModuleList(
100
+ [
101
+ ConvNeXtBlock(
102
+ dim=h.ConvNeXt_channels,
103
+ layer_scale_init_value=layer_scale_init_value,
104
+ adanorm_num_embeddings=self.adanorm_num_embeddings,
105
+ )
106
+ for _ in range(h.ConvNeXt_layers)
107
+ ]
108
+ )
109
+
110
+ self.norm_post_mag = nn.LayerNorm(h.ConvNeXt_channels, eps=1e-6)
111
+ self.norm_post_pha = nn.LayerNorm(h.ConvNeXt_channels, eps=1e-6)
112
+ self.apply(self._init_weights)
113
+ self.linear_post_mag = nn.Linear(h.ConvNeXt_channels, h.n_fft // 2 + 1)
114
+ self.linear_post_pha_r = nn.Linear(h.ConvNeXt_channels, h.n_fft // 2 + 1)
115
+ self.linear_post_pha_i = nn.Linear(h.ConvNeXt_channels, h.n_fft // 2 + 1)
116
+
117
+ def _init_weights(self, m):
118
+ if isinstance(m, (nn.Conv1d, nn.Linear)):
119
+ nn.init.trunc_normal_(m.weight, std=0.02)
120
+ nn.init.constant_(m.bias, 0)
121
+
122
+ def forward(self, mag_nb, pha_nb):
123
+ x_mag = self.conv_pre_mag(mag_nb)
124
+ x_pha = self.conv_pre_pha(pha_nb)
125
+ x_mag = self.norm_pre_mag(x_mag.transpose(1, 2)).transpose(1, 2)
126
+ x_pha = self.norm_pre_pha(x_pha.transpose(1, 2)).transpose(1, 2)
127
+
128
+ for conv_block_mag, conv_block_pha in zip(self.convnext_mag, self.convnext_pha):
129
+ x_mag = x_mag + x_pha
130
+ x_pha = x_pha + x_mag
131
+ x_mag = conv_block_mag(x_mag, cond_embedding_id=None)
132
+ x_pha = conv_block_pha(x_pha, cond_embedding_id=None)
133
+
134
+ x_mag = self.norm_post_mag(x_mag.transpose(1, 2))
135
+ mag_wb = mag_nb + self.linear_post_mag(x_mag).transpose(1, 2)
136
+
137
+ x_pha = self.norm_post_pha(x_pha.transpose(1, 2))
138
+ x_pha_r = self.linear_post_pha_r(x_pha)
139
+ x_pha_i = self.linear_post_pha_i(x_pha)
140
+ pha_wb = torch.atan2(x_pha_i, x_pha_r).transpose(1, 2)
141
+
142
+ com_wb = torch.stack((torch.exp(mag_wb) * torch.cos(pha_wb), torch.exp(mag_wb) * torch.sin(pha_wb)), dim=-1)
143
+
144
+ return mag_wb, pha_wb, com_wb
145
+
146
+
147
+ class DiscriminatorP(torch.nn.Module):
148
+ def __init__(self, period, kernel_size=5, stride=3, use_spectral_norm=False):
149
+ super(DiscriminatorP, self).__init__()
150
+ self.period = period
151
+ norm_f = weight_norm if use_spectral_norm == False else spectral_norm
152
+ self.convs = nn.ModuleList(
153
+ [
154
+ norm_f(nn.Conv2d(1, 32, (kernel_size, 1), (stride, 1), padding=(get_padding(5, 1), 0))),
155
+ norm_f(nn.Conv2d(32, 128, (kernel_size, 1), (stride, 1), padding=(get_padding(5, 1), 0))),
156
+ norm_f(nn.Conv2d(128, 512, (kernel_size, 1), (stride, 1), padding=(get_padding(5, 1), 0))),
157
+ norm_f(nn.Conv2d(512, 1024, (kernel_size, 1), (stride, 1), padding=(get_padding(5, 1), 0))),
158
+ norm_f(nn.Conv2d(1024, 1024, (kernel_size, 1), 1, padding=(2, 0))),
159
+ ]
160
+ )
161
+ self.conv_post = norm_f(nn.Conv2d(1024, 1, (3, 1), 1, padding=(1, 0)))
162
+
163
+ def forward(self, x):
164
+ fmap = []
165
+
166
+ # 1d to 2d
167
+ b, c, t = x.shape
168
+ if t % self.period != 0: # pad first
169
+ n_pad = self.period - (t % self.period)
170
+ x = F.pad(x, (0, n_pad), "reflect")
171
+ t = t + n_pad
172
+ x = x.view(b, c, t // self.period, self.period)
173
+
174
+ for i, l in enumerate(self.convs):
175
+ x = l(x)
176
+ x = F.leaky_relu(x, LRELU_SLOPE)
177
+ if i > 0:
178
+ fmap.append(x)
179
+ x = self.conv_post(x)
180
+ fmap.append(x)
181
+ x = torch.flatten(x, 1, -1)
182
+
183
+ return x, fmap
184
+
185
+
186
+ class MultiPeriodDiscriminator(torch.nn.Module):
187
+ def __init__(self):
188
+ super(MultiPeriodDiscriminator, self).__init__()
189
+ self.discriminators = nn.ModuleList(
190
+ [
191
+ DiscriminatorP(2),
192
+ DiscriminatorP(3),
193
+ DiscriminatorP(5),
194
+ DiscriminatorP(7),
195
+ DiscriminatorP(11),
196
+ ]
197
+ )
198
+
199
+ def forward(self, y, y_hat):
200
+ y_d_rs = []
201
+ y_d_gs = []
202
+ fmap_rs = []
203
+ fmap_gs = []
204
+ for i, d in enumerate(self.discriminators):
205
+ y_d_r, fmap_r = d(y)
206
+ y_d_g, fmap_g = d(y_hat)
207
+ y_d_rs.append(y_d_r)
208
+ fmap_rs.append(fmap_r)
209
+ y_d_gs.append(y_d_g)
210
+ fmap_gs.append(fmap_g)
211
+
212
+ return y_d_rs, y_d_gs, fmap_rs, fmap_gs
213
+
214
+
215
+ class MultiResolutionAmplitudeDiscriminator(nn.Module):
216
+ def __init__(
217
+ self,
218
+ resolutions: Tuple[Tuple[int, int, int]] = ((512, 128, 512), (1024, 256, 1024), (2048, 512, 2048)),
219
+ num_embeddings: int = None,
220
+ ):
221
+ super().__init__()
222
+ self.discriminators = nn.ModuleList(
223
+ [DiscriminatorAR(resolution=r, num_embeddings=num_embeddings) for r in resolutions]
224
+ )
225
+
226
+ def forward(
227
+ self, y: torch.Tensor, y_hat: torch.Tensor, bandwidth_id: torch.Tensor = None
228
+ ) -> Tuple[List[torch.Tensor], List[torch.Tensor], List[List[torch.Tensor]], List[List[torch.Tensor]]]:
229
+ y_d_rs = []
230
+ y_d_gs = []
231
+ fmap_rs = []
232
+ fmap_gs = []
233
+
234
+ for d in self.discriminators:
235
+ y_d_r, fmap_r = d(x=y, cond_embedding_id=bandwidth_id)
236
+ y_d_g, fmap_g = d(x=y_hat, cond_embedding_id=bandwidth_id)
237
+ y_d_rs.append(y_d_r)
238
+ fmap_rs.append(fmap_r)
239
+ y_d_gs.append(y_d_g)
240
+ fmap_gs.append(fmap_g)
241
+
242
+ return y_d_rs, y_d_gs, fmap_rs, fmap_gs
243
+
244
+
245
+ class DiscriminatorAR(nn.Module):
246
+ def __init__(
247
+ self,
248
+ resolution: Tuple[int, int, int],
249
+ channels: int = 64,
250
+ in_channels: int = 1,
251
+ num_embeddings: int = None,
252
+ ):
253
+ super().__init__()
254
+ self.resolution = resolution
255
+ self.in_channels = in_channels
256
+ self.convs = nn.ModuleList(
257
+ [
258
+ weight_norm(nn.Conv2d(in_channels, channels, kernel_size=(7, 5), stride=(2, 2), padding=(3, 2))),
259
+ weight_norm(nn.Conv2d(channels, channels, kernel_size=(5, 3), stride=(2, 1), padding=(2, 1))),
260
+ weight_norm(nn.Conv2d(channels, channels, kernel_size=(5, 3), stride=(2, 2), padding=(2, 1))),
261
+ weight_norm(nn.Conv2d(channels, channels, kernel_size=3, stride=(2, 1), padding=1)),
262
+ weight_norm(nn.Conv2d(channels, channels, kernel_size=3, stride=(2, 2), padding=1)),
263
+ ]
264
+ )
265
+ if num_embeddings is not None:
266
+ self.emb = torch.nn.Embedding(num_embeddings=num_embeddings, embedding_dim=channels)
267
+ torch.nn.init.zeros_(self.emb.weight)
268
+ self.conv_post = weight_norm(nn.Conv2d(channels, 1, (3, 3), padding=(1, 1)))
269
+
270
+ def forward(
271
+ self, x: torch.Tensor, cond_embedding_id: torch.Tensor = None
272
+ ) -> Tuple[torch.Tensor, List[torch.Tensor]]:
273
+ fmap = []
274
+ x = x.squeeze(1)
275
+
276
+ x = self.spectrogram(x)
277
+ x = x.unsqueeze(1)
278
+ for l in self.convs:
279
+ x = l(x)
280
+ x = F.leaky_relu(x, LRELU_SLOPE)
281
+ fmap.append(x)
282
+ if cond_embedding_id is not None:
283
+ emb = self.emb(cond_embedding_id)
284
+ h = (emb.view(1, -1, 1, 1) * x).sum(dim=1, keepdims=True)
285
+ else:
286
+ h = 0
287
+ x = self.conv_post(x)
288
+ fmap.append(x)
289
+ x += h
290
+ x = torch.flatten(x, 1, -1)
291
+
292
+ return x, fmap
293
+
294
+ def spectrogram(self, x: torch.Tensor) -> torch.Tensor:
295
+ n_fft, hop_length, win_length = self.resolution
296
+ amplitude_spectrogram = torch.stft(
297
+ x,
298
+ n_fft=n_fft,
299
+ hop_length=hop_length,
300
+ win_length=win_length,
301
+ window=None, # interestingly rectangular window kind of works here
302
+ center=True,
303
+ return_complex=True,
304
+ ).abs()
305
+
306
+ return amplitude_spectrogram
307
+
308
+
309
+ class MultiResolutionPhaseDiscriminator(nn.Module):
310
+ def __init__(
311
+ self,
312
+ resolutions: Tuple[Tuple[int, int, int]] = ((512, 128, 512), (1024, 256, 1024), (2048, 512, 2048)),
313
+ num_embeddings: int = None,
314
+ ):
315
+ super().__init__()
316
+ self.discriminators = nn.ModuleList(
317
+ [DiscriminatorPR(resolution=r, num_embeddings=num_embeddings) for r in resolutions]
318
+ )
319
+
320
+ def forward(
321
+ self, y: torch.Tensor, y_hat: torch.Tensor, bandwidth_id: torch.Tensor = None
322
+ ) -> Tuple[List[torch.Tensor], List[torch.Tensor], List[List[torch.Tensor]], List[List[torch.Tensor]]]:
323
+ y_d_rs = []
324
+ y_d_gs = []
325
+ fmap_rs = []
326
+ fmap_gs = []
327
+
328
+ for d in self.discriminators:
329
+ y_d_r, fmap_r = d(x=y, cond_embedding_id=bandwidth_id)
330
+ y_d_g, fmap_g = d(x=y_hat, cond_embedding_id=bandwidth_id)
331
+ y_d_rs.append(y_d_r)
332
+ fmap_rs.append(fmap_r)
333
+ y_d_gs.append(y_d_g)
334
+ fmap_gs.append(fmap_g)
335
+
336
+ return y_d_rs, y_d_gs, fmap_rs, fmap_gs
337
+
338
+
339
+ class DiscriminatorPR(nn.Module):
340
+ def __init__(
341
+ self,
342
+ resolution: Tuple[int, int, int],
343
+ channels: int = 64,
344
+ in_channels: int = 1,
345
+ num_embeddings: int = None,
346
+ ):
347
+ super().__init__()
348
+ self.resolution = resolution
349
+ self.in_channels = in_channels
350
+ self.convs = nn.ModuleList(
351
+ [
352
+ weight_norm(nn.Conv2d(in_channels, channels, kernel_size=(7, 5), stride=(2, 2), padding=(3, 2))),
353
+ weight_norm(nn.Conv2d(channels, channels, kernel_size=(5, 3), stride=(2, 1), padding=(2, 1))),
354
+ weight_norm(nn.Conv2d(channels, channels, kernel_size=(5, 3), stride=(2, 2), padding=(2, 1))),
355
+ weight_norm(nn.Conv2d(channels, channels, kernel_size=3, stride=(2, 1), padding=1)),
356
+ weight_norm(nn.Conv2d(channels, channels, kernel_size=3, stride=(2, 2), padding=1)),
357
+ ]
358
+ )
359
+ if num_embeddings is not None:
360
+ self.emb = torch.nn.Embedding(num_embeddings=num_embeddings, embedding_dim=channels)
361
+ torch.nn.init.zeros_(self.emb.weight)
362
+ self.conv_post = weight_norm(nn.Conv2d(channels, 1, (3, 3), padding=(1, 1)))
363
+
364
+ def forward(
365
+ self, x: torch.Tensor, cond_embedding_id: torch.Tensor = None
366
+ ) -> Tuple[torch.Tensor, List[torch.Tensor]]:
367
+ fmap = []
368
+ x = x.squeeze(1)
369
+
370
+ x = self.spectrogram(x)
371
+ x = x.unsqueeze(1)
372
+ for l in self.convs:
373
+ x = l(x)
374
+ x = F.leaky_relu(x, LRELU_SLOPE)
375
+ fmap.append(x)
376
+ if cond_embedding_id is not None:
377
+ emb = self.emb(cond_embedding_id)
378
+ h = (emb.view(1, -1, 1, 1) * x).sum(dim=1, keepdims=True)
379
+ else:
380
+ h = 0
381
+ x = self.conv_post(x)
382
+ fmap.append(x)
383
+ x += h
384
+ x = torch.flatten(x, 1, -1)
385
+
386
+ return x, fmap
387
+
388
+ def spectrogram(self, x: torch.Tensor) -> torch.Tensor:
389
+ n_fft, hop_length, win_length = self.resolution
390
+ phase_spectrogram = torch.stft(
391
+ x,
392
+ n_fft=n_fft,
393
+ hop_length=hop_length,
394
+ win_length=win_length,
395
+ window=None, # interestingly rectangular window kind of works here
396
+ center=True,
397
+ return_complex=True,
398
+ ).angle()
399
+
400
+ return phase_spectrogram
401
+
402
+
403
+ def feature_loss(fmap_r, fmap_g):
404
+ loss = 0
405
+ for dr, dg in zip(fmap_r, fmap_g):
406
+ for rl, gl in zip(dr, dg):
407
+ loss += torch.mean(torch.abs(rl - gl))
408
+
409
+ return loss
410
+
411
+
412
+ def discriminator_loss(disc_real_outputs, disc_generated_outputs):
413
+ loss = 0
414
+ r_losses = []
415
+ g_losses = []
416
+ for dr, dg in zip(disc_real_outputs, disc_generated_outputs):
417
+ r_loss = torch.mean(torch.clamp(1 - dr, min=0))
418
+ g_loss = torch.mean(torch.clamp(1 + dg, min=0))
419
+ loss += r_loss + g_loss
420
+ r_losses.append(r_loss.item())
421
+ g_losses.append(g_loss.item())
422
+
423
+ return loss, r_losses, g_losses
424
+
425
+
426
+ def generator_loss(disc_outputs):
427
+ loss = 0
428
+ gen_losses = []
429
+ for dg in disc_outputs:
430
+ l = torch.mean(torch.clamp(1 - dg, min=0))
431
+ gen_losses.append(l)
432
+ loss += l
433
+
434
+ return loss, gen_losses
435
+
436
+
437
+ def phase_losses(phase_r, phase_g):
438
+ ip_loss = torch.mean(anti_wrapping_function(phase_r - phase_g))
439
+ gd_loss = torch.mean(anti_wrapping_function(torch.diff(phase_r, dim=1) - torch.diff(phase_g, dim=1)))
440
+ iaf_loss = torch.mean(anti_wrapping_function(torch.diff(phase_r, dim=2) - torch.diff(phase_g, dim=2)))
441
+
442
+ return ip_loss, gd_loss, iaf_loss
443
+
444
+
445
+ def anti_wrapping_function(x):
446
+ return torch.abs(x - torch.round(x / (2 * np.pi)) * 2 * np.pi)
447
+
448
+
449
+ def stft_mag(audio, n_fft=2048, hop_length=512):
450
+ hann_window = torch.hann_window(n_fft).to(audio.device)
451
+ stft_spec = torch.stft(audio, n_fft, hop_length, window=hann_window, return_complex=True)
452
+ stft_mag = torch.abs(stft_spec)
453
+ return stft_mag
454
+
455
+
456
+ def cal_snr(pred, target):
457
+ snr = (20 * torch.log10(torch.norm(target, dim=-1) / torch.norm(pred - target, dim=-1).clamp(min=1e-8))).mean()
458
+ return snr
459
+
460
+
461
+ def cal_lsd(pred, target):
462
+ sp = torch.log10(stft_mag(pred).square().clamp(1e-8))
463
+ st = torch.log10(stft_mag(target).square().clamp(1e-8))
464
+ return (sp - st).square().mean(dim=1).sqrt().mean()
tools/asr/config.py ADDED
@@ -0,0 +1,36 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ import os
2
+
3
+
4
+ def check_fw_local_models():
5
+ """
6
+ 启动时检查本地是否有 Faster Whisper 模型.
7
+ """
8
+ model_size_list = [
9
+ "tiny",
10
+ "tiny.en",
11
+ "base",
12
+ "base.en",
13
+ "small",
14
+ "small.en",
15
+ "medium",
16
+ "medium.en",
17
+ "large",
18
+ "large-v1",
19
+ "large-v2",
20
+ "large-v3",
21
+ ]
22
+ for i, size in enumerate(model_size_list):
23
+ if os.path.exists(f"tools/asr/models/faster-whisper-{size}"):
24
+ model_size_list[i] = size + "-local"
25
+ return model_size_list
26
+
27
+
28
+ asr_dict = {
29
+ "达摩 ASR (中文)": {"lang": ["zh", "yue"], "size": ["large"], "path": "funasr_asr.py", "precision": ["float32"]},
30
+ "Faster Whisper (多语种)": {
31
+ "lang": ["auto", "zh", "en", "ja", "ko", "yue"],
32
+ "size": check_fw_local_models(),
33
+ "path": "fasterwhisper_asr.py",
34
+ "precision": ["float32", "float16", "int8"],
35
+ },
36
+ }
tools/asr/fasterwhisper_asr.py ADDED
@@ -0,0 +1,129 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ import argparse
2
+ import os
3
+ import traceback
4
+
5
+ os.environ["HF_ENDPOINT"] = "https://hf-mirror.com"
6
+ os.environ["KMP_DUPLICATE_LIB_OK"] = "TRUE"
7
+
8
+ import torch
9
+ from faster_whisper import WhisperModel
10
+ from tqdm import tqdm
11
+
12
+ from tools.asr.config import check_fw_local_models
13
+
14
+ # fmt: off
15
+ language_code_list = [
16
+ "af", "am", "ar", "as", "az",
17
+ "ba", "be", "bg", "bn", "bo",
18
+ "br", "bs", "ca", "cs", "cy",
19
+ "da", "de", "el", "en", "es",
20
+ "et", "eu", "fa", "fi", "fo",
21
+ "fr", "gl", "gu", "ha", "haw",
22
+ "he", "hi", "hr", "ht", "hu",
23
+ "hy", "id", "is", "it", "ja",
24
+ "jw", "ka", "kk", "km", "kn",
25
+ "ko", "la", "lb", "ln", "lo",
26
+ "lt", "lv", "mg", "mi", "mk",
27
+ "ml", "mn", "mr", "ms", "mt",
28
+ "my", "ne", "nl", "nn", "no",
29
+ "oc", "pa", "pl", "ps", "pt",
30
+ "ro", "ru", "sa", "sd", "si",
31
+ "sk", "sl", "sn", "so", "sq",
32
+ "sr", "su", "sv", "sw", "ta",
33
+ "te", "tg", "th", "tk", "tl",
34
+ "tr", "tt", "uk", "ur", "uz",
35
+ "vi", "yi", "yo", "zh", "yue",
36
+ "auto"]
37
+ # fmt: on
38
+
39
+
40
+ def execute_asr(input_folder, output_folder, model_size, language, precision):
41
+ if "-local" in model_size:
42
+ model_size = model_size[:-6]
43
+ model_path = f"tools/asr/models/faster-whisper-{model_size}"
44
+ else:
45
+ model_path = model_size
46
+ if language == "auto":
47
+ language = None # 不设置语种由模型自动输出概率最高的语种
48
+ print("loading faster whisper model:", model_size, model_path)
49
+ device = "cuda" if torch.cuda.is_available() else "cpu"
50
+ try:
51
+ model = WhisperModel(model_path, device=device, compute_type=precision)
52
+ except:
53
+ return print(traceback.format_exc())
54
+
55
+ input_file_names = os.listdir(input_folder)
56
+ input_file_names.sort()
57
+
58
+ output = []
59
+ output_file_name = os.path.basename(input_folder)
60
+
61
+ for file_name in tqdm(input_file_names):
62
+ try:
63
+ file_path = os.path.join(input_folder, file_name)
64
+ segments, info = model.transcribe(
65
+ audio=file_path,
66
+ beam_size=5,
67
+ vad_filter=True,
68
+ vad_parameters=dict(min_silence_duration_ms=700),
69
+ language=language,
70
+ )
71
+ text = ""
72
+
73
+ if info.language == "zh":
74
+ print("检测为中文文本, 转 FunASR 处理")
75
+ if "only_asr" not in globals():
76
+ from tools.asr.funasr_asr import only_asr # 如果用英文就不需要导入下载模型
77
+ text = only_asr(file_path, language=info.language.lower())
78
+
79
+ if text == "":
80
+ for segment in segments:
81
+ text += segment.text
82
+ output.append(f"{file_path}|{output_file_name}|{info.language.upper()}|{text}")
83
+ except:
84
+ print(traceback.format_exc())
85
+
86
+ output_folder = output_folder or "output/asr_opt"
87
+ os.makedirs(output_folder, exist_ok=True)
88
+ output_file_path = os.path.abspath(f"{output_folder}/{output_file_name}.list")
89
+
90
+ with open(output_file_path, "w", encoding="utf-8") as f:
91
+ f.write("\n".join(output))
92
+ print(f"ASR 任务完成->标注文件路径: {output_file_path}\n")
93
+ return output_file_path
94
+
95
+
96
+ if __name__ == "__main__":
97
+ parser = argparse.ArgumentParser()
98
+ parser.add_argument(
99
+ "-i", "--input_folder", type=str, required=True, help="Path to the folder containing WAV files."
100
+ )
101
+ parser.add_argument("-o", "--output_folder", type=str, required=True, help="Output folder to store transcriptions.")
102
+ parser.add_argument(
103
+ "-s",
104
+ "--model_size",
105
+ type=str,
106
+ default="large-v3",
107
+ choices=check_fw_local_models(),
108
+ help="Model Size of Faster Whisper",
109
+ )
110
+ parser.add_argument(
111
+ "-l", "--language", type=str, default="ja", choices=language_code_list, help="Language of the audio files."
112
+ )
113
+ parser.add_argument(
114
+ "-p",
115
+ "--precision",
116
+ type=str,
117
+ default="float16",
118
+ choices=["float16", "float32", "int8"],
119
+ help="fp16, int8 or fp32",
120
+ )
121
+
122
+ cmd = parser.parse_args()
123
+ output_file_path = execute_asr(
124
+ input_folder=cmd.input_folder,
125
+ output_folder=cmd.output_folder,
126
+ model_size=cmd.model_size,
127
+ language=cmd.language,
128
+ precision=cmd.precision,
129
+ )
tools/asr/funasr_asr.py ADDED
@@ -0,0 +1,118 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ # -*- coding:utf-8 -*-
2
+
3
+ import argparse
4
+ import os
5
+ import traceback
6
+
7
+ # from funasr.utils import version_checker
8
+ # version_checker.check_for_update = lambda: None
9
+ from funasr import AutoModel
10
+ from tqdm import tqdm
11
+
12
+ funasr_models = {} # 存储模型避免重复加载
13
+
14
+
15
+ def only_asr(input_file, language):
16
+ try:
17
+ model = create_model(language)
18
+ text = model.generate(input=input_file)[0]["text"]
19
+ except:
20
+ text = ""
21
+ print(traceback.format_exc())
22
+ return text
23
+
24
+
25
+ def create_model(language="zh"):
26
+ path_vad = "tools/asr/models/speech_fsmn_vad_zh-cn-16k-common-pytorch"
27
+ path_punc = "tools/asr/models/punc_ct-transformer_zh-cn-common-vocab272727-pytorch"
28
+ path_vad = path_vad if os.path.exists(path_vad) else "iic/speech_fsmn_vad_zh-cn-16k-common-pytorch"
29
+ path_punc = path_punc if os.path.exists(path_punc) else "iic/punc_ct-transformer_zh-cn-common-vocab272727-pytorch"
30
+ vad_model_revision = punc_model_revision = "v2.0.4"
31
+
32
+ if language == "zh":
33
+ path_asr = "tools/asr/models/speech_paraformer-large_asr_nat-zh-cn-16k-common-vocab8404-pytorch"
34
+ path_asr = (
35
+ path_asr
36
+ if os.path.exists(path_asr)
37
+ else "iic/speech_paraformer-large_asr_nat-zh-cn-16k-common-vocab8404-pytorch"
38
+ )
39
+ model_revision = "v2.0.4"
40
+ elif language == "yue":
41
+ path_asr = "tools/asr/models/speech_UniASR_asr_2pass-cantonese-CHS-16k-common-vocab1468-tensorflow1-online"
42
+ path_asr = (
43
+ path_asr
44
+ if os.path.exists(path_asr)
45
+ else "iic/speech_UniASR_asr_2pass-cantonese-CHS-16k-common-vocab1468-tensorflow1-online"
46
+ )
47
+ model_revision = "master"
48
+ path_vad = path_punc = None
49
+ vad_model_revision = punc_model_revision = None
50
+ ###友情提示:粤语带VAD识别可能会有少量shape不对报错的,但是不带VAD可以.不带vad只能分阶段单独加标点。不过标点模型对粤语效果真的不行…
51
+ else:
52
+ raise ValueError("FunASR 不支持该语言" + ": " + language)
53
+
54
+ if language in funasr_models:
55
+ return funasr_models[language]
56
+ else:
57
+ model = AutoModel(
58
+ model=path_asr,
59
+ model_revision=model_revision,
60
+ vad_model=path_vad,
61
+ vad_model_revision=vad_model_revision,
62
+ punc_model=path_punc,
63
+ punc_model_revision=punc_model_revision,
64
+ )
65
+ print(f"FunASR 模型加载完成: {language.upper()}")
66
+
67
+ funasr_models[language] = model
68
+ return model
69
+
70
+
71
+ def execute_asr(input_folder, output_folder, model_size, language):
72
+ input_file_names = os.listdir(input_folder)
73
+ input_file_names.sort()
74
+
75
+ output = []
76
+ output_file_name = os.path.basename(input_folder)
77
+
78
+ model = create_model(language)
79
+
80
+ for file_name in tqdm(input_file_names):
81
+ try:
82
+ print("\n" + file_name)
83
+ file_path = os.path.join(input_folder, file_name)
84
+ text = model.generate(input=file_path)[0]["text"]
85
+ output.append(f"{file_path}|{output_file_name}|{language.upper()}|{text}")
86
+ except:
87
+ print(traceback.format_exc())
88
+
89
+ output_folder = output_folder or "output/asr_opt"
90
+ os.makedirs(output_folder, exist_ok=True)
91
+ output_file_path = os.path.abspath(f"{output_folder}/{output_file_name}.list")
92
+
93
+ with open(output_file_path, "w", encoding="utf-8") as f:
94
+ f.write("\n".join(output))
95
+ print(f"ASR 任务完成->标注文件路径: {output_file_path}\n")
96
+ return output_file_path
97
+
98
+
99
+ if __name__ == "__main__":
100
+ parser = argparse.ArgumentParser()
101
+ parser.add_argument(
102
+ "-i", "--input_folder", type=str, required=True, help="Path to the folder containing WAV files."
103
+ )
104
+ parser.add_argument("-o", "--output_folder", type=str, required=True, help="Output folder to store transcriptions.")
105
+ parser.add_argument("-s", "--model_size", type=str, default="large", help="Model Size of FunASR is Large")
106
+ parser.add_argument(
107
+ "-l", "--language", type=str, default="zh", choices=["zh", "yue", "auto"], help="Language of the audio files."
108
+ )
109
+ parser.add_argument(
110
+ "-p", "--precision", type=str, default="float16", choices=["float16", "float32"], help="fp16 or fp32"
111
+ ) # 还没接入
112
+ cmd = parser.parse_args()
113
+ execute_asr(
114
+ input_folder=cmd.input_folder,
115
+ output_folder=cmd.output_folder,
116
+ model_size=cmd.model_size,
117
+ language=cmd.language,
118
+ )
tools/asr/models/.gitignore ADDED
@@ -0,0 +1,2 @@
 
 
 
1
+ *
2
+ !.gitignore
tools/denoise-model/.gitignore ADDED
@@ -0,0 +1,2 @@
 
 
 
1
+ *
2
+ !.gitignore
tools/i18n/i18n.py ADDED
@@ -0,0 +1,41 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ import json
2
+ import locale
3
+ import os
4
+
5
+ I18N_JSON_DIR: os.PathLike = os.path.join(os.path.dirname(os.path.relpath(__file__)), "locale")
6
+
7
+
8
+ def load_language_list(language):
9
+ with open(os.path.join(I18N_JSON_DIR, f"{language}.json"), "r", encoding="utf-8") as f:
10
+ language_list = json.load(f)
11
+ return language_list
12
+
13
+
14
+ def scan_language_list():
15
+ language_list = []
16
+ for name in os.listdir(I18N_JSON_DIR):
17
+ if name.endswith(".json"):
18
+ language_list.append(name.split(".")[0])
19
+ return language_list
20
+
21
+
22
+ class I18nAuto:
23
+ def __init__(self, language=None):
24
+ if language in ["Auto", None]:
25
+ language = locale.getdefaultlocale()[0]
26
+ # getlocale can't identify the system's language ((None, None))
27
+ if not os.path.exists(os.path.join(I18N_JSON_DIR, f"{language}.json")):
28
+ language = "en_US"
29
+ self.language = language
30
+ self.language_map = load_language_list(language)
31
+
32
+ def __call__(self, key):
33
+ return self.language_map.get(key, key)
34
+
35
+ def __repr__(self):
36
+ return "Use Language: " + self.language
37
+
38
+
39
+ if __name__ == "__main__":
40
+ i18n = I18nAuto(language="en_US")
41
+ print(i18n)
tools/i18n/locale/en_US.json ADDED
@@ -0,0 +1,211 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ {
2
+ "(1)MDX-Net(onnx_dereverb):对于双通道混响是最好的选择,不能去除单通道混响;": "(1)MDX-Net(onnx_dereverb): Best choice for dual-channel reverberation, cannot remove single-channel reverberation;",
3
+ "(234)DeEcho:去除延迟效果。Aggressive比Normal去除得更彻底,DeReverb额外去除混响,可去除单声道混响,但是对高频重的板式混响去不干净。": "(234)DeEcho: Removes delay effects. Aggressive mode removes more thoroughly than Normal mode. DeReverb additionally removes reverberation, can remove mono reverberation, but does not clean heavily high-frequency plate reverberation.",
4
+ "*实验/模型名": "*Experiment/model name",
5
+ "*文本标注文件": "*Text labelling file",
6
+ "*训练集音频文件目录": "*Audio dataset folder",
7
+ "*请上传并填写参考信息": "*Please upload and fill reference information",
8
+ "*请填写需要合成的目标文本和语种模式": "*Please fill in the target text and language mode for synthesis",
9
+ ".限制范围越小判别效果越好。": "Less Multilingual is better",
10
+ "1-GPT-SoVITS-TTS": "1-GPT-SOVITS-TTS",
11
+ "1、DeEcho-DeReverb模型的耗时是另外2个DeEcho模型的接近2倍;": "1. The DeEcho-DeReverb model's processing time is nearly twice that of the other two DeEcho models.",
12
+ "1、保留人声:不带和声的音频选这个,对主人声保留比HP5更好。内置HP2和HP3两个模型,HP3可能轻微漏伴奏但对主人声保留比HP2稍微好一丁点;": "1. Preserve Vocals: Choose this option for audio without harmonies, as it better retains the main vocal compared to the HP5 model. This option includes two built-in models, HP2 and HP3. HP3 may slightly let through some accompaniment but retains the main vocal slightly better than HP2.",
13
+ "2-GPT-SoVITS-变声": "2-GPT-SoVITS-Voice Changer",
14
+ "2、MDX-Net-Dereverb模型挺慢的;": "2、MDX-Net-Dereverb Model is slow;",
15
+ "2、仅保留主人声:带和声的音频选这个,对主人声可能有削弱。内置HP5一个模型;": "2. Keep Only Main Vocal: Choose this option for audio with harmonies, as it may slightly reduce the main vocal. Includes one built-in HP5 model;",
16
+ "3、个人推荐的最干净的配置是先MDX-Net再DeEcho-Aggressive。": "3. Personal Recommendation for the cleanest configuration: First use MDX-Net followed by DeEcho-Aggressive",
17
+ "3、去混响、去延迟模型(by FoxJoy):": "3. Reverberation and delay removal model(by FoxJoy):",
18
+ "ASR 模型": "ASR model",
19
+ "ASR 模型尺寸": "ASR model size",
20
+ "ASR 语言设置": "ASR language",
21
+ "GPT 训练: 模型权重文件在 GPT_weights/": "GPT Training: Model Weights saved in GPT_weights/",
22
+ "GPT模型列表": "GPT weight list",
23
+ "GPT训练": "GPT Training",
24
+ "GPT采样参数(无参考文本时不要太低。不懂就用默认):": "GPT sampling parameters (not too low when there's no reference text. Use default if unsure):",
25
+ "GPU卡号,只能填1个整数": "GPU number, can only input ONE integer",
26
+ "GPU卡号以-分割,每个卡号一个进程": "GPU number is separated by -, each GPU will run one process ",
27
+ "LoRA秩": "LoRA Rank",
28
+ "SoVITS V3 底模缺失,无法加载相应 LoRA 权重": "Missing Pretrained SoVITS V3 Model, Cannot Load LoRA Weights",
29
+ "SoVITS 训练: 模型权重文件在 SoVITS_weights/": "SoVITS Training: Model Weights saved in SoVITS_weights/",
30
+ "SoVITS模型列表": "SoVITS weight list",
31
+ "SoVITS训练": "SoVITS Training",
32
+ "TTS推理WebUI": "TTS Inference WebUI",
33
+ "UVR5人声伴奏分离&去混响去延迟工具": "UVR5 WebUI (Vocal Separation/Deecho/Dereverb)",
34
+ "alpha_mix:混多少比例归一化后音频进来": "alpha_mix: proportion of normalized audio merged into dataset",
35
+ "batch_size": "Batch Size",
36
+ "hop_size:怎么算音量曲线,越小精度越大计算量越高(不是精度越大效果越好)": "hop_size: FO hop size, the smaller the value, the higher the accuracy)",
37
+ "max:归一化后最大值多少": "Loudness multiplier after normalized",
38
+ "max_sil_kept:切完后静音最多留多长": "Maximum length for silence to be kept",
39
+ "min_interval:最短切割间隔": "Minumum interval for audio cutting",
40
+ "min_length:每段最小多长,如果第一段太短一直和后面段连起来直到超过这个值": "min_length: the minimum length of each segment. If the first segment is too short, it will be concatenated with the next segment until it exceeds this value",
41
+ "temperature": "temperature",
42
+ "threshold:音量小于这个值视作静音的备选切割点": "Noise gate threshold (loudness below this value will be treated as noise",
43
+ "top_k": "top_k",
44
+ "top_p": "top_p",
45
+ "v3暂不支持该模式,使用了会报错。": "v3 does not support this mode currently, using it will cause an error.",
46
+ "v3输出如果觉得闷可以试试开超分": "For V3 model, if generated audio sounds somewhat muffled, try enable audio super-resolution.",
47
+ "不切": "No slice",
48
+ "中文": "Chinese",
49
+ "中文教程文档": "Chinese Tutorial",
50
+ "中英混合": "Chinese-English Mixed",
51
+ "主参考音频(请上传3~10秒内参考音频,超过会报错!)": "Primary Reference Audio (Please upload reference audio within 3-10 seconds, exceeding this limit will cause an error!)",
52
+ "主参考音频的文本": "Text of Primary Reference Audio",
53
+ "主参考音频的语种": "Language of Primary Reference Audio",
54
+ "也可批量输入音频文件, 二选一, 优先读文件夹": "Multiple audio files can also be imported. If a folder path exists, this input is ignored.",
55
+ "人声伴奏分离批量处理, 使用UVR5模型。": "Batch processing for vocal and instrumental separation, using the UVR5 model.",
56
+ "人声分离WebUI": "Vocal Separation WebUI",
57
+ "人声提取激进程度": "Vocal extraction aggressiveness",
58
+ "以下文件或文件夹不存在": "No Such File or Folder",
59
+ "以下模型不存在:": "No Such Model:",
60
+ "伴奏人声分离&去混响&去回声": "Vocals/Accompaniment Separation & Reverberation Removal",
61
+ "你没有下载超分模型的参数,因此不进行超分。如想超分请先参照教程把文件下载好": "Super-Resolution Model Not Found. Please follow the tutorial to download the model file if you want to use it.",
62
+ "使用无参考文本模式时建议使用微调的GPT": "Recommended to use a Finetune-GPT when using Prompt-Free Mode.",
63
+ "保存频率save_every_epoch": "Save frequency (save_every_epoch):",
64
+ "保持随机": "Keep Random",
65
+ "关闭": "Close ",
66
+ "凑50字一切": "Slice per 50 characters",
67
+ "凑四句一切": "Slice once every 4 sentences",
68
+ "分桶处理模式已关闭": "Bucket Processing Mode Disabled",
69
+ "分桶处理模式已开启": "Bucket Processing Mode Enabled",
70
+ "分段返回模式不支持分桶处理,已自动关闭分桶处理": "Segmented Return Mode does not support Bucket Processing, Bucket Processing Disabled automatically",
71
+ "分段返回模式已开启": "Segmented Return Mode Enabled",
72
+ "分段间隔(秒)": "Segment Interval (Seconds)",
73
+ "分段间隔过小,已自动设置为0.01": "Segment Interval too short, automatically set to 0.01",
74
+ "切分": "Segmentation",
75
+ "切分后文本": "Inference Text After Segmentation",
76
+ "切分后的子音频的输出根目录": "Audio slicer output folder",
77
+ "切分文本": "Segment Text",
78
+ "切割使用的进程数": "CPU threads used for audio slicing",
79
+ "刷新模型路径": "refreshing model paths",
80
+ "前端处理后的文本(每句):": "Processed text from the frontend (per sentence):",
81
+ "前置数据集获取工具": "Fetch Datasets",
82
+ "占用中": " Occupying",
83
+ "去混响/去延迟,附:": "Dereverberation/Delay Removal, including:",
84
+ "参考音频在3~10秒范围外,请更换!": "Reference audio is outside the 3-10 second range, please choose another one!",
85
+ "参考音频的文本": "Text for reference audio",
86
+ "参考音频的语种": "Language for reference audio",
87
+ "句间停顿秒数": "Pause Duration between Sentences (Seconds)",
88
+ "可选项:通过拖拽多个文件上传多个参考音频(建议同性),平均融合他们的音色。如不填写此项,音色由左侧单个参考音频控制。如是微调模型,建议参考音频全部在微调训练集音色内,底模不用管。": "Optional: Upload multiple reference audio files by dragging and dropping them (recommended to be of the same gender), and average their tone. If this option is left blank, the tone will be controlled by the single reference audio on the left. If fine-tuning the model, it is recommended that all reference audio files have tones within the fine-tuning training set; the pretrained model can be ignored.",
89
+ "合成语音": "Start inference",
90
+ "合格的文件夹路径格式举例: E:\\codes\\py39\\vits_vc_gpu\\白鹭霜华测试样例(去文件管理器地址栏拷就行了)。": "An example of a valid folder path format: E:\\codes\\py39\\vits_vc_gpu\\白鹭霜华测试样例 (simply copy the address from the file manager's address bar).",
91
+ "后续将支持转音素、手工修改音素、语音合成分步执行。": "Support for Phoneme Conversion, Manual Phoneme Editing, and Step-by-Step Speech Synthesis will be added in the future.",
92
+ "听不清参考音频说的啥(不晓得写啥)可以开。开启后无视填写的参考文本。": "If reference audio is not clear or unsure what to write, enable this option to ignore the reference text.",
93
+ "启用并行推理版本": "Enable Parallel Inference Version",
94
+ "填切割后音频所在目录!读取的音频文件完整路径=该目录-拼接-list文件里波形对应的文件名(不是全路径)。如果留空则使用.list文件里的绝对全路径。": "Please fill in the segmented audio files' directory! The full path of the audio file = the directory concatenated with the filename corresponding to the waveform in the list file (not the full path). If left blank, the absolute full path in the .list file will be used.",
95
+ "多语种混合": "Multilingual Mixed",
96
+ "多语种混合(粤语)": "Multilingual Mixed(Yue)",
97
+ "失败": " Failed",
98
+ "如不认可该条款, 则不能使用或引用软件包内任何代码和文件. 详见根目录LICENSE.": "If you do not agree with this clause, you cannot use or reference any codes and files within the software package. See the root directory Agreement-LICENSE for details.",
99
+ "实际输入的参考文本:": "Actual Input Reference Text:",
100
+ "实际输入的目标文本(切句后):": "Actual Input Target Text (after sentence segmentation):",
101
+ "实际输入的目标文本(每句):": "Actual Input Target Text (per sentence):",
102
+ "实际输入的目标文本:": "Actual Input Target Text:",
103
+ "导出文件格式": "Export file format",
104
+ "已关闭": " is Closed",
105
+ "已完成": " Finished",
106
+ "已开启": " is Opened",
107
+ "并行推理": "Parallel Inference",
108
+ "并行推理模式已关闭": "Parallel Inference Mode Disabled",
109
+ "并行推理模式已开启": "Parallel Inference Mode Enabled",
110
+ "开启": "Open ",
111
+ "开启无参考文本模式。不填参考文本亦相当于开启。": "Enable no reference mode. If you don't fill 'Text for reference audio', no reference mode will be enabled.",
112
+ "微调训练": "Fine-Tuning",
113
+ "怎么切": "How to slice the sentence",
114
+ "总训练轮数total_epoch": "Total training epochs (total_epoch):",
115
+ "总训练轮数total_epoch,不建议太高": "Total epochs, do not increase to a value that is too high",
116
+ "指定输出主人声文件夹": "Specify the output folder for vocals:",
117
+ "指定输出非主人声文件夹": "Specify the output folder for accompaniment:",
118
+ "按中文句号。切": "Slice by Chinese punct",
119
+ "按标点符号切": "Slice by every punct",
120
+ "按英文句号.切": "Slice by English punct",
121
+ "推理": "Inference",
122
+ "推理设置": "Inference Settings",
123
+ "提取文本Bert特征": "Extract Text BERT Features",
124
+ "数据分桶(并行推理时会降低一点计算量)": "Data Bucketing (Reduces Computation Cost in Parallel Inference)",
125
+ "数据类型精度": "Computing precision",
126
+ "文本分词与特征提取": "Tokenization & BERT Feature Extraction",
127
+ "文本切分工具。太长的文本合成出来效果不一定好,所以太长建议先切。合成会根据文本的换行分开合成再拼起来。": "Text Segmentation Tool. Very long text may not yield good synthesis results, so Segmentation is Recommended. Synthesis will be performed based on line breaks and then concatenated.",
128
+ "文本模块学习率权重": "Text model learning rate weighting",
129
+ "施工中,请静候佳音": "In construction, please wait",
130
+ "日文": "Japanese",
131
+ "日英混合": "Japanese-English Mixed",
132
+ "是否仅保存最新的权重文件以节省硬盘空间": "Save only the latest weight file to save disk space",
133
+ "是否在每次保存时间点将最终小模型保存至weights文件夹": "Save a small final model to the 'weights' folder at each save point:",
134
+ "是否开启DPO训练选项(实验性)": "Enable DPO Training (Experimental)",
135
+ "是否直接对上次合成结果调整语速和音色。防止随机性。": "Adjust the speech rate and tone of the last synthesis result to prevent randomness.",
136
+ "显卡信息": "GPU Information",
137
+ "未下载模型": "Model Not Downloaded",
138
+ "本软件以MIT协议开源, 作者不对软件具备任何控制力, 使用软件者、传播软件导出的声音者自负全责.": "This software is open source under the MIT license. The author does not have any control over the software. Users who use the software and distribute the sounds exported by the software are solely responsible.",
139
+ "标注文件路径 (含文件后缀 *.list)": "Label File Path (with file extension *.list)",
140
+ "模型": "Model",
141
+ "模型分为三类:": "Models are categorized into three types:",
142
+ "模型切换": "Model switch",
143
+ "每张显卡的batch_size": "Batch size per GPU:",
144
+ "版本": "Version",
145
+ "粤英混合": "Yue-English Mixed",
146
+ "粤语": "Yue",
147
+ "终止合成": "Terminate Synthesis",
148
+ "缺少Hubert数据集": "Missing Hubert Dataset",
149
+ "缺少语义数据集": "Missing Semantics Dataset",
150
+ "缺少音素数据集": "Missing Phoneme Dataset",
151
+ "缺少音频数据集": "Missing Audio Dataset",
152
+ "英文": "English",
153
+ "训练集格式化一键三连": "Training Set One-Click Formatting",
154
+ "训练集格式化工具": "Dataset Formatting Tool",
155
+ "语义Token提取": "Semantics Token Extraction",
156
+ "语速": "Speech rate",
157
+ "语速调整,高为更快": "Adjust speech rate, higher for faster",
158
+ "语速调节不支持分桶处理,已自动关闭分桶处理": "Speech Rate Adjustment does not support Bucket Processing, Bucket Processing Disabled automatically",
159
+ "语音切分": "Speech Slicing",
160
+ "语音切分工具": "Speech Slicing Tool",
161
+ "语音文本校对标注工具": "Speech-to-Text Proofreading Tool",
162
+ "语音自监督特征提取": "Speech SSL Feature Extraction",
163
+ "语音识别": "Speech Recognition",
164
+ "语音识别工具": "Speech Recognition Tool",
165
+ "语音降噪": "Speech Denoising",
166
+ "语音降噪工具": "Speech Denoising Tool",
167
+ "请上传3~10秒内参考音频,超过会报错!": "Please upload a reference audio within the 3-10 second range; if it exceeds this duration, it will raise errors.",
168
+ "请上传参考音频": "Please Upload the Reference Audio",
169
+ "请填入推理文本": "Please Fill in the Terget Text",
170
+ "请填入正确的List路径": "Please Fill in the Correct List Path",
171
+ "请填入正确的音频文件夹路径": "Please Fill in the Correct Audio Folder Path",
172
+ "请输入有效文本": "Please enter valid text.",
173
+ "路径不存在,使用默认配置": "Paths Not Found, Using Default Config",
174
+ "路径不能为空": "Expected No Empty Path",
175
+ "路径错误": "Path Error",
176
+ "转换": "Convert",
177
+ "辅参考音频(可选多个,或不选)": "Secondary Reference Audio (Multiple Optional, or None)",
178
+ "输入待处理音频文件夹路径": "Enter the path of the audio folder to be processed:",
179
+ "输入文件夹路径": "Input folder path",
180
+ "输入路径不存在": "Input Path Not Found",
181
+ "输入路径存在但不可用": "Input Path Exists but Unavailable",
182
+ "输出logs/实验名目录下应有23456开头的文件和文件夹": "output folder (logs/{experiment name}) should have files and folders starts with 23456.",
183
+ "输出信息": "Output information",
184
+ "输出文件夹路径": "Output folder path",
185
+ "输出的语音": "Inference Result",
186
+ "运行中": " Running",
187
+ "进度": "Progress",
188
+ "进程已终止": " Process Terminated",
189
+ "进程输出信息": " Process Output Information",
190
+ "选择训练完存放在SoVITS_weights和GPT_weights下的模型。默认的一个是底模,体验5秒Zero Shot TTS用。": "Choose the models from SoVITS_weights and GPT_weights. The default one is a pretrain, so you can experience zero shot TTS.",
191
+ "采样步数,如果觉得电,提高试试,如果觉得慢,降低试试": "Sampling Steps: If feel noisy, try increasing, if feel slow, try decreasing",
192
+ "重复惩罚": "Repetition Penalty",
193
+ "随机种子": "Random Seed",
194
+ "需先终止才能开启下一次任务": "Please Terminate First to Start Next Task",
195
+ "需要合成的切分前文本": "Inference Text Before Segmentation",
196
+ "需要合成的文本": "Inference text",
197
+ "需要合成的文本的语种": "Language of the Inference Text",
198
+ "需要合成的语种": "Inference text language",
199
+ "韩文": "Korean",
200
+ "韩英混合": "Korean-English Mixed",
201
+ "音频加载失败": "Failed to Load Audio",
202
+ "音频文件不存在,跳过:": "Audio File Not Found, Skipping: ",
203
+ "音频标注WebUI": "Audio Labeling WebUI",
204
+ "音频自动切分输入路径,可文件可文件夹": "Audio slicer input (file or folder)",
205
+ "音频超分中": "Running Audio Super-Resolution",
206
+ "预训练GPT模型路径": "Pretrained GPT Model Path",
207
+ "预训练SSL模型路径": "Pretrained SSL Model Path",
208
+ "预训练SoVITS-D模型路径": "Pretrained SoVITS-D Model Path",
209
+ "预训练SoVITS-G模型路径": "Pretrained SoVITS-G Model Path",
210
+ "预训练中文BERT模型路径": "Pretrained Chinese BERT Model Path"
211
+ }
tools/i18n/locale/es_ES.json ADDED
@@ -0,0 +1,211 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ {
2
+ "(1)MDX-Net(onnx_dereverb):对于双通道混响是最好的选择,不能去除单通道混响;": "(1)MDX-Net (onnx_dereverb): reverberación estéreo, la mejor opción; no puede eliminar reverberación mono",
3
+ "(234)DeEcho:去除延迟效果。Aggressive比Normal去除得更彻底,DeReverb额外去除混响,可去除单声道混响,但是对高频重的板式混响去不干净。": "(234)DeEcho: Eliminar el efecto de retardo. Aggressive elimina más que Normal, DeReverb elimina reverberación adicional, puede eliminar reverberación mono, pero no limpia bien la reverberación de placa de alta frecuencia",
4
+ "*实验/模型名": "*Nombre del experimento/modelo",
5
+ "*文本标注文件": "*Archivo de etiquetado de texto",
6
+ "*训练集音频文件目录": "*Directorio de archivos de audio de entrenamiento",
7
+ "*请上传并填写参考信息": "*Por favor, suba y complete la información de referencia",
8
+ "*请填写需要合成的目标文本和语种模式": "*Por favor, complete el texto objetivo a sintetizar y el modo de idioma",
9
+ ".限制范围越小判别效果越好。": ".Cuanto más pequeño sea el rango, mejor será el efecto de discriminación.",
10
+ "1-GPT-SoVITS-TTS": "1-GPT-SoVITS-TTS",
11
+ "1、DeEcho-DeReverb模型的耗时是另外2个DeEcho模型的接近2倍;": "1. El modelo DeEcho-DeReverb tarda casi el doble que los otros dos modelos DeEcho",
12
+ "1、保留人声:不带和声的音频选这个,对主人声保留比HP5更好。内置HP2和HP3两个模型,HP3可能轻微漏伴奏但对主人声保留比HP2稍微好一丁点;": "1. Retener voz principal: seleccione este para audio sin coros, retiene mejor la voz principal que HP5. Incluye dos modelos, HP2 y HP3; HP3 puede filtrar ligeramente el acompañamiento pero retiene mejor la voz principal que HP2",
13
+ "2-GPT-SoVITS-变声": "2-GPT-SoVITS-Cambio de voz",
14
+ "2、MDX-Net-Dereverb模型挺慢的;": "2. El modelo MDX-Net-Dereverb es bastante lento",
15
+ "2、仅保留主人声:带和声的音频选这个,对主人声可能有削弱。内置HP5一个模型;": "2. Solo retener voz principal: seleccione este para audio con coros, puede debilitar la voz principal. Incluye un modelo HP5",
16
+ "3、个人推荐的最干净的配置是先MDX-Net再DeEcho-Aggressive。": "3. La configuración más limpia recomendada es primero MDX-Net, luego DeEcho-Aggressive",
17
+ "3、去混响、去延迟模型(by FoxJoy):": "3. Modelos de eliminación de reverberación y retardo (por FoxJoy)",
18
+ "ASR 模型": "Modelo ASR",
19
+ "ASR 模型尺寸": "Tamaño del modelo ASR",
20
+ "ASR 语言设置": "Configuración del idioma ASR",
21
+ "GPT 训练: 模型权重文件在 GPT_weights/": "Entrenamiento de GPT: los archivos de pesos del modelo están en GPT_weights/",
22
+ "GPT模型列表": "Lista de modelos GPT",
23
+ "GPT训练": "Entrenamiento de GPT",
24
+ "GPT采样参数(无参考文本时不要太低。不懂就用默认):": "Parámetros de muestreo de GPT (no demasiado bajos cuando no hay texto de referencia. Use los valores por defecto si no está seguro):",
25
+ "GPU卡号,只能填1个整数": "Número de tarjeta GPU, solo se puede ingresar un número entero",
26
+ "GPU卡号以-分割,每个卡号一个进程": "Número de tarjeta GPU separado por '-', cada número de tarjeta es un proceso",
27
+ "LoRA秩": "Rango de LoRA",
28
+ "SoVITS V3 底模缺失,无法加载相应 LoRA 权重": "Falta el modelo base de SoVITS V3, no se pueden cargar los pesos de LoRA correspondientes",
29
+ "SoVITS 训练: 模型权重文件在 SoVITS_weights/": "Entrenamiento de SoVITS: los archivos de pesos del modelo están en SoVITS_weights/",
30
+ "SoVITS模型列表": "Lista de modelos SoVITS",
31
+ "SoVITS训练": "Entrenamiento de SoVITS",
32
+ "TTS推理WebUI": "WebUI de inferencia TTS",
33
+ "UVR5人声伴奏分离&去混响去延迟工具": "Herramienta de separación de voz y acompañamiento UVR5 y eliminación de reverberación y retardo",
34
+ "alpha_mix:混多少比例归一化后音频进来": "alpha_mix: proporción de mezcla de audio normalizado que entra",
35
+ "batch_size": "Tamaño de lote",
36
+ "hop_size:怎么算音量曲线,越小精度越大计算量越高(不是精度越大效果越好)": "hop_size: cómo calcular la curva de volumen, cuanto más pequeño, mayor precisión pero mayor carga computacional (mayor precisión no significa mejor rendimiento)",
37
+ "max:归一化后最大值多少": "max: valor máximo después de la normalización",
38
+ "max_sil_kept:切完后静音最多留多长": "max_sil_kept: duración máxima del silencio después del corte",
39
+ "min_interval:最短切割间隔": "min_interval: intervalo mínimo de corte",
40
+ "min_length:每段最小多长,如果第一段太短一直和后面段连起来直到超过这个值": "min_length: longitud mínima de cada segmento; si el primer segmento es demasiado corto, se une al siguiente hasta superar este valor",
41
+ "temperature": "temperatura",
42
+ "threshold:音量小于这个值视���静音的备选切割点": "umbral: puntos de corte alternativos considerados como silencio si el volumen es menor que este valor",
43
+ "top_k": "top_k",
44
+ "top_p": "top_p",
45
+ "v3暂不支持该模式,使用了会报错。": "v3 no es compatible con este modo actualmente y su uso generará un error.",
46
+ "v3输出如果觉得闷可以试试开超分": "Si la salida de V3 parece aburrida, puedes intentar activar la superresolución",
47
+ "不切": "No cortar",
48
+ "中文": "Chino",
49
+ "中文教程文档": "Documentación del tutorial en chino",
50
+ "中英混合": "Chino e inglés mezclados",
51
+ "主参考音频(请上传3~10秒内参考音频,超过会报错!)": "Audio de referencia principal (Por favor, suba un audio de referencia de entre 3 y 10 segundos, si supera este límite se producirá un error)",
52
+ "主参考音频的文本": "Texto del audio de referencia principal",
53
+ "主参考音频的语种": "Idioma del audio de referencia principal",
54
+ "也可批量输入音频文件, 二选一, 优先读文件夹": "También se pueden ingresar archivos de audio por lotes, seleccionar uno, prioridad para leer carpetas",
55
+ "人声伴奏分离批量处理, 使用UVR5模型。": "Procesamiento por lotes de separación de voz y acompañamiento utilizando el modelo UVR5",
56
+ "人声分离WebUI": "WebUI de separación de voces",
57
+ "人声提取激进程度": "Nivel de agresividad en la extracción de voz",
58
+ "以下文件或文件夹不存在": "No Existe Tal Archivo o Carpeta",
59
+ "以下模型不存在:": "No Existe tal Modelo:",
60
+ "伴奏人声分离&去混响&去回声": "Separación de acompañamiento y voz principal y eliminación de reverberación y eco",
61
+ "你没有下载超分模型的参数,因此不进行超分。如想超分请先参照教程把文件下载好": "No has descargado los parámetros del modelo de superresolución, por lo que no se realizará la superresolución. Si deseas habilitarla, sigue el tutorial y descarga los archivos necesarios",
62
+ "使用无参考文本模式时建议使用微调的GPT": "Se recomienda usar un GPT ajustado cuando se use el modo sin texto de referencia.",
63
+ "保存频率save_every_epoch": "Frecuencia de guardado (cada epoch)",
64
+ "保持随机": "Mantener aleatorio",
65
+ "关闭": "Cerrar ",
66
+ "凑50字一切": "Todo para alcanzar las 50 palabras",
67
+ "凑四句一切": "Completa cuatro oraciones para rellenar todo",
68
+ "分桶处理模式已关闭": "Modo de procesamiento por lotes deshabilitado",
69
+ "分桶处理模式已开启": "Modo de procesamiento por lotes habilitado",
70
+ "分段返回模式不支持分桶处理,已自动关闭分桶处理": "El modo de retorno segmentado no es compatible con el procesamiento por lotes, se ha deshabilitado automáticamente",
71
+ "分段返回模式已开启": "Modo de retorno segmentado habilitado",
72
+ "分段间隔(秒)": "Intervalo de segmentación (segundos)",
73
+ "分段间隔过小,已自动设置为0.01": "El intervalo de segmentación es demasiado pequeño, se ha ajustado automáticamente a 0.01",
74
+ "切分": "Segmentación",
75
+ "切分后文本": "Texto después de la segmentación",
76
+ "切分后的子音频的输出根目录": "Directorio raíz de salida de los sub-audios después de la división",
77
+ "切分文本": "Segmentar texto",
78
+ "切割使用的进程数": "Número de procesos utilizados para la división",
79
+ "刷新模型路径": "Actualizar la ruta del modelo",
80
+ "前端处理后的文本(每句):": "Texto después del procesamiento previo (por frase):",
81
+ "前置数据集获取工具": "Herramienta de adquisición de conjunto de datos previo",
82
+ "占用中": " En uso",
83
+ "去混响/去延迟,附:": "Eliminación de reverberación/retardo, incluye:",
84
+ "参考音频在3~10秒范围外,请更换!": "El audio de referencia está fuera del rango de 3 a 10 segundos, ¡por favor cámbielo!",
85
+ "参考音频的文本": "Texto de referencia del audio",
86
+ "参考音频的语种": "Idioma del audio de referencia",
87
+ "句间停顿秒数": "Segundos de pausa entre frases",
88
+ "可选项:通过拖拽多个文件上传多个参考音频(建议同性),平均融合他们的音色。如不填写此项,音色由左侧单个参考音频控制。如是微调模型,建议参考音频全部在微调训练集音色内,底模不用管。": "Opcional: Sube varios archivos de audio de referencia arrastrándolos y soltándolos (se recomienda que sean del mismo género) y promedia sus tonos. Si esta opción se deja en blanco, el tono será controlado por el único audio de referencia a la izquierda. Si se está afinando el modelo, se recomienda que todos los archivos de audio de referencia tengan tonos dentro del conjunto de entrenamiento de ajuste fino; se puede ignorar el modelo preentrenado.",
89
+ "合成语音": "Síntesis de voz",
90
+ "合格的文件夹路径格式举例: E:\\codes\\py39\\vits_vc_gpu\\白鹭霜华测试样例(去文件管理器地址栏拷就行了)。": "Ejemplo de formato de ruta de carpeta válida: E:\\codes\\py39\\vits_vc_gpu\\白鹭霜华测试样例 (simplemente copie desde la barra de direcciones del administrador de archivos).",
91
+ "后续将支持转音素、手工修改音素、语音合成分步执行。": "Se añadirá soporte para conversión de fonemas, edición manual de fonemas y síntesis de voz por pasos en el futuro.",
92
+ "听不清参考音频说的啥(不晓得写啥)可以开。开启后无视填写的参考文本。": "Si el audio de referencia no es claro o no sabe qué escribir, habilite esta opción para ignorar el texto de referencia.",
93
+ "启用并行推理版本": "Habilitar versión de inferencia paralela",
94
+ "填切割后音频所在目录!读取的音频文件完整路径=该目录-拼接-list文件里波形对应的文件名(不是全路径)。如果留空则使用.list文件里的绝对全路径。": "Ingrese el directorio donde se encuentran los audios después de la división. La ruta completa de los archivos de audio leídos = este directorio + nombre de archivo correspondiente en el archivo .list (no la ruta completa). Si se deja en blanco, se utilizará la ruta completa del archivo .list.",
95
+ "多语种混合": "Mezcla de varios idiomas",
96
+ "多语种混合(粤语)": "Mezcla Multilingüe (Cantonés)",
97
+ "失败": " Fallido",
98
+ "如不认可该条款, 则不能使用或引用软件包内任何代码和文件. 详见根目录LICENSE.": "Si no acepta estos términos, no puede utilizar ni hacer referencia a ningún código o archivo dentro del paquete de software. Consulte el archivo LICENSE en el directorio raíz para obtener más detalles.",
99
+ "实际输入的参考文本:": "Texto de referencia realmente ingresado:",
100
+ "实际输入的目标文本(切句后):": "Texto objetivo realmente ingresado (después de dividir en frases):",
101
+ "实际输入的目标文本(每句):": "Texto objetivo realmente ingresado (por frase):",
102
+ "实际输入的目标文本:": "Texto objetivo realmente ingresado:",
103
+ "导出文件格式": "Formato de archivo de exportación",
104
+ "已关闭": " Desactivado",
105
+ "已完成": " Completado",
106
+ "已开启": " Activado",
107
+ "并行推理": "Inferencia paralela",
108
+ "并行推理模式已关闭": "Modo de inferencia paralela deshabilitado",
109
+ "并行推理模式已开启": "Modo de inferencia paralela habilitado",
110
+ "开启": "Activar ",
111
+ "开启无参考文本模式。不填参考文本亦相当于开启。": "Habilitar el modo sin texto de referencia. No llenar el texto de referencia también lo habilita.",
112
+ "微调训练": "Entrenamiento de ajuste fino",
113
+ "怎么切": "Cómo cortar",
114
+ "总训练轮数total_epoch": "Número total de épocas de entrenamiento",
115
+ "总训练轮数total_epoch,不建议太高": "Número total de épocas de entrenamiento, no se recomienda demasiado alto",
116
+ "指定输出主人声文件夹": "Especificar carpeta de salida de voz principal",
117
+ "指定输出非主人声文件夹": "Especificar carpeta de salida de no voz principal",
118
+ "按中文句号。切": "Cortar según puntos en chino",
119
+ "按标点符号切": "Cortar según los signos de puntuación",
120
+ "按英文句号.切": "Cortar por puntos en inglés.",
121
+ "推理": "Inferencia",
122
+ "推理设置": "Configuración de inferencia",
123
+ "提取文本Bert特征": "Extraer características de texto con BERT",
124
+ "数据分桶(并行推理时会降低一点计算量)": "Agrupación de datos (Reduce el costo computacional en inferencia paralela)",
125
+ "数据类型精度": "precisión del tipo de datos",
126
+ "文本分词与特征提取": "Segmentación de texto y extracción de características",
127
+ "文本切分工具。太长的文本合成出来效果不一定好,所以太长建议先切。合成会根据文本的换行分开合成再拼起来。": "Herramienta de segmentación de texto. Un texto demasiado largo puede no producir buenos resultados, por lo que se recomienda segmentarlo. La síntesis se realizará por separado según los saltos de línea y luego se unirá.",
128
+ "文本模块学习率权重": "Peso de la tasa de aprendizaje del módulo de texto",
129
+ "施工中,请静候佳音": "En construcción, por favor espere pacientemente",
130
+ "日文": "Japonés",
131
+ "日英混合": "Mezcla de japonés e inglés",
132
+ "是否仅保存最新的权重文件以节省硬盘空间": "¿Guardar solo el último archivo de pesos más reciente para ahorrar espacio en disco?",
133
+ "是否在每次保存时间点将最终小模型保存至weights文件夹": "¿Guardar el modelo final pequeño en la carpeta de pesos en cada punto de guardado?",
134
+ "是否开启DPO训练选项(实验性)": "¿Habilitar la opción de entrenamiento dpo (experimental)?",
135
+ "是否直接对上次合成结果调整语速和音色。防止随机性。": "¿Ajustar directamente la velocidad del habla y el tono del último resultado de síntesis? Para prevenir la aleatoriedad.",
136
+ "显卡信息": "Información de la tarjeta gráfica",
137
+ "未下载模型": "Modelo no descargado",
138
+ "本软件以MIT协议开源, 作者不对软件具备任何控制力, 使用软件者、传播软件导出的声音者自负全责.": "Este software es de código abierto bajo la licencia MIT. El autor no tiene control sobre el software. El usuario que lo utilice o distribuya, y el que genere sonidos a partir del software, asume toda la responsabilidad.",
139
+ "标注文件路径 (含文件后缀 *.list)": "Ruta del archivo de anotaciones (con extensión *.list)",
140
+ "模型": "Modelo",
141
+ "模型分为三类:": "Los modelos se dividen en tres categorías:",
142
+ "模型切换": "Cambio de modelo",
143
+ "每张显卡的batch_size": "Tamaño de lote por tarjeta gráfica",
144
+ "版本": "Versión",
145
+ "粤英混合": "Mezcla Cantonés-Inglés",
146
+ "粤语": "Cantonés",
147
+ "终止合成": "Terminar síntesis",
148
+ "缺少Hubert数据集": "Falta el Conjunto de Datos de Hubert",
149
+ "缺少语义数据集": "Falta el Conjunto de Datos Semánticos",
150
+ "缺少音素数据集": "Falta el Conjunto de Datos de Fonemas",
151
+ "缺少音频数据集": "Falta el Conjunto de Datos de Audio",
152
+ "英文": "Inglés",
153
+ "训练集格式化一键三连": "Formato del conjunto de entrenamiento en un solo paso",
154
+ "训练集格式化工具": "Herramienta de formateo del conjunto de datos de entrenamiento",
155
+ "语义Token提取": "Extracción de tokens semánticos",
156
+ "语速": "Velocidad de habla",
157
+ "语速调整,高为更快": "Ajustar la velocidad de habla, más alta para más rápido",
158
+ "语速调节不支持分桶处理,已自动关闭分桶处理": "El ajuste de velocidad de voz no es compatible con el procesamiento por lotes, se ha deshabilitado automáticamente",
159
+ "语音切分": "Segmentación de voz",
160
+ "语音切分工具": "Herramienta de división de voz",
161
+ "语音文本校对标注工具": "Herramienta de corrección y anotación de texto de voz",
162
+ "语音自监督特征提取": "Extracción de características de voz con auto-supervisión",
163
+ "语音识别": "Reconocimiento de voz",
164
+ "语音识别工具": "Herramienta de reconocimiento de voz",
165
+ "语音降噪": "Reducción de ruido en la voz",
166
+ "语音降噪工具": "Herramienta de reducción de ruido de voz",
167
+ "请上传3~10秒内参考音频,超过会报错!": "Por favor, suba un audio de referencia de entre 3 y 10 segundos, ¡más de eso causará un error!",
168
+ "请上传参考音频": "Por Favor, Suba el Audio de Referencia",
169
+ "请填入推理文本": "Por Favor, Ingrese el Texto Objetivo",
170
+ "请填入正确的List路径": "Por Favor, Introduzca la Ruta Correcta de la Lista",
171
+ "请填入正确的音频文件夹路径": "Por Favor, Introduzca la Ruta Correcta de la Carpeta de Audio",
172
+ "请输入有效文本": "Por favor, introduzca un texto válido",
173
+ "路径不存在,使用默认配置": "Ruta no encontrada, usando configuración predeterminada",
174
+ "路径不能为空": "Se Espera que la Ruta No Esté Vacía",
175
+ "路径错误": "Error de Ruta",
176
+ "转换": "Convertir",
177
+ "辅参考音频(可选多个,或不选)": "Audio de referencia secundario (Opcional, se pueden seleccionar varios o ninguno)",
178
+ "输入待处理音频文件夹路径": "Ingrese la ruta de la carpeta de audio a procesar",
179
+ "输入文件夹路径": "Ingrese la ruta de la carpeta",
180
+ "输入路径不存在": "La ruta de entrada no existe",
181
+ "输入路径存在但不可用": "La ruta de entrada existe pero no es accesible",
182
+ "输出logs/实验名目录下应有23456开头的文件和文件夹": "Debe haber archivos y carpetas que comiencen con 23456 en el directorio logs/nombre del experimento",
183
+ "输出信息": "Información de salida",
184
+ "输出文件夹路径": "Ruta de la carpeta de salida",
185
+ "输出的语音": "Audio de salida",
186
+ "运行中": " En ejecución",
187
+ "进度": "Progreso",
188
+ "进程已终止": " Proceso terminado",
189
+ "进程输出信息": " Información de salida del proceso",
190
+ "选择训练完存放在SoVITS_weights和GPT_weights下的模型。默认的一个是底模,体验5秒Zero Shot TTS用。": "Seleccione el modelo almacenado en SoVITS_weights y GPT_weights después del entrenamiento. Uno de ellos es el modelo base, útil para experimentar con TTS de 5 segundos sin entrenamiento.",
191
+ "采样步数,如果觉得电,提高试试,如果觉得慢,降低试试": "Pasos de muestreo: si se siente ruidoso, intente aumentarlo; si es lento, intente reducirlo",
192
+ "重复惩罚": "Penalización por repetición",
193
+ "随机种子": "Semilla aleatoria",
194
+ "需先终止才能开启下一次任务": " Debe terminarse antes de iniciar la siguiente tarea",
195
+ "需要合成的切分前文本": "Texto antes de la segmentación para la síntesis",
196
+ "需要合成的文本": "Texto a sintetizar",
197
+ "需要合成的文本的语种": "Idioma del texto a sintetizar",
198
+ "需要合成的语种": "Idioma para la síntesis",
199
+ "韩文": "Coreano",
200
+ "韩英混合": "Mezcla Coreano-Inglés",
201
+ "音频加载失败": "Error al Cargar el Audio",
202
+ "音频文件不存在,跳过:": "Archivo de audio no encontrado, omitiendo: ",
203
+ "音频标注WebUI": "WebUI de etiquetado de audio",
204
+ "音频自动切分输入路径,可文件可文件夹": "Ruta de entrada para la división automática de audio, puede ser un archivo o una carpeta",
205
+ "音频超分中": "Superresolución de audio en proceso",
206
+ "预训练GPT模型路径": "Ruta del modelo GPT preentrenado",
207
+ "预训练SSL模型路径": "Ruta del modelo SSL preentrenado",
208
+ "预训练SoVITS-D模型路径": "Ruta del modelo SoVITS-D preentrenado",
209
+ "预训练SoVITS-G模型路径": "Ruta del modelo SoVITS-G preentrenado",
210
+ "预训练中文BERT模型路径": "Ruta del modelo BERT en Chino preentrenado"
211
+ }
tools/i18n/locale/fr_FR.json ADDED
@@ -0,0 +1,211 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ {
2
+ "(1)MDX-Net(onnx_dereverb):对于双通道混响是最好的选择,不能去除单通道混响;": "(1) MDX-Net (onnx_dereverb) : C'est le meilleur choix pour la réverbération à deux canaux, mais il ne peut pas éliminer la réverbération à un seul canal;",
3
+ "(234)DeEcho:去除延迟效果。Aggressive比Normal去除得更彻底,DeReverb额外去除混响,可去除单声道混响,但是对高频重的板式混响去不干净。": "(234)DeEcho : Supprime les effets de délai. Aggressive est plus exhaustif que Normal dans la suppression, DeReverb élimine également la réverbération, peut supprimer la réverbération monocanal, mais n'élimine pas complètement la réverbération de plaque à haute fréquence.",
4
+ "*实验/模型名": "*Nom de l'expérience/modèle",
5
+ "*文本标注文件": "*Fichier d'annotation de texte",
6
+ "*训练集音频文件目录": "*Répertoire des fichiers audio d'entraînement",
7
+ "*请上传并填写参考信息": "*Veuillez télécharger et remplir les informations de référence",
8
+ "*请填写需要合成的目标文本和语种模式": "*Veuillez saisir le texte cible à synthétiser et le mode de langue.",
9
+ ".限制范围越小判别效果越好。": "Moins il y a de langues, mieux c'est",
10
+ "1-GPT-SoVITS-TTS": "1-GPT-SoVITS-TTS",
11
+ "1、DeEcho-DeReverb模型的耗时是另外2个DeEcho模型的接近2倍;": "1. Le temps de traitement du modèle DeEcho-DeReverb est presque le double de celui des deux autres modèles DeEcho;",
12
+ "1、保留人声:不带和声的音频选这个,对主人声保留比HP5更好。内置HP2和HP3两个模型,HP3可能轻微漏伴奏但对主人声保留比HP2稍微好一丁点;": "1. Préserver les voix : Choisissez cette option pour les audio sans harmonie, car elle conserve mieux la voix principale par rapport au modèle HP5. Deux modèles intégrés, HP2 et HP3, sont disponibles. HP3 peut légèrement laisser passer l'accompagnement mais conserve la voix principale un peu mieux que HP2;",
13
+ "2-GPT-SoVITS-变声": "2-GPT-SoVITS-Modification de la voix",
14
+ "2、MDX-Net-Dereverb模型挺慢的;": "2. Le modèle MDX-Net-Dereverb est assez lent;",
15
+ "2、仅保留主人声:带和声的音频选这个,对主人声可能有削弱。内置HP5一个模型;": "2. Conserver uniquement la voix principale : Choisissez cette option pour les audio avec harmonie, car elle peut affaiblir la voix principale. Un modèle HP5 intégré est disponible;",
16
+ "3、个人推荐的最干净的配置是先MDX-Net再DeEcho-Aggressive。": "3. La configuration la plus propre que je recommande est d'utiliser d'abord MDX-Net, puis DeEcho-Aggressive.",
17
+ "3、去混响、去延迟模型(by FoxJoy):": "3. Modèle de suppression de réverbération et de retard (par FoxJoy) :",
18
+ "ASR 模型": "Modèle ASR",
19
+ "ASR 模型尺寸": "Taille du modèle ASR",
20
+ "ASR 语言设置": "Paramètres de langue ASR",
21
+ "GPT 训练: 模型权重文件在 GPT_weights/": "Entraînement GPT : les poids du modèle sont dans GPT_weights/",
22
+ "GPT模型列表": "Liste des modèles GPT",
23
+ "GPT训练": "Entraînement GPT",
24
+ "GPT采样参数(无参考文本时不要太低。不懂就用默认):": "Paramètres d'échantillonnage de GPT (ne pas mettre trop bas lorsqu'il n'y a pas de texte de référence. Utilisez les valeurs par défaut si vous n'êtes pas sûr):",
25
+ "GPU卡号,只能填1个整数": "Numéro de carte GPU, ne peut contenir qu'un seul entier",
26
+ "GPU卡号以-分割,每个卡号一个进程": "Numéro de carte GPU séparé par des tirets, un processus par numéro de carte",
27
+ "LoRA秩": "Rang LoRA",
28
+ "SoVITS V3 底模缺失,无法加载相应 LoRA 权重": "Modèle de base SoVITS V3 manquant, impossible de charger les poids LoRA correspondants",
29
+ "SoVITS 训练: 模型权重文件在 SoVITS_weights/": "Entraînement SoVITS : les poids du modèle sont dans SoVITS_weights/",
30
+ "SoVITS模型列表": "Liste des modèles SoVITS",
31
+ "SoVITS训练": "Entraînement SoVITS",
32
+ "TTS推理WebUI": "Interface Web d'inférence TTS",
33
+ "UVR5人声伴奏分离&去混响去延迟工具": "Outil UVR5 de séparation voix/accompagnement & suppression de réverbération et de latence",
34
+ "alpha_mix:混多少比例归一化后音频进来": "alpha_mix: proportion d'audio normalisé mélangé",
35
+ "batch_size": "Taille de lot",
36
+ "hop_size:怎么算音量曲线,越小精度越大计算量越高(不是精度越大效果越好)": "hop_size: comment calculer la courbe de volume, plus petit pour une précision plus élevée mais une charge de calcul plus élevée (ce n'est pas une meilleure précision)",
37
+ "max:归一化后最大值多少": "max: valeur maximale après normalisation",
38
+ "max_sil_kept:切完后静音最多留多长": "max_sil_kept: durée maximale de silence après la coupe",
39
+ "min_interval:最短切割间隔": "min_interval: intervalle de coupe minimum",
40
+ "min_length:每段最小多长,如果第一段太短一直和后面段连起来直到超过这个值": "min_length:longueur minimale de chaque segment ; si le premier segment est trop court, il est concaténé avec les segments suivants jusqu'à ce que la longueur dépasse cette valeur",
41
+ "temperature": "température",
42
+ "threshold:音量小于这个值视作静音的备选切割点": "seuil: le volume inférieur à cette valeur est considéré comme un point de coupe silencieux alternatif",
43
+ "top_k": "top_k",
44
+ "top_p": "top_p",
45
+ "v3暂不支持该模式,使用了会报错。": "Le mode n'est pas encore supporté par la v3. Une erreur se produira en cas d'utilisation.",
46
+ "v3输出如果觉得闷可以试试开超分": "Si la sortie v3 semble étouffée, essayez l'upscaling",
47
+ "不切": "Pas de découpe",
48
+ "中文": "Chinois",
49
+ "中文教程文档": "Documentation du tutoriel en chinois",
50
+ "中英混合": "Mélange de chinois et d'anglais",
51
+ "主参考音频(请上传3~10秒内参考音频,超过会报错!)": "Audio de référence principal (Veuillez télécharger un audio de référence entre 3 et 10 secondes, dépasser cette limite entraînera une erreur !)",
52
+ "主参考音频的文本": "Texte de l’audio de référence principal",
53
+ "主参考音频的语种": "Langue de l’audio de référence principal",
54
+ "也可批量输入音频文件, 二选一, 优先读文件夹": "Également possible d'entrer en lot des fichiers audio, au choix, privilégiez la lecture du dossier",
55
+ "人声伴奏分离批量处理, 使用UVR5模型。": "Traitement par lot de séparation voix-accompagnement en utilisant le modèle UVR5.",
56
+ "人声分离WebUI": "Interface Web de séparation des voix",
57
+ "人声提取激进程度": "Degré d'extraction des voix",
58
+ "以下文件或文件夹不存在": "Aucun Fichier ou Dossier de ce Type",
59
+ "以下模型不存在:": "Aucun Modèle de ce Type:",
60
+ "伴奏人声分离&去混响&去回声": "Séparation de la voix et de l'accompagnement, suppression de la réverbération et de l'écho",
61
+ "你没有下载超分模型的参数,因此不进行超分。如想超分请先参照教程把文件下载好": "Vous n'avez pas téléchargé les paramètres du modèle d'upscaling, donc l'upscaling ne sera pas effectué. Veuillez suivre le tutoriel pour télécharger les fichiers nécessaires",
62
+ "使用无参考文本模式时建议使用微调的GPT": "Il est recommandé d'utiliser un GPT finement ajusté lors de l'utilisation du mode sans texte de référence.",
63
+ "保存频率save_every_epoch": "Fréquence de sauvegarde (sauvegarder à chaque époque)",
64
+ "保持随机": "Garder aléatoire",
65
+ "关闭": "Fermer ",
66
+ "凑50字一切": "Assembler 50 mots tout",
67
+ "凑四句一切": "Composez quatre phrases pour tout remplir",
68
+ "分桶处理模式已关闭": "Mode de traitement par regroupement désactivé",
69
+ "分桶处理模式已开启": "Mode de traitement par regroupement activé",
70
+ "分段返回模式不支持分桶处理,已自动关闭分桶处理": "Le mode de retour segmenté ne prend pas en charge le regroupement des données, désactivation automatique",
71
+ "分段返回模式已开启": "Mode de retour segmenté activé",
72
+ "分段间隔(秒)": "Intervalle de segmentation (secondes)",
73
+ "分段间隔过小,已自动设置为0.01": "L’intervalle de segmentation est trop court, réglé automatiquement à 0.01",
74
+ "切分": "Segmentation",
75
+ "切分后文本": "Texte après segmentation",
76
+ "切分后的子音频的输出根目录": "Répertoire racine de sortie des sous-audios après découpage",
77
+ "切分文本": "Segmenter le texte",
78
+ "切割使用的进程数": "Nombre de processus utilisés pour le découpage",
79
+ "刷新模型路径": "Actualiser le chemin du modèle",
80
+ "前端处理后的文本(每句):": "Texte après traitement frontal (par phrase):",
81
+ "前置数据集获取工具": "Outil de récupération des ensembles de données",
82
+ "占用中": " Occupé",
83
+ "去混响/去延迟,附:": "Suppression de la réverbération / suppression du retard, ci-joint:",
84
+ "参考音频在3~10秒范围外,请更换!": "Veuillez remplacer l'audio de référence si sa durée est en dehors de la plage de 3 à 10 secondes!",
85
+ "参考音频的文本": "Texte de l'audio de référence",
86
+ "参考音频的语种": "Langue de l'audio de référence",
87
+ "句间停顿秒数": "Temps de pause entre les phrases (secondes)",
88
+ "可选项:通过拖拽多个文件上传多个参考音频(建议同性),平均融合他们的音色。如不填写此项,音色由左侧单个参考音频控制。如是微调模型,建议参考音频全部在微调训练集音色内,底模不用管。": "Optionnel : Téléchargez plusieurs fichiers audio de référence en les faisant glisser (recommandé d'être du même genre) et fusionnez leur tonalité. Si cette option est laissée vide, la tonalité sera contrôlée par l'unique fichier audio de référence à gauche. Si vous ajustez le modèle, il est recommandé que tous les fichiers audio de référence aient des tonalités dans l'ensemble d'entraînement d'ajustement ; le modèle pré-entrainé peut être ignoré.",
89
+ "合成语音": "Synthèse vocale",
90
+ "合格的文件夹路径格式举例: E:\\codes\\py39\\vits_vc_gpu\\白鹭霜华测试样例(去文件管理器地址栏拷就行了)。": "Exemple de format de chemin de dossier valide : E:\\codes\\py39\\vits_vc_gpu\\白鹭霜华测试样例 (copiez-le depuis la barre d'adresse de l'explorateur de fichiers).",
91
+ "后续将支持转音素、手工修改音素、语音合成分步执行。": "Le support pour la conversion phonémique, l’édition manuelle des phonèmes et la synthèse vocale par étapes sera ajouté ultérieurement.",
92
+ "听不清参考音频说的啥(不晓得写啥)可以开。开启后无视填写的参考文本。": "Si vous ne comprenez pas bien l'audio de référence (vous ne savez pas quoi écrire), vous pouvez activer cette option. Une fois activée, le texte de référence sera ignoré.",
93
+ "启用并行推理版本": "Activer la version d’inférence parallèle",
94
+ "填切割后音频所在目录!读取的音频文件完整路径=该目录-拼接-list文件里波形对应的文件名(不是全路径)。如果留空则使用.list文件里的绝对全路径。": "Veuillez indiquer le répertoire contenant les audio découpés ! Le chemin complet du fichier audio à lire = ce répertoire - nom du fichier correspondant à l'onde dans le fichier .list (pas le chemin complet). Si laissé vide, le chemin absolu dans le fichier .list sera utilisé.",
95
+ "多语种混合": "Mélange multilingue",
96
+ "多语种混合(粤语)": "Mélange Multilingue (Cantonais)",
97
+ "失败": " Échec",
98
+ "如不认可该条款, 则不能使用或引用软件包内任何代码和文件. 详见根目录LICENSE.": "Si vous n'acceptez pas ces conditions, vous ne pouvez ni utiliser ni citer aucun code ou fichier du package logiciel. Voir LICENSE à la racine.",
99
+ "实际输入的参考文本:": "Texte de référence réellement saisi:",
100
+ "实际输入的目标文本(切句后):": "Texte cible réellement saisi (après découpage):",
101
+ "实际输入的目标文本(每句):": "Texte cible réellement saisi (par phrase):",
102
+ "实际输入的目标文本:": "Texte cible réellement saisi:",
103
+ "导出文件格式": "Format d'exportation du fichier",
104
+ "已关闭": " Fermé",
105
+ "已完成": " Terminé",
106
+ "已开启": " Activé",
107
+ "并行推理": "Inférence parallèle",
108
+ "并行推理模式已关闭": "Mode d’inférence parallèle désactivé",
109
+ "并行推理模式已开启": "Mode d’inférence parallèle activé",
110
+ "开启": "Activer ",
111
+ "开启无参考文本模式。不填参考文本亦相当于开启。": "Activer le mode sans texte de référence. Laisser le texte de référence vide équivaut également à activer le mode.",
112
+ "微调训练": "Entraînement de fine-tuning",
113
+ "怎么切": "Comment découper",
114
+ "总训练轮数total_epoch": "Nombre total d'époques d'entraînement",
115
+ "总训练轮数total_epoch,不建议太高": "Nombre total d'époques d'entraînement, pas recommandé d'être trop élevé",
116
+ "指定输出主人声文件夹": "Spécifier le dossier de sortie pour la voix principale",
117
+ "指定输出非主人声文件夹": "Spécifier le dossier de sortie pour la non-voix principale",
118
+ "按中文句号。切": "Couper selon les points en chinois.",
119
+ "按标点符号切": "Couper selon les signes de ponctuation",
120
+ "按英文句号.切": "Découpez par des points en anglais",
121
+ "推理": "Inférence",
122
+ "推理设置": "Paramètres d’inférence",
123
+ "提取文本Bert特征": "Extraire les caractéristiques du texte avec BERT",
124
+ "数据分桶(并行推理时会降低一点计算量)": "Regroupement des données (Réduit le coût de calcul en inférence parallèle)",
125
+ "数据类型精度": "précision du type de données",
126
+ "文本分词与特征提取": "Segmentation et extraction de caractéristiques du texte",
127
+ "文本切分工具。太长的文本合成出来效果不一定好,所以太长建议先切。合成会根据文本的换行分开合成再拼起来。": "Outil de segmentation de texte. Un texte trop long peut donner un mauvais résultat, il est donc recommandé de le segmenter. La synthèse se fera selon les sauts de ligne puis sera assemblée.",
128
+ "文本模块学习率权重": "Poids du taux d'apprentissage du module de texte",
129
+ "施工中,请静候佳音": "En construction, veuillez attendre patiemment",
130
+ "日文": "Japonais",
131
+ "日英混合": "Mélange Japonais-Anglais",
132
+ "是否仅保存最新的权重文件以节省硬盘空间": "Faut-il ne conserver que les derniers fichiers de poids pour économiser de l'espace disque ?",
133
+ "是否在每次保存时间点将最终小模型保存至weights文件夹": "Sauvegarder le petit modèle final dans le dossier weights à chaque point de sauvegarde",
134
+ "是否开启DPO训练���项(实验性)": "Activer l'option d'entraînement DPO (expérimental) ?",
135
+ "是否直接对上次合成结果调整语速和音色。防止随机性。": "Ajuster la vitesse de parole et la tonalité du dernier résultat de synthèse pour prévenir l'aléatoire.",
136
+ "显卡信息": "Informations sur la carte graphique",
137
+ "未下载模型": "Modèle non téléchargé",
138
+ "本软件以MIT协议开源, 作者不对软件具备任何控制力, 使用软件者、传播软件导出的声音者自负全责.": "Ce logiciel est open-source sous licence MIT. L'auteur n'exerce aucun contrôle sur le logiciel. L'utilisateur et toute personne diffusant les sorties audio générées sont entièrement responsables.",
139
+ "标注文件路径 (含文件后缀 *.list)": "Chemin du fichier d'annotation (avec l'extension *.list)",
140
+ "模型": "Modèle",
141
+ "模型分为三类:": "Les modèles sont classés en trois catégories:",
142
+ "模型切换": "Changement de modèle",
143
+ "每张显卡的batch_size": "Taille de lot par carte graphique",
144
+ "版本": "Version",
145
+ "粤英混合": "Mélange Cantonais-Anglais",
146
+ "粤语": "Cantonais",
147
+ "终止合成": "Terminer la synthèse",
148
+ "缺少Hubert数据集": "Jeu de Données Hubert Manquant",
149
+ "缺少语义数据集": "Jeu de Données Sémantiques Manquant",
150
+ "缺少音素数据集": "Jeu de Données de Phonèmes Manquant",
151
+ "缺少音频数据集": "Jeu de Données Audio Manquant",
152
+ "英文": "Anglais",
153
+ "训练集格式化一键三连": "Formatage de l'ensemble d'entraînement en un clic",
154
+ "训练集格式化工具": "Outil de formatage des ensembles d'entraînement",
155
+ "语义Token提取": "Extraction de tokens sémantiques",
156
+ "语速": "Débit de parole",
157
+ "语速调整,高为更快": "Ajuster la vitesse de parole, plus élevée pour plus rapide",
158
+ "语速调节不支持分桶处理,已自动关闭分桶处理": "Le réglage de la vitesse vocale ne prend pas en charge le regroupement des données, désactivation automatique",
159
+ "语音切分": "Segmentation vocale",
160
+ "语音切分工具": "Outil de segmentation vocale",
161
+ "语音文本校对标注工具": "Outil d'annotation et de correction des transcriptions vocales",
162
+ "语音自监督特征提取": "Extraction de caractéristiques auto-supervisée pour l'audio",
163
+ "语音识别": "Reconnaissance vocale",
164
+ "语音识别工具": "Outil de reconnaissance vocale",
165
+ "语音降噪": "Réduction du bruit audio",
166
+ "语音降噪工具": "Outil de réduction du bruit audio",
167
+ "请上传3~10秒内参考音频,超过会报错!": "Veuillez télécharger une référence audio de 3 à 10 secondes ; les fichiers plus longs généreront une erreur!",
168
+ "请上传参考音频": "Veuillez télécharger l'audio de référence",
169
+ "请填入推理文本": "Veuillez remplir le texte cible",
170
+ "请填入正确的List路径": "Veuillez Remplir le Chemin Correct de la Liste",
171
+ "请填入正确的音频文件夹路径": "Veuillez Remplir le Chemin Correct du Dossier Audio",
172
+ "请输入有效文本": "Veuillez entrer un texte valide",
173
+ "路径不存在,使用默认配置": "Chemin introuvable, utilisation de la configuration par défaut",
174
+ "路径不能为空": "Chemin Non Vide Attendu",
175
+ "路径错误": "Erreur de Chemin",
176
+ "转换": "Conversion",
177
+ "辅参考音频(可选多个,或不选)": "Audio de référence secondaire (Facultatif, plusieurs possibles ou aucun)",
178
+ "输入待处理音频文件夹路径": "Entrez le chemin du dossier audio à traiter",
179
+ "输入文件夹路径": "Chemin du dossier à entrer",
180
+ "输入路径不存在": "Le chemin d'entrée n'existe pas",
181
+ "输入路径存在但不可用": "Le chemin d'entrée existe mais est inutilisable",
182
+ "输出logs/实验名目录下应有23456开头的文件和文件夹": "Les fichiers et dossiers commençant par 23456 devraient être présents dans le répertoire logs/nom de l'expérience",
183
+ "输出信息": "Sortie d'information",
184
+ "输出文件夹路径": "Chemin du dossier de sortie",
185
+ "输出的语音": "Audio de sortie",
186
+ "运行中": " en cours d'exécution",
187
+ "进度": "Progression",
188
+ "进程已终止": " Processus terminé",
189
+ "进程输出信息": " Sortie du processus",
190
+ "选择训练完存放在SoVITS_weights和GPT_weights下的模型。默认的一个是底模,体验5秒Zero Shot TTS用。": "Choisissez le modèle entraîné stocké sous SoVITS_weights et GPT_weights. Par défaut, l'un d'eux est un modèle de base pour l'expérience de TTS Zero Shot de 5 secondes.",
191
+ "采样步数,如果觉得电,提高试试,如果觉得慢,降低试试": "Nombre d’étapes d’échantillonnage : si le son est bruité, essayez d’augmenter, si c’est lent, essayez de réduire",
192
+ "重复惩罚": "Pénalité de répétition",
193
+ "随机种子": "Graine aléatoire",
194
+ "需先终止才能开启下一次任务": "Il faut d'abord arrêter le processus avant de lancer une nouvelle tâche",
195
+ "需要合成的切分前文本": "Texte avant segmentation pour la synthèse",
196
+ "需要合成的文本": "Texte à synthétiser",
197
+ "需要合成的文本的语种": "Langue du texte à synthétiser",
198
+ "需要合成的语种": "Langue de synthèse requise",
199
+ "韩文": "Coreano",
200
+ "韩英混合": "Mezcla Coreano-Inglés",
201
+ "音频加载失败": "Échec du Chargement de l'Audio",
202
+ "音频文件不存在,跳过:": "Fichier audio introuvable, passage : ",
203
+ "音频标注WebUI": "Interface Web d'annotation audio",
204
+ "音频自动切分输入路径,可文件可文件夹": "Chemin d'entrée automatique de découpage audio, peut être un fichier ou un dossier",
205
+ "音频超分中": "Upscaling audio en cours",
206
+ "预训练GPT模型路径": "Chemin du modèle GPT pré-entraîné",
207
+ "预训练SSL模型路径": "Chemin du modèle SSL pré-entraîné",
208
+ "预训练SoVITS-D模型路径": "Chemin du modèle SoVITS-D pré-entraîné",
209
+ "预训练SoVITS-G模型路径": "Chemin du modèle SoVITS-G pré-entraîné",
210
+ "预训练中文BERT模型路径": "Chemin du modèle BERT chinois pré-entraîné"
211
+ }
tools/i18n/locale/it_IT.json ADDED
@@ -0,0 +1,211 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ {
2
+ "(1)MDX-Net(onnx_dereverb):对于双通道混响是最好的选择,不能去除单通道混响;": "(1)MDX-Net (onnx_dereverb): È la scelta migliore per la riverberazione a due canali, ma non può rimuovere la riverberazione a canale singolo;",
3
+ "(234)DeEcho:去除延迟效果。Aggressive比Normal去除得更彻底,DeReverb额外去除混响,可去除单声道混响,但是对高频重的板式混响去不干净。": "(234)DeEcho: Rimuove gli effetti di ritardo. Aggressive è più completo di Normal nella rimozione, DeReverb rimuove ulteriormente la riverberazione, può rimuovere la riverberazione a canale singolo, ma non rimuove completamente la riverberazione a piastra ad alta frequenza.",
4
+ "*实验/模型名": "*Nome dell'esperimento/modello",
5
+ "*文本标注文件": "*File di annotazione del testo",
6
+ "*训练集音频文件目录": "*Directory dei file audio del set di addestramento",
7
+ "*请上传并填写参考信息": "*Carica e compila le informazioni di riferimento",
8
+ "*请填写需要合成的目标文本和语种模式": "*Si prega di inserire il testo di destinazione da sintetizzare e la modalità lingua",
9
+ ".限制范围越小判别效果越好。": "Meno multilingue è meglio",
10
+ "1-GPT-SoVITS-TTS": "1-GPT-SoVITS-TTS",
11
+ "1、DeEcho-DeReverb模型的耗时是另外2个DeEcho模型的接近2倍;": "1. Il tempo di elaborazione del modello DeEcho-DeReverb è quasi il doppio di quello degli altri due modelli DeEcho;",
12
+ "1、保留人声:不带和声的音频选这个,对主人声保留比HP5更好。内置HP2和HP3两个模型,HP3可能轻微漏伴奏但对主人声保留比HP2稍微好一丁点;": "1. Conserva la voce principale: scegli questa opzione per audio senza armonie, poiché conserva meglio la voce principale rispetto al modello HP5. Include due modelli integrati, HP2 e HP3. HP3 potrebbe far passare leggermente l'accompagnamento ma conserva meglio la voce principale rispetto a HP2;",
13
+ "2-GPT-SoVITS-变声": "2-GPT-SoVITS-Voce modificata",
14
+ "2、MDX-Net-Dereverb模型挺慢的;": "2. Il modello MDX-Net-Dereverb è piuttosto lento;",
15
+ "2、仅保留主人声:带和声的音频选这个,对主人声可能有削弱。内置HP5一个模型;": "2. Solo conserva la voce principale: scegli questa opzione per audio con armonie, poiché potrebbe indebolire la voce principale. Include un modello HP5;",
16
+ "3、个人推荐的最干净的配置是先MDX-Net再DeEcho-Aggressive。": "3. La configurazione più pulita consigliata è MDX-Net seguito da DeEcho-Aggressive.",
17
+ "3、去混响、去延迟模型(by FoxJoy):": "3. Modello per rimuovere la riverberazione e il ritardo (by FoxJoy):",
18
+ "ASR 模型": "Modello ASR",
19
+ "ASR 模型尺寸": "Dimensioni del modello ASR",
20
+ "ASR 语言设置": "Impostazioni linguistiche ASR",
21
+ "GPT 训练: 模型权重文件在 GPT_weights/": "Addestramento GPT: i pesi del modello sono in GPT_weights/",
22
+ "GPT模型列表": "Elenco dei modelli GPT",
23
+ "GPT训练": "Addestramento GPT",
24
+ "GPT采样参数(无参考文本时不要太低。不懂就用默认):": "Parametri di campionamento di GPT (non troppo bassi quando non c'è testo di riferimento. Utilizzare i valori predefiniti in caso di incertezza):",
25
+ "GPU卡号,只能填1个整数": "Numero della scheda grafica, può essere inserito solo un numero intero",
26
+ "GPU卡号以-分割,每个卡号一个进程": "Numero di GPU separati da '-'; ogni numero corrisponde a un processo",
27
+ "LoRA秩": "Rango LoRA",
28
+ "SoVITS V3 底模缺失,无法加载相应 LoRA 权重": "Modello base SoVITS V3 mancante, impossibile caricare i pesi LoRA corrispondenti",
29
+ "SoVITS 训练: 模型权重文件在 SoVITS_weights/": "Addestramento SoVITS: i pesi del modello sono in SoVITS_weights/",
30
+ "SoVITS模型列表": "Elenco dei modelli SoVITS",
31
+ "SoVITS训练": "Addestramento SoVITS",
32
+ "TTS推理WebUI": "Interfaccia Web per inferenza TTS",
33
+ "UVR5人声伴奏分离&去混响去延迟工具": "Strumento UVR5 per separazione voce/accompagnamento & rimozione riverbero e latenza",
34
+ "alpha_mix:混多少比例归一化后音频进来": "alpha_mix: Quanta proporzione dell'audio normalizzato deve essere miscelata",
35
+ "batch_size": "Dimensione del batch",
36
+ "hop_size:怎么算音量曲线,越小精度越大计算量越高(不是精度越大效果越好)": "hop_size: Come calcolare la curva del volume. Più piccolo è, maggiore è la precisione ma aumenta la complessità computazionale (non significa che una maggiore precisione dà risultati migliori)",
37
+ "max:归一化后最大值多少": "max: Massimo valore dopo la normalizzazione",
38
+ "max_sil_kept:切完后静音最多留多长": "max_sil_kept: Massima durata del silenzio dopo il taglio",
39
+ "min_interval:最短切割间隔": "min_interval: Intervallo minimo di taglio",
40
+ "min_length:每段最小多长,如果第一段太短一直和后面段连起来直到超过这个值": "min_length: Lunghezza minima per segmento; se il primo segmento è troppo corto, sarà unito ai segmenti successivi fino a superare questo valore",
41
+ "temperature": "temperatura",
42
+ "threshold:音量小于这个值视作静音的备选切割点": "threshold: Punto di taglio alternativo considerato silenzioso se il volume è inferiore a questo valore",
43
+ "top_k": "top_k",
44
+ "top_p": "top_p",
45
+ "v3暂不支持该模式,使用了会报错。": "V3 non supporta questa modalità, utilizzarla genererà un errore.",
46
+ "v3输出如果觉得闷可以试试开超分": "Se l'output v3 sembra ovattato, prova ad attivare il super-risoluzione",
47
+ "不切": "Nessuna suddivisione",
48
+ "中文": "Cinese",
49
+ "中文教程文档": "Documentazione del tutorial in cinese",
50
+ "中英混合": "Cinese e inglese misti",
51
+ "主参考音频(请上传3~10秒内参考音频,超过会报错!)": "Audio di riferimento principale (Si prega di caricare un audio di riferimento tra 3 e 10 secondi, superato questo limite si verificherà un errore!)",
52
+ "主参考音频的文本": "Testo dell'audio di riferimento principale",
53
+ "主参考音频的语种": "Lingua dell'audio di riferimento principale",
54
+ "也可批量输入音频文件, 二选一, 优先读文件夹": "È possibile anche inserire file audio in batch, una delle due opzioni, con priorità alla lettura della cartella",
55
+ "人声伴奏分离批量处理, 使用UVR5模型。": "Separazione voce-accompagnamento in batch, utilizza il modello UVR5.",
56
+ "人声分离WebUI": "Interfaccia Web per separazione vocale",
57
+ "人声提取激进程度": "Grado di aggressività dell'estrazione vocale",
58
+ "以下文件或文件夹不存在": "Nessun File o Cartella di Questo Tipo",
59
+ "以下模型不存在:": "Nessun Modello del Genere:",
60
+ "伴奏人声分离&去混响&去回声": "Separazione tra accompagnamento e voce & Rimozione dell'eco & Rimozione dell'eco",
61
+ "你没有下载超分模型的参数,因此不进行超分。如想超分请先参照教程把文件下载好": "Non hai scaricato i parametri del modello di super-risoluzione, quindi l'upscaling non verrà eseguito. Segui il tutorial per scaricare i file necessari.",
62
+ "使用无参考文本模式时建议使用微调的GPT": "Si consiglia di usare un GPT fine-tuned quando si usa la modalità senza testo di riferimento.",
63
+ "保存频率save_every_epoch": "Frequenza di salvataggio ogni epoca",
64
+ "保持随机": "Mantieni casuale",
65
+ "关闭": "Chiudi ",
66
+ "凑50字一切": "Riempire con 50 caratteri per tutto",
67
+ "凑四句一切": "Riempire con quattro frasi per tutto",
68
+ "分桶处理模式已关闭": "Modalità di elaborazione per bucket disabilitata",
69
+ "分桶处理模式已开启": "Modalità di elaborazione per bucket abilitata",
70
+ "分段返回模式不支持分桶处理,已自动关闭分桶处理": "La modalità di ritorno segmentato non supporta l'elaborazione per bucket, l'elaborazione per bucket è stata disabilitata automaticamente",
71
+ "分段返回模式已开启": "Modalità di ritorno segmentato abilitata",
72
+ "分段间隔(秒)": "Intervallo di segmentazione (secondi)",
73
+ "分段间隔过小,已自动设置为0.01": "L'intervallo di segmentazione è troppo breve, impostato automaticamente a 0.01",
74
+ "切分": "Segmentazione",
75
+ "切分后文本": "Testo dopo segmentazione",
76
+ "切分后的子音频的输出根目录": "Directory radice di output per gli audio segmentati",
77
+ "切分文本": "Segmenta il testo",
78
+ "切割使用的进程数": "Numero di processi utilizzati per il taglio",
79
+ "刷新模型路径": "Aggiorna il percorso del modello",
80
+ "前端处理后的文本(每句):": "Testo elaborato dal front-end (per frase):",
81
+ "前置数据集获取工具": "Strumento per acquisizione dataset",
82
+ "占用中": " Occupato",
83
+ "去混响/去延迟,附:": "Rimozione della riverberazione/ritardo, allegato:",
84
+ "参考音频在3~10秒范围外,请更换!": "L'audio di riferimento è al di fuori dell'intervallo di 3-10 secondi. Si prega di cambiarlo!",
85
+ "参考音频的文本": "Testo dell'audio di riferimento",
86
+ "参考音频的语种": "Lingua dell'audio di riferimento",
87
+ "句间停顿秒数": "Durata pausa tra le frasi (secondi)",
88
+ "可选项:通过拖拽多个文件上传多个参考音频(建议同性),平均融合他们的音色。如不填写此项,音色由左侧单个参考音频控制。如是微调模型,建议参考音频全部在微调训练集音色内,底模不用管。": "Opzionale: Carica più file audio di riferimento trascinandoli (si consiglia dello stesso genere) e media il loro tono. Se questa opzione è lasciata vuota, il tono sarà controllato dal singolo file audio di riferimento a sinistra. Se si sta perfezionando il modello, è consigliato che tutti i file audio di riferimento abbiano toni presenti nel set di addestramento per il perfezionamento; il modello pre-addestrato può essere ignorato.",
89
+ "合成语音": "Sintesi vocale",
90
+ "合格的文件夹路径格式举例: E:\\codes\\py39\\vits_vc_gpu\\白鹭霜华测试样例(去文件管理器地址栏拷就行了)。": "Formato di percorso della cartella valido: E:\\codes\\py39\\vits_vc_gpu\\Esempio di test di BaiLuShuangHua (copiare direttamente dalla barra degli indirizzi del gestore file).",
91
+ "后续将支持转音素、手工修改音素、语音合成分步执行。": "In futuro verrà aggiunto il supporto per la conversione dei fonemi, la modifica manuale dei fonemi e la sintesi vocale passo dopo passo.",
92
+ "听不清参考音频说的啥(不晓得写啥)可以开。开启后无视填写的参考文本。": "Se l'audio di riferimento non è chiaro o non sai cosa scrivere, abilita questa opzione per ignorare il testo di riferimento.",
93
+ "启用并行推理版本": "Abilita versione di inferenza parallela",
94
+ "填切割后音频所在目录!读取的音频文件完整路径=该目录-拼接-list文件里波形对应的文件名(不是全路径)。如果留空则使用.list文件里的绝对全路径。": "Inserisci la directory dell'audio segmentato! Il percorso completo del file audio letto = questa directory - unione del nome del file corrispondente alle forme d'onda nel file .list (non il percorso completo). Se lasciato vuoto, verrà utilizzato il percorso assoluto nel file .list.",
95
+ "多语种混合": "Mix multilingue",
96
+ "多语种混合(粤语)": "Misto Multilingue (Cantonese)",
97
+ "失败": " Fallito",
98
+ "如不认可该条款, 则不能使用或引用软件包内任何代码和文件. 详见根目录LICENSE.": "Se non accetti questi termini, non puoi utilizzare né citare alcun codice o file del pacchetto software. Vedi LICENSE nella directory principale.",
99
+ "实际输入的参考文本:": "Testo di riferimento effettivamente inserito:",
100
+ "实际输入的目标文本(切句后):": "Testo di destinazione effettivamente inserito (dopo il taglio delle frasi):",
101
+ "实际输入的目标文本(每句):": "Testo di destinazione effettivamente inserito (per frase):",
102
+ "实际输入的目标文本:": "Testo di destinazione effettivamente inserito:",
103
+ "导出文件格式": "Formato di esportazione del file",
104
+ "已关闭": " Chiuso",
105
+ "已完成": " Completato",
106
+ "已开启": " Attivato",
107
+ "并行推理": "Inferenza parallela",
108
+ "并行推理模式已关闭": "Modalità di inferenza parallela disabilitata",
109
+ "并行推理模式已开启": "Modalità di inferenza parallela abilitata",
110
+ "开启": "Attiva ",
111
+ "开启无参考文本模式。不填参考文本亦相当于开启。": "Attivare la modalità senza testo di riferimento. Anche se non inserisci un testo di riferimento, la modalità verrà attivata.",
112
+ "微调训练": "Addestramento fine-tuning",
113
+ "怎么切": "Come tagliare",
114
+ "总训练轮数total_epoch": "Numero totale di epoche di addestramento",
115
+ "总训练轮数total_epoch,不建议太高": "Numero totale di epoche di addestramento, non raccomandato troppo alto",
116
+ "指定输出主人声文件夹": "Specifica la cartella di output per la voce principale",
117
+ "指定输出非主人声文件夹": "Specifica la cartella di output per la non voce principale",
118
+ "按中文句号。切": "Taglia secondo il punto cinese.",
119
+ "按标点符号切": "Taglia secondo i segni di punteggiatura",
120
+ "按英文句号.切": "Taglia secondo il punto inglese",
121
+ "推理": "Inferenza",
122
+ "推理设置": "Impostazioni di inferenza",
123
+ "提取文本Bert特征": "Estrai caratteristiche Bert dal testo",
124
+ "数据分桶(并行推理时会降低一点计算量)": "Raggruppamento dei dati (Riduce il costo computazionale nell'inferenza parallela)",
125
+ "数据类型精度": "precisione del tipo di dati",
126
+ "文本分词与特征提取": "Tokenizzazione ed estrazione delle caratteristiche del testo",
127
+ "文本切分工具。太长的文本合成出来效果不一定好,所以太长建议先切。合成会根据文本的换行分开合成再拼起来。": "Strumento di segmentazione del testo. Testi troppo lunghi potrebbero non dare buoni risultati, quindi si consiglia di segmentarli. La sintesi verrà eseguita separando il testo in base ai ritorni a capo e poi concatenandolo.",
128
+ "文本模块学习率权重": "Peso del tasso di apprendimento del modulo di testo",
129
+ "施工中,请静候佳音": "In costruzione, attendi pazientemente le buone notizie",
130
+ "日文": "Giapponese",
131
+ "日英混合": "Mix giapponese e inglese",
132
+ "是否仅保存最新的权重文件以节省硬盘空间": "Salvare solo i file di pesi più recenti per risparmiare spazio su disco?",
133
+ "是否在每次保存时间点将最终小模型保存至weights文件夹": "Salvare il modello finale più piccolo nella cartella weights ad ogni punto di salvataggio",
134
+ "是否开启DPO训练选项(实验性)": "Attivare l'opzione di addestramento DPO (sperimentale)?",
135
+ "是否直接对上次合成结果调整语速和音色。防止随机性。": "Regola la velocità del parlato e il tono dell'ultimo risultato di sintesi per prevenire la casualità.",
136
+ "显卡信息": "Informazioni sulla scheda grafica",
137
+ "未下载模型": "Modello non scaricato",
138
+ "本软件以MIT协议开源, 作者不对软件具备任何控制力, 使用软件者、传播软件导出的声音者自负全责.": "Questo software è open-source sotto licenza MIT. L'autore non esercita alcun controllo sul software. L'utente e chiunque diffonda gli output audio generati sono pienamente responsabili.",
139
+ "标注文件路径 (含文件后缀 *.list)": "Percorso del file di annotazione (con estensione *.list)",
140
+ "模型": "Modello",
141
+ "模型分为三类:": "I modelli sono divisi in tre categorie:",
142
+ "模型切换": "Cambio del modello",
143
+ "每张显卡的batch_size": "Batch size per ogni scheda grafica",
144
+ "版本": "Versione",
145
+ "粤英混合": "Misto Cantonese-Inglese",
146
+ "粤语": "Cantonese",
147
+ "终止合成": "Termina sintesi",
148
+ "缺少Hubert数据集": "Dataset di Hubert Mancante",
149
+ "缺少语义数据集": "Dataset Semantico Mancante",
150
+ "缺少音素数据集": "Dataset di Fonemi Mancante",
151
+ "缺少音频数据集": "Dataset Audio Mancante",
152
+ "英文": "Inglese",
153
+ "训练集格式化一键三连": "Formattazione del dataset di addestramento in un clic",
154
+ "训练集格式化工具": "Strumento di formattazione dataset",
155
+ "语义Token提取": "Estrazione token semantici",
156
+ "语速": "Velocità della voce",
157
+ "语速调整,高为更快": "Regolare la velocità della voce, più alta per più veloce",
158
+ "语速调节不支持分桶处理,已自动关闭分桶处理": "Il controllo della velocità del discorso non supporta l'elaborazione per bucket, l'elaborazione per bucket è stata disabilitata automaticamente",
159
+ "语音切分": "Segmentazione vocale",
160
+ "语音切分工具": "Strumento di segmentazione vocale",
161
+ "语音文本校对标注工具": "Strumento di annotazione e correzione testi vocali",
162
+ "语音自监督特征提取": "Estrazione auto-supervisionata delle caratteristiche audio",
163
+ "语音识别": "Riconoscimento vocale",
164
+ "语音识别工具": "Strumento di riconoscimento vocale",
165
+ "语音降噪": "Riduzione del rumore audio",
166
+ "语音降噪工具": "Strumento di riduzione del rumore audio",
167
+ "请上传3~10秒内参考音频,超过会报错!": "Carica un audio di riferimento della durata compresa tra 3 e 10 secondi. Superiore a questo, verrà generato un errore!",
168
+ "请上传参考音频": "Si prega di caricare l'audio di riferimento",
169
+ "请填入推理文本": "Si prega di inserire il testo di destinazione",
170
+ "请填入正确的List路径": "Si Prega di Inserire il Percorso Corretto della Lista",
171
+ "请填入正确的音频文件夹路径": "Si Prega di Inserire il Percorso Corretto della Cartella Audio",
172
+ "请输入有效文本": "Inserisci un testo valido",
173
+ "路径不存在,使用默认配置": "Percorso non trovato, utilizzo della configurazione predefinita",
174
+ "路径不能为空": "Percorso Vuoto Non Consentito",
175
+ "路径错误": "Errore di Percorso",
176
+ "转换": "Converti",
177
+ "辅参考音频(可选多个,或不选)": "Audio di riferimento secondario (Facoltativo, seleziona più o nessuno)",
178
+ "输入待处理音频文件夹路径": "Inserisci il percorso della cartella dei file audio da elaborare",
179
+ "输入文件夹路径": "Inserisci il percorso della cartella",
180
+ "输入路径不存在": "Il percorso di input non esiste",
181
+ "输入路径存在但不可用": "Il percorso di input esiste ma non è utilizzabile",
182
+ "输出logs/实验名目录下应有23456开头的文件和文件夹": "Nella cartella logs/nome dell'esperimento dovrebbero esserci file e cartelle che iniziano con 23456",
183
+ "输出信息": "Informazioni di output",
184
+ "输出文件夹路径": "Percorso della cartella di output",
185
+ "输出的语音": "Audio di output",
186
+ "运行中": " In esecuzione",
187
+ "进度": "Avanzamento",
188
+ "进程已终止": " Processo terminato",
189
+ "进程输出信息": " Output del processo",
190
+ "选择训练完存放在SoVITS_weights和GPT_weights下的模型。默认的一个是底模,体验5秒Zero Shot TTS用。": "Scegli il modello salvato in SoVITS_weights e GPT_weights dopo l'addestramento. Uno di default è il modello di base, utilizzato per l'esperienza di Zero Shot TTS in 5 secondi.",
191
+ "采样步数,如果觉得电,提高试试,如果觉得慢,降低试试": "Passi di campionamento: se sembra rumoroso, prova a aumentarlo, se è lento, prova a diminuirlo",
192
+ "重复惩罚": "Penalità di ripetizione",
193
+ "随机种子": "Seme casuale",
194
+ "需先终止才能开启下一次任务": "Devi prima terminare il processo prima di avviare una nuova attività",
195
+ "需要合成的切分前文本": "Testo prima della segmentazione per la sintesi",
196
+ "需要合成的文本": "Testo da sintetizzare",
197
+ "需要合成的文本的语种": "Lingua del testo da sintetizzare",
198
+ "需要合成的语种": "Lingua da sintetizzare",
199
+ "韩文": "Coreano",
200
+ "���英混合": "Misto Coreano-Inglese",
201
+ "音频加载失败": "Caricamento Audio Fallito",
202
+ "音频文件不存在,跳过:": "File audio non trovato, salto: ",
203
+ "音频标注WebUI": "Interfaccia Web per annotazione audio",
204
+ "音频自动切分输入路径,可文件可文件夹": "Percorso di input per la segmentazione automatica dell'audio, può essere un file o una cartella",
205
+ "音频超分中": "Super-risoluzione audio in corso",
206
+ "预训练GPT模型路径": "Percorso del modello GPT pre-addestrato",
207
+ "预训练SSL模型路径": "Percorso del modello SSL pre-addestrato",
208
+ "预训练SoVITS-D模型路径": "Percorso del modello SoVITS-D pre-addestrato",
209
+ "预训练SoVITS-G模型路径": "Percorso del modello SoVITS-G pre-addestrato",
210
+ "预训练中文BERT模型路径": "Percorso del modello BERT cinese pre-addestrato"
211
+ }
tools/i18n/locale/ja_JP.json ADDED
@@ -0,0 +1,211 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ {
2
+ "(1)MDX-Net(onnx_dereverb):对于双通道混响是最好的选择,不能去除单通道混响;": "(1)MDX-Net(onnx_dereverb):二重チャンネルのリバーブに最適な選択ですが、単一チャンネルのリバーブは除去できません;",
3
+ "(234)DeEcho:去除延迟效果。Aggressive比Normal去除得更彻底,DeReverb额外去除混响,可去除单声道混响,但是对高频重的板式混响去不干净。": "(234)DeEcho:遅延効果を除去します。AggressiveはNormalよりも徹底的に除去し、DeReverbは追加でリバーブを除去し、モノラルリバーブを除去できますが、高周波数のプレートリバーブは完全には除去できません。",
4
+ "*实验/模型名": "*実験/モデル名",
5
+ "*文本标注文件": "*テキスト注釈ファイル",
6
+ "*训练集音频文件目录": "*トレーニングデータのオーディオファイルディレクトリ",
7
+ "*请上传并填写参考信息": "*参照情報をアップロードして記入してください",
8
+ "*请填写需要合成的目标文本和语种模式": "*合成対象テキストと言語モードを入力してください",
9
+ ".限制范围越小判别效果越好。": "多言語対応を減らした方が良い",
10
+ "1-GPT-SoVITS-TTS": "1-GPT-SoVITS-TTS",
11
+ "1、DeEcho-DeReverb模型的耗时是另外2个DeEcho模型的接近2倍;": "1、DeEcho-DeReverbモデルの処理時間は、他の2つのDeEchoモデルのほぼ2倍です;",
12
+ "1、保留人声:不带和声的音频选这个,对主人声保留比HP5更好。内置HP2和HP3两个模型,HP3可能轻微漏伴奏但对主人声保留比HP2稍微好一丁点;": "1、主音を保持: ハーモニーなしの音声にはこのオプションを選択し、HP5よりも主音の保持が優れています。HP2とHP3の2つのモデルが内蔵されており、HP3はわずかに伴奏を漏らす可能性がありますが、HP2よりも主音の保持がわずかに良いです;",
13
+ "2-GPT-SoVITS-变声": "2-GPT-SoVITS-ボイスチェンジャー",
14
+ "2、MDX-Net-Dereverb模型挺慢的;": "2、MDX-Net-Dereverbモデルはかなり遅いです;",
15
+ "2、仅保留主人声:带和声的音频选这个,对主人声可能有削弱。内置HP5一个模型;": "2、主音のみを保持: ハーモニー付きの音声にはこのオプションを選択し、主音が弱くなる可能性があります。HP5モデルが1つ内蔵されています;",
16
+ "3、个人推荐的最干净的配置是先MDX-Net再DeEcho-Aggressive。": "3、最もクリーンな設定は、MDX-Netの後にDeEcho-Aggressiveを使用することをお勧めします。",
17
+ "3、去混响、去延迟模型(by FoxJoy):": "3、リバーブ除去と遅延除去モデル(by FoxJoy):",
18
+ "ASR 模型": "ASR モデル",
19
+ "ASR 模型尺寸": "ASRモデルサイズ",
20
+ "ASR 语言设置": "ASR 言語設定",
21
+ "GPT 训练: 模型权重文件在 GPT_weights/": "GPT トレーニング: モデルの重みファイルは GPT_weights/ にあります",
22
+ "GPT模型列表": "GPTモデルリスト",
23
+ "GPT训练": "GPTトレーニング",
24
+ "GPT采样参数(无参考文本时不要太低。不懂就用默认):": "GPT サンプリングパラメーター(参照テキストがない場合はあまり低くしないでください。わからない場合はデフォルトを使用してください):",
25
+ "GPU卡号,只能填1个整数": "GPU番号、1つの整数しか入力できません",
26
+ "GPU卡号以-分割,每个卡号一个进程": "GPUカード番号はハイフンで区切り、各カード番号ごとに1つのプロセスが実行されます",
27
+ "LoRA秩": "LoRAランク",
28
+ "SoVITS V3 底模缺失,无法加载相应 LoRA 权重": "SoVITS V3 のベースモデルが不足しているため、対応する LoRA の重みをロードできません",
29
+ "SoVITS 训练: 模型权重文件在 SoVITS_weights/": "SoVITS トレーニング: モデルの重みファイルは SoVITS_weights/ にあります",
30
+ "SoVITS模型列表": "SoVITSモデルリスト",
31
+ "SoVITS训练": "SoVITSトレーニング",
32
+ "TTS推理WebUI": "TTS推論WebUI",
33
+ "UVR5人声伴奏分离&去混响去延迟工具": "UVR5ボーカルアカンパニメント分離&リバーブおよびディレイ除去ツール",
34
+ "alpha_mix:混多少比例归一化后音频进来": "alpha_mix:正規化後のオーディオが入る割合",
35
+ "batch_size": "バッチサイズ",
36
+ "hop_size:怎么算音量曲线,越小精度越大计算量越高(不是精度越大效果越好)": "hop_size: 音量曲線の計算方法、小さいほど精度が高くなりますが、計算量が増加します(精度が高いほど必ずしも効果が良いわけではありません)",
37
+ "max:归一化后最大值多少": "max:正規化後の最大値",
38
+ "max_sil_kept:切完后静音最多留多长": "max_sil_kept:切り終えた後、最��でどれだけ静かにするか",
39
+ "min_interval:最短切割间隔": "min_interval:最短カット間隔",
40
+ "min_length:每段最小多长,如果第一段太短一直和后面段连起来直到超过这个值": "min_length:各セグメントの最小長さ。最初のセグメントが短すぎる場合、連続して後続のセグメントに接続され、この値を超えるまで続きます。",
41
+ "temperature": "temperature",
42
+ "threshold:音量小于这个值视作静音的备选切割点": "閾値:この値未満の音量は静音と見なされ、代替のカットポイントとして扱われます",
43
+ "top_k": "top_k",
44
+ "top_p": "top_p",
45
+ "v3暂不支持该模式,使用了会报错。": "v3では現在このモードをサポートしておらず、使用するとエラーが発生します。",
46
+ "v3输出如果觉得闷可以试试开超分": "v3の出力がこもっていると感じた場合、超解像を試してください",
47
+ "不切": "切らない",
48
+ "中文": "中国語",
49
+ "中文教程文档": "中国語チュートリアルドキュメント",
50
+ "中英混合": "中英混合",
51
+ "主参考音频(请上传3~10秒内参考音频,超过会报错!)": "プライマリーFERエンス音声(3〜10秒以内の参考音声をアップロードしてください。これを超えるとエラーが発生します!)",
52
+ "主参考音频的文本": "プライマリーFERエンス音声のテキスト",
53
+ "主参考音频的语种": "プライマリーFERエンス音声の言語",
54
+ "也可批量输入音频文件, 二选一, 优先读文件夹": "複数のオーディオファイルもインポートできます。フォルダパスが存在する場合、この入力は無視されます。",
55
+ "人声伴奏分离批量处理, 使用UVR5模型。": "人声と伴奏の分離をバッチ処理で行い、UVR5モデルを使用します。",
56
+ "人声分离WebUI": "ボーカル分離WebUI",
57
+ "人声提取激进程度": "人声抽出の積極性",
58
+ "以下文件或文件夹不存在": "そのようなファイルまたはフォルダは存在しません",
59
+ "以下模型不存在:": "モデルが存在しません:",
60
+ "伴奏人声分离&去混响&去回声": "ボーカル/伴奏の分離と残響の除去",
61
+ "你没有下载超分模型的参数,因此不进行超分。如想超分请先参照教程把文件下载好": "超解像モデルのパラメータをダウンロードしていないため、超解像は行われません。超解像を行いたい場合は、まずチュートリアルを参照してファイルをダウンロードしてください",
62
+ "使用无参考文本模式时建议使用微调的GPT": "参照テキストなしモードを使用する際は、微調整されたGPTを推奨めることをお勧びします。",
63
+ "保存频率save_every_epoch": "保存頻度save_every_epoch",
64
+ "保持随机": "ランダムを維持",
65
+ "关闭": "閉じる",
66
+ "凑50字一切": "50文字ずつカット",
67
+ "凑四句一切": "4つの文で埋める",
68
+ "分桶处理模式已关闭": "バケット処理モードを無効化",
69
+ "分桶处理模式已开启": "バケット処理モードを有効化",
70
+ "分段返回模式不支持分桶处理,已自动关闭分桶处理": "セグメントされた返却モードはバケット処理をサポートしていないため、自動的にバケット処理を無効化",
71
+ "分段返回模式已开启": "セグメントされた返却モードを有効化",
72
+ "分段间隔(秒)": "セグメント間隔(秒)",
73
+ "分段间隔过小,已自动设置为0.01": "セグメント間隔が短すぎていので、自動的に0.01に設定されました",
74
+ "切分": "セグメント",
75
+ "切分后文本": "セグメント後のテキスト",
76
+ "切分后的子音频的输出根目录": "分割後のサブオーディオの出力ルートディレクトリ",
77
+ "切分文本": "テキストをセグメント",
78
+ "切割使用的进程数": "分割に使用されるプロセス数",
79
+ "刷新模型路径": "モデルのパスを更新",
80
+ "前端处理后的文本(每句):": "フロントエンド処理後のテキスト(文ごと):",
81
+ "前置数据集获取工具": "前処理データセット取得ツール",
82
+ "占用中": "使用中",
83
+ "去混响/去延迟,附:": "残響除去/遅延除去、附:",
84
+ "参考音频在3~10秒范围外,请更换!": "参照音声が3~10秒の範囲外です。別の音声に変更してください!",
85
+ "参考音频的文本": "参照オーディオのテキスト",
86
+ "参考音频的语种": "参照オーディオの言語",
87
+ "句间停顿秒数": "文間のポーズ秒数",
88
+ "可选项:通过拖拽多个文件上传多个参考音频(建议同性),平均融合他们的音色。如不填写此项,音色由左侧单个参考音频控制。如是微调模型,建议参考音频全部在微调训练集音���内,底模不用管。": "オプション:複数の参照オーディオファイルをドラッグ&ドロップしてアップロードし、それらのトーンを平均化します(同性推奨)。このオプションを空白のままにした場合、トーンは左側の単一の参照オーディオによって制御されます。モデルを微調整する場合、すべての参照オーディオファイルが微調整のトレーニングセット内のトーンを持つことをお勧めします。プリトレーニングモデルは無視しても構いません。",
89
+ "合成语音": "推論を開始",
90
+ "合格的文件夹路径格式举例: E:\\codes\\py39\\vits_vc_gpu\\白鹭霜华测试样例(去文件管理器地址栏拷就行了)。": "適切なフォルダパスの例: E:\\codes\\py39\\vits_vc_gpu\\白鹭霜华テストサンプル(ファイルマネージャのアドレスバーからコピーしてください)。",
91
+ "后续将支持转音素、手工修改音素、语音合成分步执行。": "今後、フォンメ转换、手動フォンメ編集、音声合成のステップバイステップ実行をサポートします。",
92
+ "听不清参考音频说的啥(不晓得写啥)可以开。开启后无视填写的参考文本。": "参照音声がはっきり、または何を書くかわからない場合は、このオプションを有効にして参照テキストを無視します。",
93
+ "启用并行推理版本": "並列推論バージョンを有効化",
94
+ "填切割后音频所在目录!读取的音频文件完整路径=该目录-拼接-list文件里波形对应的文件名(不是全路径)。如果留空则使用.list文件里的绝对全路径。": "切断後の音声ファイルが格納されているディレクトリを入力してください!読み取り対象の音声ファイルの完全パス = このディレクトリ - 結合 - listファイル内の波形に対応するファイル名(完全パスではありません)。空白の場合、.listファイル内の絶対完全パスを使用します。",
95
+ "多语种混合": "多言語混合",
96
+ "多语种混合(粤语)": "多言語混合(粤語)",
97
+ "失败": "失敗",
98
+ "如不认可该条款, 则不能使用或引用软件包内任何代码和文件. 详见根目录LICENSE.": "この条件を認めない場合、ソフトウェアパッケージ内の任意のコードやファイルを使用または引用することはできません。詳細はルートディレクトリのLICENSEを参照してください。",
99
+ "实际输入的参考文本:": "実際に入力された参照テキスト:",
100
+ "实际输入的目标文本(切句后):": "実際に入力された目標テキスト(文分割後):",
101
+ "实际输入的目标文本(每句):": "実際に入力された目標テキスト(文ごと):",
102
+ "实际输入的目标文本:": "実際に入力された目標テキスト:",
103
+ "导出文件格式": "エクスポートファイル形式",
104
+ "已关闭": "閉じました",
105
+ "已完成": "完了しました",
106
+ "已开启": "有効化しました",
107
+ "并行推理": "並列推論",
108
+ "并行推理模式已关闭": "並列推論モードを無効化",
109
+ "并行推理模式已开启": "並列推論モードを有効化",
110
+ "开启": "有効化",
111
+ "开启无参考文本模式。不填参考文本亦相当于开启。": "参照テキストなしモードを有効にします。参照テキストを入力しない場合も同様に有効になります。",
112
+ "微调训练": "ファインチューニング",
113
+ "怎么切": "どうやって切るか",
114
+ "总训练轮数total_epoch": "総トレーニングエポック数total_epoch",
115
+ "总训练轮数total_epoch,不建议太高": "総トレーニングエポック数total_epoch、高すぎないようにお勧めします",
116
+ "指定输出主人声文件夹": "ボーカルの出力フォルダを指定:",
117
+ "指定输出非主人声文件夹": "伴奏の出力フォルダを指定:",
118
+ "按中文句号。切": "中国語の句点でカット",
119
+ "按标点符号切": "句読点で分割",
120
+ "按英文句号.切": "英文のピリオドで切ってください",
121
+ "推理": "推論",
122
+ "推理设置": "推論設定",
123
+ "提取文本Bert特征": "テキストBERT特徴を抽出",
124
+ "数据分桶(并行推理时会降低一点计算量)": "データバケット化(並列推論時に少し計算コストを減らす)",
125
+ "数据类型精度": "データ型の精度",
126
+ "文本分词与特征提取": "テキスト分割と特徴抽出",
127
+ "文本切分工具。太长的文本合成出来效果不一定好,所以太长建议先切。合成会根据文本的换行分开合成再拼起来。": "テキストセグメントツール。非常に長いテキストは合成結果が良くない可能性があるため、長いテキストは事前にセグメントすることをお勧びします。合成は改行に���づいて分かれ、その後に結合されます。",
128
+ "文本模块学习率权重": "テキストモジュールの学習率の重み",
129
+ "施工中,请静候佳音": "施工中、お待ちください",
130
+ "日文": "日本語",
131
+ "日英混合": "日英混合",
132
+ "是否仅保存最新的权重文件以节省硬盘空间": "最新の重みファイルのみを保存し、ディスクスペースを節約しますか?",
133
+ "是否在每次保存时间点将最终小模型保存至weights文件夹": "各保存時間点で最終的な小さなモデルをweightsフォルダに保存するかどうか",
134
+ "是否开启DPO训练选项(实验性)": "DPO トレーニングオプションを有効にしますか?(実験的)",
135
+ "是否直接对上次合成结果调整语速和音色。防止随机性。": "ランダム性を防ぐために、前回の合成結果のスピーチ速度とトーンを調整します。",
136
+ "显卡信息": "グラフィックカード情報",
137
+ "未下载模型": "モデルがダウンロードされていません",
138
+ "本软件以MIT协议开源, 作者不对软件具备任何控制力, 使用软件者、传播软件导出的声音者自负全责.": "このソフトウェアはMITライセンスでオープンソース化されており、作者はソフトウェアに対して一切の制御権を持っていません。ソフトウェアを使用する者、ソフトウェアから導出される音声を広める者は、自己責任で行ってください。",
139
+ "标注文件路径 (含文件后缀 *.list)": "ラベル付けファイルのパス(ファイル拡張子 *.list を含む)",
140
+ "模型": "モデル",
141
+ "模型分为三类:": "モデルは3種類に分かれています:",
142
+ "模型切换": "モデル切り替え",
143
+ "每张显卡的batch_size": "各グラフィックカードのバッチサイズ",
144
+ "版本": "バージョン",
145
+ "粤英混合": "粤英混合",
146
+ "粤语": "粤語",
147
+ "终止合成": "合成を終了",
148
+ "缺少Hubert数据集": "Hubertデータセットが欠落しています",
149
+ "缺少语义数据集": "セマンティクスデータセットが欠落しています",
150
+ "缺少音素数据集": "音素データセットが欠落しています",
151
+ "缺少音频数据集": "オーディオデータセットが欠落しています",
152
+ "英文": "英語",
153
+ "训练集格式化一键三连": "トレーニングデータのフォーマットを一括処理",
154
+ "训练集格式化工具": "トレーニングデータフォーマットツール",
155
+ "语义Token提取": "セマンティックトークン抽出",
156
+ "语速": "話速",
157
+ "语速调整,高为更快": "話速調整、高いほど速く",
158
+ "语速调节不支持分桶处理,已自动关闭分桶处理": "音声調整はバケット処理をサポートしていないため、自動的にバケット処理を無効化",
159
+ "语音切分": "音声分割",
160
+ "语音切分工具": "音声分割ツール",
161
+ "语音文本校对标注工具": "音声テキスト校正・ラベル付けツール",
162
+ "语音自监督特征提取": "音声自己教師あり特徴抽出",
163
+ "语音识别": "音声認識",
164
+ "语音识别工具": "音声認識ツール",
165
+ "语音降噪": "音声ノイズ除去",
166
+ "语音降噪工具": "音声ノイズ除去ツール",
167
+ "请上传3~10秒内参考音频,超过会报错!": "3~10秒以内の参照音声をアップロードしてください。それを超えるとエラーが発生します!",
168
+ "请上传参考音频": "リファレンスオーディオをアップロードしてください",
169
+ "请填入推理文本": "ターゲットテキストを入力してください",
170
+ "请填入正确的List路径": "正しいリストパスを入力してください",
171
+ "请填入正确的音频文件夹路径": "正しいオーディオフォルダパスを入力してください",
172
+ "请输入有效文本": "有効なテキストを入力してください",
173
+ "路径不存在,使用默认配置": "パスが見つからないため、デフォルト設定を使用",
174
+ "路径不能为空": "空のパスは予期されていません",
175
+ "路径错误": "パスエラー",
176
+ "转换": "変換",
177
+ "辅参考音频(可选多个,或不选)": "二次参考音声(複数可、またはなし)",
178
+ "输入待处理音频文件夹路径": "処理するオーディオフォルダのパスを入力してください:",
179
+ "输入文件夹路径": "入力フォルダのパス",
180
+ "输入路径不存在": "入力パスが存在しません",
181
+ "输入路径存在但不可用": "入力パスは存在しますが、使用できません",
182
+ "输出logs/实验名目录下应有23456开头的文件和文件夹": "logs/実験名ディレクトリには23456で始まるファイルとフォルダが含まれている必要があります",
183
+ "输出信息": "出力情報",
184
+ "输出文件夹路径": "出力フォルダのパス",
185
+ "输出的语音": "推論結果",
186
+ "运行中": "実行中",
187
+ "进度": "進捗",
188
+ "进程已终止": "プロセスが終了しました",
189
+ "进程输出信息": "プロセスの出力情報",
190
+ "选择训练完存放在SoVITS_weights和GPT_weights下的模型。默认的一个是底模,体验5秒Zero Shot TTS用。": "SoVITS_weightsおよびGPT_weightsに保存されたモデルを選択します。デフォルトのものはプレトレインであり、ゼロショットTTSを体験できます。",
191
+ "采样步数,如果觉得电,提高试试,如果觉得慢,降低试试": "サンプリングステップ数:ノイズが強い場合は増やし、遅い場合は減らしてみてください",
192
+ "重复惩罚": "繰り返しペナルティ",
193
+ "随机种子": "ランダムシード",
194
+ "需先终止才能开启下一次任务": "次のタスクを開始する前に、現在のタスクを終了する必要があります",
195
+ "需要合成的切分前文本": "セグメント前の推論テキスト",
196
+ "需要合成的文本": "推論テキスト",
197
+ "需要合成的文本的语种": "推論テキストの言語",
198
+ "需要合成的语种": "推論の言語",
199
+ "韩文": "韓国語",
200
+ "韩英混合": "韓英混合",
201
+ "音频加载失败": "音声の読み込みに失敗しました",
202
+ "音频文件不存在,跳过:": "オーディオファイルが見つからない。スキップ:",
203
+ "音频标注WebUI": "音声ラベリングWebUI",
204
+ "音频自动切分输入路径,可文件可文件夹": "オーディオの自動分割入力パス、ファイルまたはフォルダを指定できます",
205
+ "音频超分中": "音声超解像中",
206
+ "预训练GPT模型路径": "事前にトレーニングされたGPTモデルのパス",
207
+ "预训练SSL模型路径": "事前にトレーニングされたSSLモデルのパス",
208
+ "预训练SoVITS-D模型路径": "事前にトレーニングされたSoVITS-Dモデルのパス",
209
+ "预训练SoVITS-G模型路径": "事前にトレーニングされたSoVITS-Gモデルのパス",
210
+ "预训练中文BERT模型路径": "事前にトレーニングされた中国語BERTモデルのパス"
211
+ }
tools/i18n/locale/ko_KR.json ADDED
@@ -0,0 +1,211 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ {
2
+ "(1)MDX-Net(onnx_dereverb):对于双通道混响是最好的选择,不能去除单通道混响;": "(1)MDX-Net (onnx_dereverb): 듀얼 채널 리버브에는 가장 적합하지만, 싱글 채널 리버브는 제거할 수 없습니다",
3
+ "(234)DeEcho:去除延迟效果。Aggressive比Normal去除得更彻底,DeReverb额外去除混响,可去除单声道混响,但是对高频重的板式混响去不干净。": "(234)DeEcho:지연 효과를 제거합니다. Aggressive는 Normal보다 더 철저하게 제거하며, DeReverb는 추가로 리버브를 제거하여 단일 채널 리버브를 제거할 수 있지만 고주파 리버브는 완전히 제거하지 못합니다.",
4
+ "*实验/模型名": "*실험/모델 이름",
5
+ "*文本标注文件": "*텍스트 주석 파일",
6
+ "*训练集音频文件目录": "*훈련 세트 오디오 파일 디렉터리",
7
+ "*请上传并填写参考信息": "*참고 정보를 업로드하고 입력하십시오",
8
+ "*请填写需要合成的目标文本和语种模式": "*합성할 목표 텍스트와 언어 모드를 입력하세요",
9
+ ".限制范围越小判别效果越好。": "다언어 지원을 줄이는 것이 더 좋습니다",
10
+ "1-GPT-SoVITS-TTS": "1-GPT-SoVITS-TTS",
11
+ "1、DeEcho-DeReverb模型的耗时是另外2个DeEcho模型的接近2倍;": "1. DeEcho-DeReverb 모델의 처리 시간은 다른 두 DeEcho 모델의 거의 두 배입니다;",
12
+ "1、保留人声:不带和声的音频选这个,对主人声保留比HP5更好。内置HP2和HP3两个模型,HP3可能轻微漏伴奏但对主人声保留比HP2稍微好一丁点;": "1. 사람 목소리를 유지: 화음이 없는 오디오를 선택하면 HP5보다 사람 목소리를 더 잘 유지할 수 있습니다. 내장된 HP2와 HP3 모델이 있으며, HP3는 화음을 약간 놓칠 수 있지만 HP2보다 사람 목소리를 조금 더 잘 유지합니다;",
13
+ "2-GPT-SoVITS-变声": "2-GPT-SoVITS-음성 변환",
14
+ "2、MDX-Net-Dereverb模型挺慢的;": "2. MDX-Net-Dereverb 모델은 꽤 느립니다;",
15
+ "2、仅保留主人声:带和声的音频选这个,对主人声可能有削弱。内置HP5一个模型;": "2. 주 목소리만 유지: 화음이 있는 오디오에 이 모델을 선택하면 주 목소리가 약해질 수 있습니다. 내장된 HP5 모델이 있습니다;",
16
+ "3、个人推荐的最干净的配置是先MDX-Net再DeEcho-Aggressive。": "3. 개인적으로 가장 깨끗한 설정은 먼저 MDX-Net을 사용하고 그 다음에 DeEcho-Aggressive를 사용하는 것입니다;",
17
+ "3、去混响、去延迟模型(by FoxJoy):": "3. 잔향 제거 및 지연 제거 모델 (by FoxJoy):",
18
+ "ASR 模型": "ASR 모델",
19
+ "ASR 模型尺寸": "ASR 모델 크기",
20
+ "ASR 语言设置": "ASR 언어 설정",
21
+ "GPT 训练: 模型权重文件在 GPT_weights/": "GPT 훈련: 모델 가중치 파일은 GPT_weights/에 있습니다",
22
+ "GPT模型列表": "GPT 모델 목록",
23
+ "GPT训练": "GPT훈련",
24
+ "GPT采样参数(无参考文本时不要太低。不懂就用默认):": "GPT 샘플링 매개변수 (참조 텍스트가 없을 때 너무 낮게 설정하지 마십시오. 확실하지 않으면 기본값을 사용하십시오):",
25
+ "GPU卡号,只能填1个整数": "GPU 카드 번호, 1개의 정수만 입력 가능",
26
+ "GPU卡号以-分割,每个卡号一个进程": "GPU 카드 번호는 -로 구분되며 각 카드 번호에 하나의 프로세스가 있어야 함",
27
+ "LoRA秩": "LoRA 랭크",
28
+ "SoVITS V3 底模缺失,无法加载相应 LoRA 权重": "SoVITS V3 기본 모델이 없어서 해당 LoRA 가중치를 로드할 수 없습니다",
29
+ "SoVITS 训练: 模型权重文件在 SoVITS_weights/": "SoVITS 훈련: 모델 가중치 파일은 SoVITS_weights/에 있습니다",
30
+ "SoVITS模型列表": "SoVITS 모델 목록",
31
+ "SoVITS训练": "SoVITS훈련",
32
+ "TTS推理WebUI": "TTS 추론 WebUI",
33
+ "UVR5人声伴奏分离&去混响去延迟工具": "UVR5 보컬 및 반주 분리 & 리버브 제거 및 딜레이 제거 도구",
34
+ "alpha_mix:混多少比例归一化后音频进来": "알파 믹스: 정규화된 오디오가 들어오는 비율",
35
+ "batch_size": "배치 크기",
36
+ "hop_size:怎么算音量曲线,越小精度越大计算量越高(不是精度越大效果越好)": "hop 크기: 볼륨 곡선을 계산하는 방법. 작을수록 정확도가 높아지지만 계산량이 높아집니다 (정확도가 높다고 효과가 좋아지지 않음)",
37
+ "max:归一化后最大值多少": "최대 값 (정규화 후)",
38
+ "max_sil_kept:切完后静音最多留多长": "최대 유지되는 정적 길이 (분리 후)",
39
+ "min_interval:最短切割间隔": "최소 분리 간격",
40
+ "min_length:每段最小多长,如果第一段太短一直和后面段连起来直到超过这个值": "min_length:각 부분의 최소 길이, 첫 번째 부분이 너무 짧으면 다음 부분과 계속 연결하여 이 값을 초과할 때까지",
41
+ "temperature": "temperature",
42
+ "threshold:音量小于这个值视作静音的备选切割点": "임계 값: 이 값보다 작은 볼륨은 대체 분리 지점으로 간주됩니다.",
43
+ "top_k": "top_k",
44
+ "top_p": "top_p",
45
+ "v3暂不支持该模式,使用了会报错。": "v3에서는 이 모드를 지원하지 않으며, 사용 시 오류가 발생합니다.",
46
+ "v3输出如果觉得闷可以试试开超分": "v3 출력이 답답하게 들리면 슈퍼 레졸루션을 켜보세요",
47
+ "不切": "자르지 않음",
48
+ "中文": "중국어",
49
+ "中文教程文档": "중국어 튜토리얼 문서",
50
+ "中英混合": "중영 혼합",
51
+ "主参考音频(请上传3~10秒内参考音频,超过会报错!)": "주 참조 오디오 (3~10초 이내의 참조 오디오를 업로드하세요. 초과 시 오류 발생!)",
52
+ "主参考音频的文本": "주 참조 오디오의 텍스트",
53
+ "主参考音频的语种": "주 참조 오디오의 언어",
54
+ "也可批量输入音频文件, 二选一, 优先读文件夹": "오디오 파일을 일괄로 입력할 수도 있습니다. 둘 중 하나를 선택하고 폴더를 읽기를 우선합니다.",
55
+ "人声伴奏分离批量处理, 使用UVR5模型。": "보컬과 반주 분리 배치 처리, UVR5 모델 사용.",
56
+ "人声分离WebUI": "보컬 분리 WebUI",
57
+ "人声提取激进程度": "보컬 추출의 공격성",
58
+ "以下文件或文件夹不存在": "해당 파일이나 폴더가 없습니다",
59
+ "以下模型不存在:": "해당 모델이 존재하지 않습니다:",
60
+ "伴奏人声分离&去混响&去回声": "반주 및 보컬 분리 & 리버브 제거 & 에코 제거",
61
+ "你没有下载超分模型的参数,因此不进行超分。如想超分请先参照教程把文件下载好": "슈퍼 레졸루션 모델의 파라미터를 다운로드하지 않았으므로 슈퍼 레졸루션을 수행하지 않습니다. 사용하려면 먼저 튜토리얼을 참고하여 파일을 다운로드하세요",
62
+ "使用无参考文本模式时建议使用微调的GPT": "참고 텍스트 없이 사용할 경우 미세 조정된 GPT 사용을 권장합니다",
63
+ "保存频率save_every_epoch": "저장 빈도 (각 라운드마다)",
64
+ "保持随机": "랜덤 유지",
65
+ "关闭": "닫기",
66
+ "凑50字一切": "50자를 채우십시오",
67
+ "凑四句一切": "네 문장의 세트를 완성하세요.",
68
+ "分桶处理模式已关闭": "버킷 처리 모드 비활성화됨",
69
+ "分桶处理模式已开启": "버킷 처리 모드 활성화됨",
70
+ "分段返回模式不支持分桶处理,已自动关闭分桶处理": "분할 반환 모드는 버킷 처리를 지원하지 않아 버킷 처리 자동 비활성화됨",
71
+ "分段返回模式已开启": "분할 반환 모드 활성화됨",
72
+ "分段间隔(秒)": "분할 간격(초)",
73
+ "分段间隔过小,已自动设置为0.01": "분할 간격이 너무 짧아 자동으로 0.01로 설정됨",
74
+ "切分": "분할",
75
+ "切分后文本": "분할 후 추론 텍스트",
76
+ "切分后的子音频的输出根目录": "분리된 하위 오디오의 출력 기본 디렉터리",
77
+ "切分文本": "텍스트 분할",
78
+ "切割使用的进程数": "사용되는 프로세스 수로 자르기",
79
+ "刷新模型路径": "모델 경로 새로 고침",
80
+ "前端处理后的文本(每句):": "프론트엔드 처리 후 텍스트(문장별):",
81
+ "前置数据集获取工具": "전처리 데이터셋 획득 도구",
82
+ "占用中": "사용 중",
83
+ "去混响/去延迟,附:": "리버브 제거/지연 제거, 부록:",
84
+ "参考音频在3~10秒范围外,请更换!": "참고 오디오가 3~10초 범위를 벗어났습니다. 다른 것으로 바꾸십시오!",
85
+ "参考音频的文本": "참고 오디오의 텍스트",
86
+ "参考音频的语种": "참고 오디오의 언어",
87
+ "句间停顿秒数": "문장 간 정지 시간 (초)",
88
+ "可选项:通过拖拽多个文件上传多个参考音频(建议同性),平均融合他们的音色。如不填写此项,音色由左侧单个参考音频控制。如是微调模型,建议参考音频全部在微调训练集音色内,底模不用管。": "선택 사항: 여러 참조 오디오 파일을 드래그하여 업로드하고 (동일한 성별을 권장), 그들의 톤을 평균화합니다. 이 옵션을 비워두면 톤은 왼쪽의 단일 참조 오디오로 제어됩니다. 모델을 미세 조정하는 경우 모든 참조 오디오 파일이 미세 조정 훈련 세트 내의 톤을 가지고 있는 것이 좋으며, 사전 훈련된 모델은 무시할 수 있습니다.",
89
+ "合成语音": "합성 음성",
90
+ "合格的文件夹路径格式举例: E:\\codes\\py39\\vits_vc_gpu\\白鹭霜华测试样例(去文件管理器地址栏拷就行了)。": "적절한 폴더 경로 형식 예: E:\\codes\\py39\\vits_vc_gpu\\백로서리 테스트 샘플 (파일 관리자 주소 표시줄에서 복사하면 됩니다).",
91
+ "后续将支持转音素、手工修改音素、语音���成分步执行。": "향후 음소 변환, 수동 음소 편집, 단계별 음성 합성 지원이 추가될 예정입니다.",
92
+ "听不清参考音频说的啥(不晓得写啥)可以开。开启后无视填写的参考文本。": "참고 오디오의 내용을 정확히 알아들을 수 없을 경우 이 옵션을 활성화하세요. 활성화하면 입력한 참고 텍스트를 무시합니다.",
93
+ "启用并行推理版本": "병렬 추론 버전 활성화",
94
+ "填切割后音频所在目录!读取的音频文件完整路径=该目录-拼接-list文件里波形对应的文件名(不是全路径)。如果留空则使用.list文件里的绝对全路径。": "분리된 오디오가 위치한 디렉터리를 입력하세요! 읽어들인 오디오 파일의 전체 경로 = 이 디렉터리 - list 파일에서 파형에 해당하는 파일명(전체 경로가 아님). 비워 두면 .list 파일의 절대 전체 경로를 사용합니다.",
95
+ "多语种混合": "다국어 혼합",
96
+ "多语种混合(粤语)": "다국어 혼합(粤語)",
97
+ "失败": "실패",
98
+ "如不认可该条款, 则不能使用或引用软件包内任何代码和文件. 详见根目录LICENSE.": "이 조항에 동의하지 않는다면, 소프트웨어 패키지 내의 코드 및 파일을 사용할 수 없습니다. 자세한 내용은 루트 디렉토리 LICENSE를 참조하세요.",
99
+ "实际输入的参考文本:": "실제 입력된 참고 텍스트:",
100
+ "实际输入的目标文本(切句后):": "실제 입력된 목표 텍스트(문장 분리 후):",
101
+ "实际输入的目标文本(每句):": "실제 입력된 목표 텍스트(문장별):",
102
+ "实际输入的目标文本:": "실제 입력된 목표 텍스트:",
103
+ "导出文件格式": "내보내기 파일 형식",
104
+ "已关闭": "닫힘",
105
+ "已完成": "완료됨",
106
+ "已开启": "켜짐",
107
+ "并行推理": "병렬 추론",
108
+ "并行推理模式已关闭": "병렬 추론 모드 비활성화됨",
109
+ "并行推理模式已开启": "병렬 추론 모드 활성화됨",
110
+ "开启": "켜기",
111
+ "开启无参考文本模式。不填参考文本亦相当于开启。": "참고 텍스트 없이 모드를 활성화합니다. 참고 텍스트를 입력하지 않으면 자동으로 활성화됩니다.",
112
+ "微调训练": "미세 조정 훈련",
113
+ "怎么切": "자르기 옵션",
114
+ "总训练轮数total_epoch": "총 훈련 라운드 수 (total_epoch)",
115
+ "总训练轮数total_epoch,不建议太高": "총 훈련 라운드 수 (total_epoch), 너무 높지 않게 권장됨",
116
+ "指定输出主人声文件夹": "지정된 주인 목소리 출력 폴더",
117
+ "指定输出非主人声文件夹": "지정된 비주인 목소리 출력 폴더",
118
+ "按中文句号。切": "중국어 문장으로 분리하십시오.",
119
+ "按标点符号切": "구두점을 기준으로 자르기",
120
+ "按英文句号.切": "영어 문장으로 분리하기",
121
+ "推理": "추론",
122
+ "推理设置": "추론 설정",
123
+ "提取文本Bert特征": "텍스트 BERT 특징 추출",
124
+ "数据分桶(并行推理时会降低一点计算量)": "데이터 버킷팅 (병렬 추론 시 계산량 감소)",
125
+ "数据类型精度": "데이터 유형 정밀도",
126
+ "文本分词与特征提取": "텍스트 토큰화 및 특성 추출",
127
+ "文本切分工具。太长的文本合成出来效果不一定好,所以太长建议先切。合成会根据文本的换行分开合成再拼起来。": "텍스트 분할 도구. 너무 긴 텍스트는 합성 결과가 좋지 않을 수 있으므로 분할을 권장합니다. 합성은 텍스트의 줄바꿈을 기준으로 분할된 후 결합됩니다.",
128
+ "文本模块学习率权重": "텍스트 모듈 학습률 가중치",
129
+ "施工中,请静候佳音": "공사 중입니다. 기다려주십시오.",
130
+ "日文": "일본어",
131
+ "日英混合": "일본어와 영어 혼합",
132
+ "是否仅保存最新的权重文件以节省硬盘空间": "디스크 공간을 절약하기 위해 최신 가중치 파일만 저장할지 여부",
133
+ "是否在每次保存时间点将最终小模型保存至weights文件夹": "각 저장 시간에 최종 작은 모델을 weights 폴더에 저장할지 여부",
134
+ "是否开启DPO训练选项(实验性)": "DPO 훈련 옵션 활성화 여부 (실험적 기능)",
135
+ "是否直接对上次合成结果调整语速和音色。防止随机性。": "랜덤성을 방지하기 위해 마지막 합성 결과의 말하기 속도와 톤을 조정합니다.",
136
+ "显卡信息": "그래픽 카드 정보",
137
+ "未下载模型": "모델이 다운로드되지 않음",
138
+ "本软件以MIT协议开源, 作者不对软件具备任何控制力, 使用软件者、传播软件导出的声音者自负全责.": "본 소프트웨어는 MIT 라이선스로 오픈소스이며, 개발자는 소프트웨어에 대한 어떠한 통제력도 가지지 않습니다. 사용자는 소프트웨어를 이용하거나 이를 통해 생성된 음성을 배포할 경우 모든 책임을 집니다.",
139
+ "标注文件路径 (含文件后缀 *.list)": "주석 파일 경로 (*.list 확장자 포함)",
140
+ "模型": "모델",
141
+ "模型分为三类:": "모델은 3가지로 나뉩니다:",
142
+ "模型切换": "모델 전환",
143
+ "每张显卡的batch_size": "각 그래픽 카드의 배치 크기",
144
+ "版本": "버전",
145
+ "粤英混合": "粤영 혼합",
146
+ "粤语": "粤語",
147
+ "终止合成": "합성 종료",
148
+ "缺少Hubert数据集": "Hubert 데이터셋이 없습니다",
149
+ "缺少语义数据集": "의미론 데이터셋이 없습니다",
150
+ "缺少音素数据集": "음소 데이터셋이 없습니다",
151
+ "缺少音频数据集": "오디오 데이터셋이 없습니다",
152
+ "英文": "영어",
153
+ "训练集格式化一键三连": "훈련 데이터셋 포맷팅 원클릭 실행",
154
+ "训练集格式化工具": "훈련 데이터셋 포맷팅 도구",
155
+ "语义Token提取": "의미론적 토큰 추출",
156
+ "语速": "언어 속도",
157
+ "语速调整,高为更快": "언어 속도 조정, 높을수록 빠름",
158
+ "语速调节不支持分桶处理,已自动关闭分桶处理": "음속 조절은 버킷 처리를 지원하지 않아 버킷 처리 자동 비활성화됨",
159
+ "语音切分": "음성 분할",
160
+ "语音切分工具": "음성 분할 도구",
161
+ "语音文本校对标注工具": "음성 텍스트 교정 및 주석 도구",
162
+ "语音自监督特征提取": "음성 자율 학습 특성 추출",
163
+ "语音识别": "음성 인식",
164
+ "语音识别工具": "음성 인식 도구",
165
+ "语音降噪": "음성 잡음 제거",
166
+ "语音降噪工具": "음성 잡음 제거 도구",
167
+ "请上传3~10秒内参考音频,超过会报错!": "3~10초 이내의 참고 오디오를 업로드하십시오. 초과하면 오류가 발생합니다!",
168
+ "请上传参考音频": "참고 오디오를 업로드하세요",
169
+ "请填入推理文本": "목표 텍스트를 입력하세요",
170
+ "请填入正确的List路径": "올바른 리스트 경로를 입력하세요",
171
+ "请填入正确的音频文件夹路径": "올바른 오디오 폴더 경로를 입력하세요",
172
+ "请输入有效文本": "유효한 텍스트를 입력하세요",
173
+ "路径不存在,使用默认配置": "경로가 존재하지 않음, 기본 설정 사용",
174
+ "路径不能为空": "경로가 비어 있을 수 없습니다",
175
+ "路径错误": "경로 오류",
176
+ "转换": "변환",
177
+ "辅参考音频(可选多个,或不选)": "보조 참조 오디오 (여러 개 선택 가능 또는 선택 안 함)",
178
+ "输入待处理音频文件夹路径": "처리 대기 중인 오디오 폴더 경로 입력",
179
+ "输入文件夹路径": "폴더 경로 입력",
180
+ "输入路径不存在": "입력 경로가 존재하지 않음",
181
+ "输入路径存在但不可用": "입력 경로가 존재하지만 사용할 수 없음",
182
+ "输出logs/实验名目录下应有23456开头的文件和文件夹": "logs/실험 이름 디렉터리에는 23456으로 시작하는 파일과 폴더가 있어야 함",
183
+ "输出信息": "출력 정보",
184
+ "输出文件夹路径": "출력 폴더 경로",
185
+ "输出的语音": "출력 음성",
186
+ "运行中": "실행 중",
187
+ "进度": "진행 상태",
188
+ "进程已终止": "프로세스 종료됨",
189
+ "进程输出信息": "프로세스 출력 정보",
190
+ "选择训练完存放在SoVITS_weights和GPT_weights下的模型。默认的一个是底模,体验5秒Zero Shot TTS用。": "SoVITS_weights 및 GPT_weights에 저장된 훈련 완료된 모델 중 선택. 기본적으로 하나는 기본 모델이며 5초 Zero Shot TTS를 체험할 수 있습니다.",
191
+ "采样步数,如果觉得电,提高试试,如果觉得慢,降低试试": "샘플링 스텝: 노이즈가 느껴지면 증가, 느리다면 감소 시도",
192
+ "重复惩罚": "반복 패널티",
193
+ "随机种子": "랜덤 시드",
194
+ "需先终止才能开启下一次任务": "다음 작업을 시작하려면 먼저 종료해야 합니다",
195
+ "需要合成的切分前文本": "분할 전 추론 텍스트",
196
+ "需要合成的文本": "합성해야 할 텍스트",
197
+ "需要合成的文本的语种": "추론 텍스트의 언어",
198
+ "需要合成的语种": "합성해야 할 언어",
199
+ "韩文": "한국어",
200
+ "韩英混合": "한영 혼합",
201
+ "音频加载失败": "오디오 로드 실패",
202
+ "音频文件不存在,跳过:": "오디오 파일이 존재하지 않음, 건너뜀: ",
203
+ "音频标注WebUI": "오디오 주석 WebUI",
204
+ "音频自动切分输入路径,可文件可文件夹": "오디오 자동 분리 입력 경로, 파일 또는 폴더 가능",
205
+ "音频超分中": "오디오 슈퍼 레졸루션 중",
206
+ "预训练GPT模型路径": "사전 훈련된 GPT 모델 경로",
207
+ "预训练SSL模型路径": "사전 훈련된 SSL 모델 경로",
208
+ "预训练SoVITS-D模型路径": "사전 훈련된 SoVITS-D 모델 경로",
209
+ "预训练SoVITS-G模型路径": "사전 훈련된 SoVITS-G 모델 경로",
210
+ "预训练中���BERT模型路径": "사전 훈련된 중국어 BERT 모델 경로"
211
+ }
tools/i18n/locale/pt_BR.json ADDED
@@ -0,0 +1,211 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ {
2
+ "(1)MDX-Net(onnx_dereverb):对于双通道混响是最好的选择,不能去除单通道混响;": "(1)MDX-Net (onnx_dereverb): É a melhor opção para reverberação de dois canais, mas não pode remover a reverberação de um único canal;",
3
+ "(234)DeEcho:去除延迟效果。Aggressive比Normal去除得更彻底,DeReverb额外去除混响,可去除单声道混响,但是对高频重的板式混响去不干净。": "(234)DeEcho:Remove os efeitos de atraso. Aggressive é mais completo que Normal na remoção, DeReverb remove adicionalmente a reverberação, pode remover a reverberação de um canal único, mas não remove completamente a reverberação de placa de alta frequência.",
4
+ "*实验/模型名": "*Nome do experimento/modelo",
5
+ "*文本标注文件": "*Arquivo de marcação de texto",
6
+ "*训练集音频文件目录": "*Diretório de arquivos de áudio do conjunto de treinamento",
7
+ "*请上传并填写参考信息": "Por favor, faça o upload e preencha as informações de referência",
8
+ "*请填写需要合成的目标文本和语种模式": "*Por favor, insira o texto alvo a ser sintetizado e o modo de idioma.",
9
+ ".限制范围越小判别效果越好。": "Menos multilinguismo é melhor",
10
+ "1-GPT-SoVITS-TTS": "1-GPT-SOVITS-TTS",
11
+ "1、DeEcho-DeReverb模型的耗时是另外2个DeEcho模型的接近2倍;": "1. O tempo de processamento do modelo DeEcho-DeReverb é quase o dobro dos outros dois modelos DeEcho;",
12
+ "1、保留人声:不带和声的音频选这个,对主人声保留比HP5更好。内置HP2和HP3两个模型,HP3可能轻微漏伴奏但对主人声保留比HP2稍微好一丁点;": "1. Manter a voz: selecione isso para áudio sem harmonia, que preserva melhor a voz principal do que o HP5. Inclui dois modelos, HP2 e HP3; o HP3 pode permitir um pequeno vazamento de acompanhamento, mas preserva a voz principal um pouco melhor do que o HP2;",
13
+ "2-GPT-SoVITS-变声": "2-gpt-sovits-mudança de voz",
14
+ "2、MDX-Net-Dereverb模型挺慢的;": "2. O modelo MDX-Net-Dereverb é bastante lento;",
15
+ "2、仅保留主人声:带和声的音频选这个,对主人声可能有削弱。内置HP5一个模型;": "2. Manter apenas a voz principal: selecione isso para áudio com harmonia, pode haver uma redução na voz principal. Inclui um modelo HP5;",
16
+ "3、个人推荐的最干净的配置是先MDX-Net再DeEcho-Aggressive。": "3. A configuração mais limpa recomendada é usar primeiro o MDX-Net e depois o DeEcho-Aggressive.",
17
+ "3、去混响、去延迟模型(by FoxJoy):": "3. Modelo de remoção de reverberação e atraso (por FoxJoy):",
18
+ "ASR 模型": "Modelo ASR",
19
+ "ASR 模型尺寸": "Tamanho do modelo ASR",
20
+ "ASR 语言设置": "Configurações de idioma do ASR",
21
+ "GPT 训练: 模型权重文件在 GPT_weights/": "Treinamento GPT: O arquivo de pesos do modelo está em GPT_weights/",
22
+ "GPT模型列表": "Lista de modelos GPT",
23
+ "GPT训练": "Treinamento GPT",
24
+ "GPT采样参数(无参考文本时不要太低。不懂就用默认):": "Parâmetros de amostragem do GPT (não muito baixos quando não houver texto de referência. Use o padrão se não tiver certeza):",
25
+ "GPU卡号,只能填1个整数": "Número da placa de vídeo, só é possível preencher com um número inteiro",
26
+ "GPU卡号以-分割,每个卡号一个进程": "Número da placa de vídeo dividido por-, cada número de placa é um processo",
27
+ "LoRA秩": "Classificação LoRA",
28
+ "SoVITS V3 底模缺失,无法加载相应 LoRA 权重": "O modelo base do SoVITS V3 está ausente, impossibilitando o carregamento dos pesos do LoRA",
29
+ "SoVITS 训练: 模型权重文件在 SoVITS_weights/": "Treinamento SoVITS: O arquivo de pesos do modelo está em SoVITS_weights/",
30
+ "SoVITS模型列表": "Lista de modelos SoVITS",
31
+ "SoVITS训练": "Treinamento SoVITS",
32
+ "TTS推理WebUI": "Inferência TTS WebUI",
33
+ "UVR5人声伴奏分离&去混响去延迟工具": "UVR5 Separação de voz e acompanhamento & remoção de reverberação e atraso",
34
+ "alpha_mix:混多少比例归一化后音频进来": "alpha_mix: Em que proporção o áudio normalizado é misturado de volta",
35
+ "batch_size": "Tamanho do Lote",
36
+ "hop_size:怎么算音量曲线,越小精度越大计算量越高(不是精度越大效果越好)": "HOP_SIZE: Como calcular a curva de volume, quanto menor a precisão, maior a quantidade de cálculos (não significa que quanto maior a precisão, melhor o efeito)",
37
+ "max:归一化后最大值多少": "MAX: Qual é o valor máximo após a normalização?",
38
+ "max_sil_kept:切完后静音最多留多长": "max_sil_kept: Depois de cortar, por quanto tempo no máximo o silêncio é mantido",
39
+ "min_interval:最短切割间隔": "min_interval: O intervalo de corte mínimo",
40
+ "min_length:每段最小多长,如果第一段太短一直和后面段连起来直到超过这个值": "min_length: Comprimento mínimo de cada segmento. Se o primeiro segmento for muito curto, ele será unido aos segmentos seguintes até exceder este valor",
41
+ "temperature": "temperatura",
42
+ "threshold:音量小于这个值视作静音的备选切割点": "Limiar: O volume menor que este valor é considerado como um ponto de corte mudo alternativo",
43
+ "top_k": "top_k",
44
+ "top_p": "top_p",
45
+ "v3暂不支持该模式,使用了会报错。": "O v3 não suporta este modo no momento. O uso resultará em erro.",
46
+ "v3输出如果觉得闷可以试试开超分": "Se a saída do v3 parecer abafada, tente ativar a super-resolução",
47
+ "不切": "Não dividir",
48
+ "中文": "Chinês",
49
+ "中文教程文档": "Documentação do tutorial em chinês",
50
+ "中英混合": "Mistura de Chinês e Inglês",
51
+ "主参考音频(请上传3~10秒内参考音频,超过会报错!)": "Áudio de Referência Principal (Por favor, carregue um áudio de referência entre 3-10 segundos, exceder esse limite causará um erro!)",
52
+ "主参考音频的文本": "Texto do Áudio de Referência Principal",
53
+ "主参考音频的语种": "Idioma do Áudio de Referência Principal",
54
+ "也可批量输入音频文件, 二选一, 优先读文件夹": "Também é possível inserir arquivos de áudio em lote; escolha uma opção, preferencialmente leia a pasta.",
55
+ "人声伴奏分离批量处理, 使用UVR5模型。": "Processamento em lote de separação de voz e acompanhamento, usando o modelo UVR5.",
56
+ "人声分离WebUI": "WebUI de separação de voz",
57
+ "人声提取激进程度": "Grau de agressividade da extração de voz",
58
+ "以下文件或文件夹不存在": "Nenhum Arquivo ou Pasta Encontrado",
59
+ "以下模型不存在:": "Nenhum Modelo Tal:",
60
+ "伴奏人声分离&去混响&去回声": "Separação de acompanhamento e voz & remoção de reverberação & remoção de eco",
61
+ "你没有下载超分模型的参数,因此不进行超分。如想超分请先参照教程把文件下载好": "Os parâmetros do modelo de super-resolução não foram baixados, então a super-resolução não será realizada. Para utilizá-la, siga o tutorial e baixe os arquivos necessários.",
62
+ "使用无参考文本模式时建议使用微调的GPT": "Recomenda-se o uso de um modelo GPT ajustado ao utilizar o modo sem texto de referência.",
63
+ "保存频率save_every_epoch": "Frequência de salvamento save_every_epoch",
64
+ "保持随机": "Manter Aleatório",
65
+ "关闭": "Fechar ",
66
+ "凑50字一切": "Complete com 50 caracteres",
67
+ "凑四句一切": "Complete com quatro frases",
68
+ "分桶处理模式已关闭": "Modo de Processamento em Balde Desativado",
69
+ "分桶处理模式已开启": "Modo de Processamento em Balde Ativado",
70
+ "分段返回模式不支持分桶处理,已自动关闭分桶处理": "Modo de Retorno Segmentado não suporta Processamento em Balde, Processamento em Balde Desativado Automaticamente",
71
+ "分段返回模式已开启": "Modo de Retorno Segmentado Ativado",
72
+ "分段间隔(秒)": "Intervalo de Segmentação (Segundos)",
73
+ "分段间隔过小,已自动设置为0.01": "Intervalo de Segmentação muito curto, automaticamente definido como 0.01",
74
+ "切分": "Segmentação",
75
+ "切分后文本": "Texto de Inferência Após Segmentação",
76
+ "切分后的子音频的输出根目录": "Diretório raiz de saída do sub-áudio após o corte",
77
+ "切分文本": "Segmentar Texto",
78
+ "切割使用的进程数": "Número de processos para corte",
79
+ "刷新模型路径": "Atualizar caminho do modelo",
80
+ "前端处理后的文本(每句):": "Texto após processamento front-end (por frase):",
81
+ "前置数据集获取工具": "Ferramenta de obtenção de conjunto de dados pré-processado",
82
+ "占用中": " Ocupado",
83
+ "去混响/去延迟,附:": "Remoção de reverberação/remoção de atraso, anexo:",
84
+ "参考音频在3~10秒范围外,请更换!": "O áudio de referência está fora do intervalo de 3 a 10 segundos. Por favor, substitua!",
85
+ "参考音频的文本": "Texto do áudio de referência",
86
+ "参考音频的语种": "Idioma do áudio de referência",
87
+ "句间停顿秒数": "Tempo de pausa entre frases (segundos)",
88
+ "可选项:通过拖拽多个文件上传多个参考音频(建议同性),平均融合他们的音色。如不填写此项,音色由左侧单个参考音频控制。如是微调模型,建议参考音频全部在微调训练集音色内,底模不用管。": "Opcional: Faça upload de vários arquivos de áudio de referência arrastando e soltando-os (recomendado que sejam do mesmo gênero) e faça uma média dos seus tons. Se essa opção for deixada em branco, o tom será controlado pelo único áudio de referência à esquerda. Se estiver ajustando o modelo, é recomendado que todos os arquivos de áudio de referência tenham tons dentro do conjunto de treinamento de ajuste; o modelo pré-treinado pode ser ignorado.",
89
+ "合成语音": "Voz sintetizada",
90
+ "合格的文件夹路径格式举例: E:\\codes\\py39\\vits_vc_gpu\\白鹭霜华测试��例(去文件管理器地址栏拷就行了)。": "Exemplo de formato de caminho de pasta válido: E:\\codes\\py39\\vits_vc_gpu\\白鹭霜华测试样例 (copie do endereço da barra do gerenciador de arquivos).",
91
+ "后续将支持转音素、手工修改音素、语音合成分步执行。": "Suporte para Conversão de Fonemas, Edição Manual de Fonemas e Síntese de Fase por Fase será adicionado no futuro.",
92
+ "听不清参考音频说的啥(不晓得写啥)可以开。开启后无视填写的参考文本。": "Se não conseguir entender claramente o áudio de referência, ative esta opção. Quando ativada, o texto de referência inserido será ignorado.",
93
+ "启用并行推理版本": "Ativar Versão de Inferência Paralela",
94
+ "填切割后音频所在目录!读取的音频文件完整路径=该目录-拼接-list文件里波形对应的文件名(不是全路径)。如果留空则使用.list文件里的绝对全路径。": "Preencha o diretório onde os áudios cortados estão localizados! O caminho completo dos arquivos de áudio lidos = este diretório - concatenação com o nome do arquivo de forma correspondente no arquivo .list (não o caminho completo). Se deixar em branco, use o caminho absoluto no arquivo .list.",
95
+ "多语种混合": "Mistura de múltiplos idiomas",
96
+ "多语种混合(粤语)": "Mistura Multilíngue (Yue)",
97
+ "失败": " Falha",
98
+ "如不认可该条款, 则不能使用或引用软件包内任何代码和文件. 详见根目录LICENSE.": "Se você não concorda com estes termos, não poderá usar ou referenciar nenhum código ou arquivo deste pacote de software. Consulte o arquivo LICENSE no diretório raiz para mais detalhes.",
99
+ "实际输入的参考文本:": "Texto de referência realmente inserido:",
100
+ "实际输入的目标文本(切句后):": "Texto alvo realmente inserido (após divisão de frases):",
101
+ "实际输入的目标文本(每句):": "Texto alvo realmente inserido (por frase):",
102
+ "实际输入的目标文本:": "Texto alvo realmente inserido:",
103
+ "导出文件格式": "Formato de arquivo de exportação",
104
+ "已关闭": " Fechado",
105
+ "已完成": " Concluído",
106
+ "已开启": " Ativado",
107
+ "并行推理": "Inferência Paralela",
108
+ "并行推理模式已关闭": "Modo de Inferência Paralela Desativado",
109
+ "并行推理模式已开启": "Modo de Inferência Paralela Ativado",
110
+ "开启": "Ativar ",
111
+ "开启无参考文本模式。不填参考文本亦相当于开启。": "Ativar o modo sem texto de referência. Não preencher o texto de referência também equivale a ativar.",
112
+ "微调训练": "Treinamento de ajuste fino",
113
+ "怎么切": "Como cortar",
114
+ "总训练轮数total_epoch": "Total de epoch de treinamento",
115
+ "总训练轮数total_epoch,不建议太高": "Total de epoch de treinamento, não é recomendável um valor muito alto",
116
+ "指定输出主人声文件夹": "Especificar a pasta de saída da voz principal",
117
+ "指定输出非主人声文件夹": "Especificar a pasta de saída da voz secundária",
118
+ "按中文句号。切": "Dividir por ponto final chinês",
119
+ "按标点符号切": "Dividir por sinais de pontuação",
120
+ "按英文句号.切": "Dividir por ponto final em inglês",
121
+ "推理": "Inferência",
122
+ "推理设置": "Configurações de Inferência",
123
+ "提取文本Bert特征": "Extrair Características BERT do Texto",
124
+ "数据分桶(并行推理时会降低一点计算量)": "Agrupamento de Dados (Reduz o Custo Computacional na Inferência Paralela)",
125
+ "数据类型精度": "precisão do tipo de dado",
126
+ "文本分词与特征提取": "Tokenização de texto e extração de características",
127
+ "文本切分工具。太长的文本合成出来效果不一定好,所以太长建议先切。合成会根据文本的换行分开合成再拼起来。": "Ferramenta de Segmentação de Texto. Textos muito longos podem não resultar em uma boa síntese, então é recomendado segmentar. A síntese será feita com base nas quebras de linha e depois concatenada.",
128
+ "文本模块学习率权重": "Weight da taxa de aprendizado do módulo de texto",
129
+ "施工中,请静候佳音": "Em construção, por favor, aguarde por um bom som",
130
+ "日文": "Japonês",
131
+ "日英混合": "Mistura de Japonês e Inglês",
132
+ "是否仅保存最新的权重文件以节省硬盘空间": "Deseja salvar apenas os arquivos de pesos mais recentes para economizar espaço em disco?",
133
+ "是否在每次保存时间点将最终小模型保存至weights文件夹": "Se deve salvar o modelo pequeno final na pasta Weights em cada ponto de salvamento de tempo",
134
+ "是否开启DPO训练选项(实验性)": "Ativar a opção de treinamento DPO (experimental)?",
135
+ "是否直接对上次合成结果调整语速和音色。防止随机性。": "Ajuste a velocidade da fala e o tom do último resultado de síntese para evitar aleatoriedade.",
136
+ "显卡信息": "Informações da placa de vídeo",
137
+ "未下载模型": "Modelo não baixado",
138
+ "本软件以MIT协议开源, 作者不对软件具备任何控制力, 使用软件者、传播软件导出的声音者自负全责.": "Este software é de código aberto sob a licença MIT, e o autor não tem controle sobre seu uso. O usuário e qualquer pessoa que distribua áudio gerado pelo software são totalmente responsáveis.",
139
+ "标注文件路径 (含文件后缀 *.list)": "Caminho do arquivo de anotações (com a extensão *.list)",
140
+ "模型": "Modelo",
141
+ "模型分为三类:": "Modelos dividem-se em três categorias:",
142
+ "模型切换": "Troca de modelo",
143
+ "每张显卡的batch_size": "Tamanho do lote de cada placa de vídeo",
144
+ "版本": "Versão",
145
+ "粤英混合": "Mistura Yue-Inglês",
146
+ "粤语": "Yue",
147
+ "终止合成": "Terminar Síntese",
148
+ "缺少Hubert数据集": "Conjunto de Dados Hubert Ausente",
149
+ "缺少语义数据集": "Conjunto de Dados Semânticos Ausente",
150
+ "缺少音素数据集": "Conjunto de Dados de Fonemas Ausente",
151
+ "缺少音频数据集": "Conjunto de Dados de Áudio Ausente",
152
+ "英文": "Inglês",
153
+ "训练集格式化一键三连": "Formatação do conjunto de treinamento em um clique",
154
+ "训练集格式化工具": "Ferramenta de formatação do conjunto de treinamento",
155
+ "语义Token提取": "Extração de tokens semânticos",
156
+ "语速": "Velocidade da fala",
157
+ "语速调整,高为更快": "Ajustar a velocidade da fala, mais alta para mais rápido",
158
+ "语速调节不支持分桶处理,已自动关闭分桶处理": "Ajuste de Velocidade de Fala não suporta Processamento em Balde, Processamento em Balde Desativado Automaticamente",
159
+ "语音切分": "Segmentação de áudio",
160
+ "语音切分工具": "Ferramenta de segmentação de áudio",
161
+ "语音文本校对标注工具": "Ferramenta de anotação e revisão de texto de áudio",
162
+ "语音自监督特征提取": "Extração de características de autoaprendizagem de áudio",
163
+ "语音识别": "Reconhecimento de voz",
164
+ "语音识别工具": "Ferramenta de reconhecimento de voz",
165
+ "语音降噪": "Redução de ruído de áudio",
166
+ "语音降噪工具": "Ferramenta de redução de ruído de áudio",
167
+ "请上传3~10秒内参考音频,超过会报错!": "Por favor, faça upload de um áudio de referência com duração entre 3 e 10 segundos. Áudios fora dessa faixa causarão erro!",
168
+ "请上传参考音频": "Por Favor, Carregue o Áudio de Referência",
169
+ "请填入推理文本": "Por Favor, Preencha o Texto de Inferência",
170
+ "请填入正确的List路径": "Por Favor, Insira o Caminho Correto da Lista",
171
+ "请填入正确的音频文件夹路径": "Por Favor, Insira o Caminho Correto da Pasta de Áudio",
172
+ "请输入有效文本": "Por favor, insira um texto válido",
173
+ "路径不存在,使用默认配置": "Caminhos Não Encontrados, Usando Configuração Padrão",
174
+ "路径不能为空": "Esperado Caminho Não Vazio",
175
+ "路径错误": "Erro de Caminho",
176
+ "转换": "Converter",
177
+ "辅参考音频(可选多个,或不选)": "Áudio de Referência Secundário (Múltiplos Opcionais ou Nenhum)",
178
+ "输入待处理音频文件夹路径": "Caminho da pasta de arquivos de áudio a ser processados",
179
+ "输入文件夹路径": "Caminho da pasta de entrada",
180
+ "输入路径不存在": "O caminho de entrada não existe",
181
+ "输入路径存在但不可用": "O caminho de entrada existe, mas não está disponível",
182
+ "输出logs/实验名目录下应有23456开头的文件和文件夹": "Logs de saída/deve haver arquivos e pastas começando com 23456 no diretório do nome do experimento",
183
+ "输出信息": "Informações de saída",
184
+ "输出文件夹路径": "Caminho da pasta de saída",
185
+ "输出的语音": "Áudio de saída",
186
+ "运行中": " Em execução",
187
+ "进度": "Progresso",
188
+ "进程已终止": " Processo encerrado",
189
+ "进程输出信息": " Informações de saída do processo",
190
+ "选择训练完存放在SoVITS_weights和GPT_weights下的模型。默认的一个是底模,体验5秒Zero Shot TTS用。": "Selecione os modelos armazenados em Sovits_weights e GPT_WEIGHTS. O padrão é o modelo inferior, experiência para 5 segundos de Zero Shot TTS",
191
+ "采样步数,如果觉得电,提高试试,如果觉得慢,降低试试": "Passos de Amostragem: Se parecer ruidoso, tente aumentar; se parecer lento, tente diminuir",
192
+ "重复惩罚": "Penalidade de Repetição",
193
+ "随机种子": "Semente Aleatória",
194
+ "需先终止才能开启下一次任务": "É necessário encerrar primeiro para iniciar a próxima tarefa",
195
+ "需要合成的切分前文本": "Texto de Inferência Antes da Segmentação",
196
+ "需要合成的文本": "Texto a ser sintetizado",
197
+ "需要合成的文本的语种": "Idioma do Texto de Inferência",
198
+ "需要合成的语种": "Idioma a ser sintetizado",
199
+ "韩文": "Coreano",
200
+ "韩英混合": "Mistura Coreano-Inglês",
201
+ "音频加载失败": "Falha ao Carregar o Áudio",
202
+ "音频文件不存在,跳过��": "Arquivo de Áudio Não Encontrado, Pulando: ",
203
+ "音频标注WebUI": "WebUI de anotação de áudio",
204
+ "音频自动切分输入路径,可文件可文件夹": "Caminho de entrada automático de corte de áudio, pode ser um arquivo ou uma pasta",
205
+ "音频超分中": "Super-resolução de áudio em andamento",
206
+ "预训练GPT模型路径": "Caminho do modelo GPT pré-treinado",
207
+ "预训练SSL模型路径": "Caminho do modelo SSL pré-treinado",
208
+ "预训练SoVITS-D模型路径": "Caminho do modelo SoVITS-D pré-treinado",
209
+ "预训练SoVITS-G模型路径": "Caminho do modelo SoVITS-G pré-treinado",
210
+ "预训练中文BERT模型路径": "Caminho do modelo BERT chinês pré-treinado"
211
+ }
tools/i18n/locale/ru_RU.json ADDED
@@ -0,0 +1,211 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ {
2
+ "(1)MDX-Net(onnx_dereverb):对于双通道混响是最好的选择,不能去除单通道混响;": "(1)MDX-Net(onnx_dereverb):Это лучший выбор для реверберации с двумя каналами, но он не может устранить реверберацию с одним каналом;",
3
+ "(234)DeEcho:去除延迟效果。Aggressive比Normal去除得更彻底,DeReverb额外去除混响,可去除单声道混响,但是对高频重的板式混响去不干净。": "(234)DeEcho:Устраняет эффект задержки. Aggressive устраняет более тщательно, чем Normal, DeReverb дополнительно устраняет реверберацию, может устранить реверберацию с одного канала, но не полностью устраняет высокочастотную реверберацию.",
4
+ "*实验/模型名": "*Название эксперимента/модели",
5
+ "*文本标注文件": "*Файл текстовой аннотации",
6
+ "*训练集音频文件目录": "*Директория аудиофайлов обучающего набора",
7
+ "*请上传并填写参考信息": "*Пожалуйста, загрузите и заполните референтные данные",
8
+ "*请填写需要合成的目标文本和语种模式": "*Пожалуйста, введите целевой текст для синтеза и режим языка",
9
+ ".限制范围越小判别效果越好。": "Чем меньше языков, тем лучше",
10
+ "1-GPT-SoVITS-TTS": "1-GPT-SoVITS-TTS",
11
+ "1、DeEcho-DeReverb模型的耗时是另外2个DeEcho模型的接近2倍;": "1. Время обработки модели DeEcho-DeReverb почти вдвое больше, чем у двух других моделей DeEcho;",
12
+ "1、保留人声:不带和声的音频选这个,对主人声保留比HP5更好。内置HP2和HP3两个模型,HP3可能轻微漏伴奏但对主人声保留比HP2稍微好一丁点;": "1. Сохранение голоса: выберите этот для аудио без гармоний, сохранение голоса будет лучше, чем HP5. Встроенные модели HP2 и HP3, HP3 может немного пропускать сопровождение, но сохраняет голос немного лучше, чем HP2;",
13
+ "2-GPT-SoVITS-变声": "2-GPT-SoVITS-переозвучивание",
14
+ "2、MDX-Net-Dereverb模型挺慢的;": "2. Модель MDX-Net-Dereverb довольно медленная;",
15
+ "2、仅保留主人声:带和声的音频选这个,对主人声可能有削弱。内置HP5一个模型;": "2. Сохранение только основного голоса: выберите это для аудио с гармониями, может ослабить основной голос. Встроенная модель HP5;",
16
+ "3、个人推荐的最干净的配置是先MDX-Net再DeEcho-Aggressive。": "3. Лично рекомендованная самая чистая конфигурация — сначала MDX-Net, затем DeEcho-Aggressive.",
17
+ "3、去混响、去延迟模型(by FoxJoy):": "3. Модель удаления реверберации и задержек (от FoxJoy):",
18
+ "ASR 模型": "Модель ASR",
19
+ "ASR 模型尺寸": "Размер модели ASR",
20
+ "ASR 语言设置": "Настройки языка ASR",
21
+ "GPT 训练: 模型权重文件在 GPT_weights/": "Обучение GPT: файлы весов модели находятся в GPT_weights/",
22
+ "GPT模型列表": "Список моделей GPT",
23
+ "GPT训练": "Обучение GPT",
24
+ "GPT采样参数(无参考文本时不要太低。不懂就用默认):": "Параметры выборки GPT (не устанавливайте слишком низкие значения, если нет ссылочного текста. Используйте значения по умолчанию, если не уверены):",
25
+ "GPU卡号,只能填1个整数": "Номер GPU, можно указать только одно целое число",
26
+ "GPU卡号以-分割,每个卡号一个进程": "Номера GPU разделяются дефисом, на каждый номер отдельный процесс",
27
+ "LoRA秩": "Ранг LoRA",
28
+ "SoVITS V3 底模缺失,无法加载相应 LoRA 权重": "Отсутствует базовая модель SoVITS V3, невозможно загрузить соответствующие веса LoRA",
29
+ "SoVITS 训练: 模型权重文件在 SoVITS_weights/": "Обучение SoVITS: файлы весов модели находятся в SoVITS_weights/",
30
+ "SoVITS模型列表": "Список моделей SoVITS",
31
+ "SoVITS训练": "Обучение SoVITS",
32
+ "TTS推理WebUI": "TTS WebUI для инференса",
33
+ "UVR5人声伴奏分离&去混响去延迟工具": "UVR5 Инструмент разделения вокала и сопровождения & удаления реверберации и задержки",
34
+ "alpha_mix:混多少比例归一化后音频进来": "alpha_mix:Какая доля нормализованного аудио смешивается",
35
+ "batch_size": "размер пакета",
36
+ "hop_size:怎么算音量曲线,越小精度越大计算量越高(不是精度越大效果越好)": "hop_size:Как рассчитывается кривая громкости, чем меньше, тем выше точность и больше вычислительная нагрузка (большая точность не всегда означает лучший результат)",
37
+ "max:归一化后最大值多少": "max:Максимальное значение после нормализации",
38
+ "max_sil_kept:切完后静音最多留多长": "max_sil_kept:Максимальная длительность тишины после разреза",
39
+ "min_interval:最短切割间隔": "min_interval:Минимальный интервал разреза",
40
+ "min_length:每段最小多长,如果第一段太短一直和后面段连起来直到超过这个值": "min_length:Минимальная длина каждого отрезка; если первый отрезок слишком короткий, он будет соединен с последующими до достижения этого значения",
41
+ "temperature": "temperature",
42
+ "threshold:音量小于这个值视作静音的备选切割点": "threshold:Значение громкости ниже этого считается тишиной для альтернативной точки разреза",
43
+ "top_k": "top_k",
44
+ "top_p": "top_p",
45
+ "v3暂不支持该模式,使用了会报错。": "v3 пока не поддерживает этот режим, при использовании возникнет ошибка.",
46
+ "v3输出如果觉得闷可以试试开超分": "Если вывод v3 кажется глухим, попробуйте включить супер-разрешение",
47
+ "不切": "Не разрезать",
48
+ "中文": "Китайский",
49
+ "中文教程文档": "Документация по китайскому руководству",
50
+ "中英混合": "Китайский и английский",
51
+ "主参考音频(请上传3~10秒内参考音频,超过会报错!)": "Основной опорный аудиофайл (пожалуйста, загрузите опорный аудиофайл длительностью от 3 до 10 секунд, превышение этого лимита вызовет ошибку!)",
52
+ "主参考音频的文本": "Текст основного опорного аудиофайла",
53
+ "主参考音频的语种": "Язык основного опорного аудиофайла",
54
+ "也可批量输入音频文件, 二选一, 优先读文件夹": "Можно также импортировать несколько аудиофайлов. Если путь к папке существует, то этот ввод игнорируется.",
55
+ "人声伴奏分离批量处理, 使用UVR5模型。": "Обработка разделения вокала и аккомпанемента пакетно с использованием модели UVR5.",
56
+ "人声分离WebUI": "WebUI для разделения вокала",
57
+ "人声提取激进程度": "Степень агрессивности извлечения вокала",
58
+ "以下文件或文件夹不存在": "Такого файла или папки не существует",
59
+ "以下模型不存在:": "Этот модель не существует",
60
+ "伴奏人声分离&去混响&去回声": "Разделение вокала/аккомпанемента и удаление эхо",
61
+ "你没有下载超分模型的参数,因此不进行超分。如想超分请先参照教程把文件下载好": "Параметры модели супер-разрешения не загружены, поэтому супер-разрешение не будет выполняться. Чтобы использовать его, сначала загрузите необходимые файлы, следуя руководству.",
62
+ "使用无参考文本模式时建议使用微调的GPT": "При использовании режима без эталонного текста рекомендуется использовать дообученный GPT.",
63
+ "保存频率save_every_epoch": "Частота сохранения save_every_epoch",
64
+ "保持随机": "Сохранить случайное значение",
65
+ "关闭": "Закрыть ",
66
+ "凑50字一切": "Соберите все в 50 символов",
67
+ "凑四句一切": "Собрать четыре предложения и разрезать",
68
+ "分桶处理模式已关闭": "Режим обработки пакетов отключен",
69
+ "分桶处理模式已开启": "Режим обработки пакетов включен",
70
+ "分段返回模式不支持分桶处理,已自动关闭分桶处理": "Режим сегментированного возврата не поддерживает обработку пакетов, обработка пакетов отключена автоматически",
71
+ "分段返回模式已开启": "Режим сегментированного возврата включен",
72
+ "分段间隔(秒)": "Интервал сегментации (секунды)",
73
+ "分段间隔过小,已自动设置为0.01": "Интервал сегментации слишком короткий, автоматически установлен на 0.01",
74
+ "切分": "Сегментация",
75
+ "切分后文本": "Текст для синтеза после сегментации",
76
+ "切分后的子音频的输出根目录": "Корневой каталог вывода для подаудио после разделения",
77
+ "切分文本": "Сегментировать текст",
78
+ "切割使用的进程数": "Количество процессов, используемых для разрезания",
79
+ "刷新模型路径": "Обновить путь к модели",
80
+ "前端处理后的文本(每句):": "Текст после предварительной обработки (каждое предложение):",
81
+ "前置数据集获取工具": "Инструмент для получения предварительных данных",
82
+ "占用中": " Занято",
83
+ "去混响/去延迟,附:": "Удаление реверберации/удаление задержки, примечание:",
84
+ "参考音频在3~10秒范围外,请更换!": "Референтное аудио вне диапазона 3~10 секунд, пожалуйста, замените!",
85
+ "参考音频的文本": "Текст референтного аудио",
86
+ "参考音频的语种": "Язык референтного аудио",
87
+ "句间停顿秒数": "Время паузы между предложениями (в секундах)",
88
+ "可选项:通过拖拽多个文件上传多个参考音频(建议同性),平均融合他们的音色。如不填写此项,音色由左侧单个参考音频控制。如是微调模型,建议参考音频全部在微调训练集音色内,底模不用管。": "Необязательно: загрузите несколько файлов с эталонными аудиозаписями, перетащив их (рекомендуется одного пола), и усредните их тон. Если этот параметр не заполнен, тон будет контролироваться одной эталонной аудиозаписью слева. При тонкой настройке модели рекомендуется, чтобы все эталонные аудиозаписи имели тон в пределах обучающего набора для тонкой настройки; предварительно обученную модель можно игнорировать.",
89
+ "合成语音": "Синтезированный голос",
90
+ "合格的文件夹路径格式举例: E:\\codes\\py39\\vits_vc_gpu\\白鹭霜华测试样例(去文件管理器地址栏拷就行了)。": "Пример допустимого формата пути к папке: E:\\codes\\py39\\vits_vc_gpu\\白鹭霜华测试样例 (просто скопируйте из адресной строки файлового менеджера).",
91
+ "后续将支持转音素、手工修改音素、语音合成分步执行。": "В будущем будет добавлена поддержка преобразования в фонемы, ручного редактирования фонемов и пошагового выполнения синтеза речи.",
92
+ "听不清参考音频说的啥(不晓得写啥)可以开。开启后无视填写的参考文本。": "Если невозможно разобрать речь в эталонном аудио (и непонятно, что писать), можно включить эту опцию. При включении вводимый эталонный текст будет игнорироваться.",
93
+ "启用并行推理版本": "Включить параллельную версию вывода",
94
+ "填切割后音频所在目录!读取的音频文件完整路径=该目录-拼接-list文件里波形对应的文件名(不是全路径)。如果留空则使用.list文件里的绝对全路径。": "Заполните каталог, где находятся аудиофайлы после разрезания! Полный путь к читаемым аудиофайлам = каталог - файл .list, имя файла соответствует волне (не полный путь). Если оставить пустым, будет использоваться абсолютный путь из файла .list.",
95
+ "多语种混合": "Смешанные языки",
96
+ "多语种混合(粤语)": "Многоязычная смесь (кантонский)",
97
+ "失败": " Неудача",
98
+ "如不认可该条款, 则不能使用或引用软件包内任何代码和文件. 详见根目录LICENSE.": "Если вы не согласны с этими условиями, вы не можете использовать или ссылаться на любой код или файлы из этого программного пакета. Подробности смотрите в LICENSE в корневом каталоге.",
99
+ "实际输入的参考文本:": "Фактически введенный референсный текст:",
100
+ "实际输入的目标文本(切句后):": "Фактически введенный целевой текст (после разбиения на предложения):",
101
+ "实际输入的目标文本(每句):": "Фактически введенный целевой текст (каждое предложение):",
102
+ "实际输入的目标文本:": "Фактически введенный целевой текст:",
103
+ "导出文件格式": "Формат выходных файлов",
104
+ "已关闭": " Закрыто",
105
+ "已完成": " Завершено",
106
+ "已开启": " Включено",
107
+ "并行推理": "Параллельный вывод",
108
+ "并行推理模式已关闭": "Режим параллельного вывода отключен",
109
+ "并行推理模式已开启": "Режим параллельного вывода включен",
110
+ "开启": "Включить ",
111
+ "开启无参考文本模式。不填参考文本亦相当于开启。": "Включить режим без референтного текста. Не заполняя референтный текст, вы также включаете этот режим.",
112
+ "微调训练": "Обучение с тонкой настройкой",
113
+ "怎么切": "Как разрезать",
114
+ "总训练轮数total_epoch": "Общее количество эпох обучения total_epoch",
115
+ "总训练轮数total_epoch,不建议太高": "Общее количество эпох обучения total_epoch, не рекомендуется слишком высокое",
116
+ "指定输出主人声文件夹": "Путь к папке для сохранения вокала:",
117
+ "指定输出非主人声文件夹": "Путь к папке для сохранения аккомпанемента:",
118
+ "按中文句号。切": "Разделение по китайским точкам.",
119
+ "按标点符号切": "Разрезать по пунктуационным знакам",
120
+ "按英文句号.切": "Разрезать по английской точке.",
121
+ "推理": "Инференс",
122
+ "推理设置": "Настройки вывода",
123
+ "提取文本Bert特征": "Извлечь текстовые признаки BERT",
124
+ "数据分桶(并行推理时会降低一点计算量)": "Разбиение данных на пакеты (уменьшает вычислительные затраты при параллельном выводе)",
125
+ "数据类型精度": "точность типа данных",
126
+ "文本分词与特征提取": "Токенизация текста и извлечение признаков",
127
+ "文本切分工具。太长的文本合成出来效果不一定好,所以太长建议先切。合成会根据文本的换行分开合成再拼起来。": "Инструмент для сегментации текста. Очень длинный текст может не дать хороших результатов синтеза, поэтому рекомендуется сначала разбить его на сегменты. Синтез будет выполняться на основе разрывов строк, а затем объединяться.",
128
+ "文本模块学习率权重": "Веса скорости обучения текстового модуля",
129
+ "施工中,请静候佳音": "В разработке, ожидайте хороших новостей",
130
+ "日文": "Японский",
131
+ "日英混合": "Японский и английский",
132
+ "是否仅保存最新的权重文件以节省硬盘空间": "Сохранить только последние файлы весов для экономии дискового пространства?",
133
+ "是否在每次保存时间点将最终小模型保存至weights文件夹": "Сохранять финальную версию модели в папке weights на каждом этапе сохранения?",
134
+ "是否开启DPO训练选项(实验性)": "Включить опцию обучения DPO (экспериментально)?",
135
+ "是否直接对上次合成结果调整语速和音色。防止随机性。": "Настройте скорость речи и тон последнего результата синтеза, чтобы избежать случайности.",
136
+ "显卡信息": "Информация о видеокарте",
137
+ "未下载模型": "Модель не загружена",
138
+ "本软件以MIT协议开源, 作者不对软件具备任何控制力, 使用软件者、传播软件导出的声音者自负全责.": "Эта программа распространяется с открытым исходным кодом по лицензии MIT, и автор не несёт ответственности за её использование. Пользователь и распространитель звука, созданного программой, несут полную ответственность.",
139
+ "标注文件路径 (含文件后缀 *.list)": "Путь к файлу разметки (с расширением *.list)",
140
+ "模型": "Модели",
141
+ "模型分为三类:": "Модели делятся на три типа:",
142
+ "模型切换": "Переключение модели",
143
+ "每张显卡的batch_size": "Размер пакета для каждой видеокарты",
144
+ "版本": "Версия",
145
+ "粤英混合": "Кантоно-английская смесь",
146
+ "粤语": "Кантонийский",
147
+ "终止合成": "Завершить синтез",
148
+ "缺少Hubert数据集": "Отсутствует набор данных Hubert",
149
+ "缺少语义数据集": "Отсутствует семантический набор данных",
150
+ "缺少音素数据集": "Отсутствует набор данных фонем",
151
+ "缺少音频数据集": "Отсутствует набор данных аудио",
152
+ "英文": "Английский",
153
+ "训练集格式化一键三连": "Форматирование обучающего набора одним кликом",
154
+ "训练集格式化工具": "Инструмент форматирования обучающего набора",
155
+ "语义Token提取": "Извлечение семантических токенов",
156
+ "语速": "Скорость речи",
157
+ "语速调整,高为更快": "Регулировка скорости речи, чем выше, тем быстрее",
158
+ "语速调节不支持分桶处理,已自动关闭分桶处理": "Регулировка скорости речи не поддерживает обработку пакетов, обработка пакетов отключена автоматически",
159
+ "语音切分": "Разделение аудиофайла",
160
+ "语音切分工具": "Инструмент разделения аудиофайлов",
161
+ "语音文本校对标注工具": "Инструмент аннотирования и корректировки аудиотекста",
162
+ "语音自监督特征提取": "Извлечение характеристик самообучающейся модели речи",
163
+ "语音识别": "Распознавание речи",
164
+ "语音识别工具": "Инструмент распознавания речи",
165
+ "语音降噪": "Шумоподавление аудиофайлов",
166
+ "语音降噪工具": "Инструмент шумоподавления аудиофайлов",
167
+ "请上传3~10秒内参考音频,超过会报错!": "Пожалуйста, загрузите референтное аудио длительностью от 3 до 10 секунд, иначе будет ошибка!",
168
+ "请上传参考音频": "Пожалуйста, загрузите эталонное аудио",
169
+ "请填入推理文本": "Пожалуйста, введите целевой текст",
170
+ "请填入正确的List路径": "Пожалуйста, укажите правильный путь к списку",
171
+ "请填入正确的音频文件夹路径": "Пожалуйста, укажите правильный путь к папке с аудио",
172
+ "请输入有效文本": "Введите действительный текст",
173
+ "路径不存在,使用默认配置": "Путь не найден, используется конфигурация по умолчанию",
174
+ "路径不能为空": "Ожидается, что путь не будет пустым",
175
+ "路径错误": "Ошибка пути",
176
+ "转换": "Преобразовать",
177
+ "辅参考音频(可选多个,或不选)": "Дополнительный опорный аудиофайл (несколько файлов по желанию или ни одного)",
178
+ "输入待处理音频文件夹路径": "Путь к папке с аудиофайлами для обработки:",
179
+ "输入文件夹路径": "Введите путь к папке",
180
+ "输入路径不存在": "Путь ввода не существует",
181
+ "输入路径存在但不可用": "Путь ввода существует, но недоступен",
182
+ "输出logs/实验名目录下应有23456开头的文件和文件夹": "В директории logs/имя_эксперимента должны быть файлы и папки, начинающиеся с 23456",
183
+ "输出信息": "Статистика",
184
+ "输出文件夹路径": "Путь к папке для вывода",
185
+ "输出的语音": "Выводимый звук",
186
+ "运行中": " Выполняется",
187
+ "进度": "Прогресс",
188
+ "进程已终止": " Процесс завершён",
189
+ "进程输出信息": " Выходные данные процесса",
190
+ "选择训练完存放在SoVITS_weights和GPT_weights下的模型。默认的一个是底模,体验5秒Zero Shot TTS用。": "Выберите модель, сохраненную в SoVITS_weights и GPT_weights после обучения. По умолчанию используется базовая модель для 5-секундного Zero Shot TTS.",
191
+ "采样步数,如果觉得电,提高试试,如果觉得慢,降低试试": "Количество шагов выборки: если кажется, что шумно, попробуйте увеличить, если кажется, что медленно, попробуйте уменьшить",
192
+ "重复惩罚": "Штраф за повторение",
193
+ "随机种子": "Случайное начальное значение",
194
+ "需先终止才能开启下一次任务": "Сначала необходимо завершить текущую задачу, прежде чем запускать новую",
195
+ "需要合成的切分前文本": "Текст для синтеза до сегментации",
196
+ "需要合成的文本": "Текст для синтеза",
197
+ "需要合成的文本的语种": "Язык текста для синтеза",
198
+ "需要合成的语种": "Язык для синтеза",
199
+ "韩文": "Корейский",
200
+ "韩英混合": "Корейско-английская смесь",
201
+ "音频加载失败": "Не удалось загрузить аудио",
202
+ "音频文件不存在,跳过:": "Аудиофайл не найден, пропускается: ",
203
+ "音频标注WebUI": "WebUI для аннотирования аудиофайлов",
204
+ "音频自动切分输入路径,可文件可文件夹": "Путь ввода для автоматического разделения аудио, может быть файлом или папкой",
205
+ "音频超分中": "Супер-разрешение аудио в процессе",
206
+ "预训练GPT模型路径": "Путь к предобученной модели GPT",
207
+ "预训练SSL模型路径": "Путь к предобученной модели SSL",
208
+ "预训练SoVITS-D模型路径": "Путь к предобученной модели SoVITS-D",
209
+ "预训练SoVITS-G模型路径": "Путь к предобученной модели SoVITS-G",
210
+ "预训练中文BERT模型路径": "Путь к предобученной китайской модели BERT"
211
+ }
tools/i18n/locale/tr_TR.json ADDED
@@ -0,0 +1,211 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ {
2
+ "(1)MDX-Net(onnx_dereverb):对于双通道混响是最好的选择,不能去除单通道混响;": "(1)MDX-Net(onnx_dereverb):İki kanallı yankılar için en iyi seçimdir, ancak tek kanallı yankıları ortadan kaldıramaz;",
3
+ "(234)DeEcho:去除延迟效果。Aggressive比Normal去除得更彻底,DeReverb额外去除混响,可去除单声道混响,但是对高频重的板式混响去不干净。": "(234)DeEcho:Gecikme etkilerini giderir. Aggressive, Normal'dan daha kapsamlı bir şekilde giderir, DeReverb ek olarak yankıyı giderir, tek kanallı yankıyı giderebilir, ancak yüksek frekanslı plaka yankısını tamamen gideremez.",
4
+ "*实验/模型名": "*Deney/model adı",
5
+ "*文本标注文件": "*Metin etiketleme dosyası",
6
+ "*训练集音频文件目录": "*Eğitim seti ses dosyası dizini",
7
+ "*请上传并填写参考信息": "*Lütfen referans bilgilerini yükleyin ve doldurun",
8
+ "*请填写需要合成的目标文本和语种模式": "*Lütfen sentezlenecek hedef metni ve dil modunu giriniz.",
9
+ ".限制范围越小判别效果越好。": "Daha az çok dilli olmak daha iyidir",
10
+ "1-GPT-SoVITS-TTS": "1-GPT-SoVITS-TTS",
11
+ "1、DeEcho-DeReverb模型的耗时是另外2个DeEcho模型的接近2倍;": "1. DeEcho-DeReverb modelinin işleme süresi, diğer iki DeEcho modelinin neredeyse iki katıdır;",
12
+ "1、保留人声:不带和声的音频选这个,对主人声保留比HP5更好。内置HP2和HP3两个模型,HP3可能轻微漏伴奏但对主人声保留比HP2稍微好一丁点;": "1. Ses koruma: Arka vokal içermeyen sesler için bu seçeneği kullanın, ana sesi HP5'ten daha iyi korur. HP2 ve HP3 adlı iki model içerir; HP3, arka vokali biraz kaçırabilir ancak ana sesi HP2'ye göre biraz daha iyi korur;",
13
+ "2-GPT-SoVITS-变声": "2-GPT-SoVITS-Ses Değiştirme",
14
+ "2、MDX-Net-Dereverb模型挺慢的;": "2. MDX-Net-Dereverb modeli oldukça yavaştır;",
15
+ "2、仅保留主人声:带和声的音频选这个,对主人声可能有削弱。内置HP5一个模型;": "2. Sadece ana sesi koruma: Arka vokalleri içeren sesler için bu seçeneği kullanın, ana sesi zayıflatabilir. İçinde HP5 modeli var;",
16
+ "3、个人推荐的最干净的配置是先MDX-Net再DeEcho-Aggressive。": "3. Kişisel olarak en temiz konfigürasyon MDX-Net'in ardından DeEcho-Aggressive'dir.",
17
+ "3、去混响、去延迟模型(by FoxJoy):": "3. Yankı ve gecikme giderme modeli (FoxJoy tarafından):",
18
+ "ASR 模型": "ASR modeli",
19
+ "ASR 模型尺寸": "ASR model boyutu",
20
+ "ASR 语言设置": "ASR dil ayarları",
21
+ "GPT 训练: 模型权重文件在 GPT_weights/": "GPT Eğitimi: Model ağırlık dosyaları GPT_weights/ içinde",
22
+ "GPT模型列表": "GPT model listesi",
23
+ "GPT训练": "GPT Eğitimi",
24
+ "GPT采样参数(无参考文本时不要太低。不懂就用默认):": "GPT örnekleme parametreleri (referans metin olmadığında çok düşük olmamalıdır. Emin değilseniz varsayılanı kullanın):",
25
+ "GPU卡号,只能填1个整数": "GPU kart numarası, sadece bir tamsayı girilebilir",
26
+ "GPU卡号以-分割,每个卡号一个进程": "GPU kart numaraları - ile ayrılır, her kart numarası için bir işlem",
27
+ "LoRA秩": "LoRA Derecesi",
28
+ "SoVITS V3 底模缺失,无法加载相应 LoRA 权重": "SoVITS V3 temel modeli eksik, ilgili LoRA ağırlıkları yüklenemiyor",
29
+ "SoVITS 训练: 模型权重文件在 SoVITS_weights/": "SoVITS Eğitimi: Model ağırlık dosyaları SoVITS_weights/ içinde",
30
+ "SoVITS模型列表": "SoVITS model listesi",
31
+ "SoVITS训练": "SoVITS Eğitimi",
32
+ "TTS推理WebUI": "TTS Çıkarım WebUI",
33
+ "UVR5人声伴奏分离&去混响去延迟工具": "UVR5 İnsan Sesli ve Enstrümantal Ayrım & Reverb ve Gecikme Giderme Aracı",
34
+ "alpha_mix:混多少比例归一化后音频进来": "alpha_mix:Normalizasyondan sonraki sesin ne kadarlık bir oranı karıştırılsın",
35
+ "batch_size": "Toplu Boyut",
36
+ "hop_size:怎么算音量曲线,越小精度越大计算量越高(不是精度越大效果越好)": "hop_size:Ses seviyesi eğrisi nasıl hesaplanır, ne kadar küçükse hassasiyet o kadar yüksek ve hesaplama yükü o kadar artar (hassasiyet arttıkça etki mutlaka daha iyi olmaz)",
37
+ "max:归一化后最大值多少": "max:Normalizasyondan sonra maksimum değer ne kadar",
38
+ "max_sil_kept:切完后静音最多留多长": "max_sil_kept:Kesimden sonra en fazla ne kadar sessizlik bırakılır",
39
+ "min_interval:最短切割间隔": "min_interval:Minimum kesim aralığı",
40
+ "min_length:每段最小多长,如果第一段太短一直和后面段连起来直到超过这个值": "min_length: bölümün minimum uzunluğu, ilk bölüm çok kısa ise, bu değeri aşana kadar sonraki bölümlerle birleştirilir",
41
+ "temperature": "temperature",
42
+ "threshold:音量小于这个值视作静音的备选切割点": "threshold:Ses bu değerden düşükse sessiz olarak kabul edilen alternatif kesim noktası",
43
+ "top_k": "top_k",
44
+ "top_p": "top_p",
45
+ "v3暂不支持该模式,使用了会报错。": "v3 bu modu desteklemiyor, kullanıldığında hata verecektir.",
46
+ "v3输出如果觉得闷可以试试开超分": "v3 çıkışı eğer sıkıcıysa, süper çözünürlük açmayı deneyebilirsiniz",
47
+ "不切": "Kesme",
48
+ "中文": "Çince",
49
+ "中文教程文档": "Çince Eğitim Belgesi",
50
+ "中英混合": "Çince ve İngilizce karışık",
51
+ "主参考音频(请上传3~10秒内参考音频,超过会报错!)": "Ana Referans Sesi (Lütfen 3-10 saniye arasında referans sesi yükleyin, bu sınırı aşarsanız hata alırsınız!)",
52
+ "主参考音频的文本": "Ana Referans Sesinin Metni",
53
+ "主参考音频的语种": "Ana Referans Sesinin Dili",
54
+ "也可批量输入音频文件, 二选一, 优先读文件夹": "Ses dosyaları ayrıca toplu olarak, iki seçimle, öncelikli okuma klasörüyle içe aktarılabilir",
55
+ "人声伴奏分离批量处理, 使用UVR5模型。": "Vokal ve akor ayırma toplu işleme, UVR5 modelini kullanarak.",
56
+ "人声分离WebUI": "İnsan Sesi Ayrım WebUI",
57
+ "人声提取激进程度": "Vokal çıkarma agresiflik derecesi",
58
+ "以下文件或文件夹不存在": "Böyle Bir Dosya veya Klasör Yok",
59
+ "以下模型不存在:": "Böyle bir model yok:",
60
+ "伴奏人声分离&去混响&去回声": "Vokal/Müzik Ayrıştırma ve Yankı Giderme",
61
+ "你没有下载超分模型的参数,因此不进行超分。如想超分请先参照教程把文件下载好": "Süper çözünürlük model parametrelerini indirmediniz, bu yüzden süper çözünürlük yapılmaz. Süper çözünürlük yapmak için önce kılavuzu takip ederek dosyaları indirin.",
62
+ "使用无参考文本模式时建议使用微调的GPT": "Referans metinsiz modda, ince ayar yapılmış GPT kullanmanız tavsiye edilir.",
63
+ "保存频率save_every_epoch": "Kayıt sıklığı save_every_epoch",
64
+ "保持随机": "Rastgeleliği Koru",
65
+ "关闭": "Kapat ",
66
+ "凑50字一切": "50 kelime birleştir ve kes",
67
+ "凑四句一切": "Dört cümleyi bir araya getirip kes",
68
+ "分桶处理模式已关闭": "Kovaya İşleme Modu Kapalı",
69
+ "分桶处理模式已开启": "Kovaya İşleme Modu Etkin",
70
+ "分段返回模式不支持分桶处理,已自动关闭分桶处理": "Bölümlü Dönüş Modu Kovaya İşlemeyi Desteklemediği İçin Kovaya İşleme Otomatik Olarak Kapatılmıştır",
71
+ "分段返回模式已开启": "Bölümlü Dönüş Modu Etkin",
72
+ "分段间隔(秒)": "Bölüm Aralığı (Saniye)",
73
+ "分段间隔过小,已自动设置为0.01": "Bölüm Aralığı Çok Kısa, Otomatik Olarak 0.01 Olarak Ayarlanmıştır",
74
+ "切分": "Bölümleme",
75
+ "切分后文本": "Bölümlenmiş Metin",
76
+ "切分后的子音频的输出根目录": "Bölündükten sonra alt ses dosyalarının çıktı kök dizini",
77
+ "切分文本": "Metni Bölümle",
78
+ "切割使用的进程数": "Kesim için kullanılan işlem sayısı",
79
+ "刷新模型路径": "Model yolu yenile",
80
+ "前端处理后的文本(每句):": "Ön işleme tabi tutulan metin (her cümle):",
81
+ "前置数据集获取工具": "Ön Veri Kümesi Alma Aracı",
82
+ "占用中": " Kullanımda",
83
+ "去混响/去延迟,附:": "Yankı giderme/Geçikme giderme, ek:",
84
+ "参考音频在3~10秒范围外,请更换!": "Referans ses dosyası 3~10 saniye aralığının dışında, lütfen değiştirin!",
85
+ "参考音频的文本": "Referans ses dosyasının metni",
86
+ "参考音频的语种": "Referans ses dosyasının dili",
87
+ "句间停顿秒数": "Cümleler Arası Duraklama Süresi",
88
+ "可选项:通过拖拽多个文件上传多个参考音频(建议同性),平均融合他们的音色。如不填写此项,音色由左侧单个参考音频控制。如是微调模型,建议参考音频全部在微调训练集音色内,底模不用管。": "İsteğe bağlı: Birden fazla referans ses dosyasını sürükleyip bırakarak yükleyin (aynı cinsiyetten olmaları önerilir) ve tonlarını ortalayın. Bu seçenek boş bırakılırsa, ton soldaki tek referans ses dosyası tarafından kontrol edilir. Modeli ince ayar yapıyorsanız, tüm referans ses dosyalarının ince ayar eğitim seti içindeki tonlara sahip olması önerilir; önceden eğitilmiş model dikkate alınmayabilir.",
89
+ "合成语音": "Ses sentezi",
90
+ "合格的文件夹路径格式举例: E:\\codes\\py39\\vits_vc_gpu\\白鹭霜华测试样例(去文件管理器地址栏拷就行了)。": "Geçerli klasör yolu formatı örneği: E:\\codes\\py39\\vits_vc_gpu\\白鹭霜华测试样例 (dosya yöneticisi adres çubuğundan kopyalayabilirsiniz).",
91
+ "后续将支持转音素、手工修改音素、语音合成分步执行。": "Sonraki sürümlerde fonem dönüşümü, el ile fonem düzenleme ve adım adım konuşma sentezi desteği eklenecek.",
92
+ "听不清参考音频说的啥(不晓得写啥)可以开。开启后无视填写的参考文本。": "Referans ses kaydını anlamıyorsanız (ne yazacağınızı bilmiyorsanız) açabilirsiniz. Açıldığında yazılmış olan referans metni göz ardı edilir.",
93
+ "启用并行推理版本": "Paralel Çıkarım Versiyonunu Etkinleştir",
94
+ "填切割后音频所在目录!读取的音频文件完整路径=该目录-拼接-list文件里波形对应的文件名(不是全路径)。如果留空则使用.list文件里的绝对全路径。": "Kesmeye uygun ses dosyalarının bulunduğu dizini doldurun! Okunan ses dosyasının tam yolu = bu dizin + list dosyasındaki dalga biçimiyle eşleşen dosya adı (tam yol değil). Boş bırakılırsa, .list dosyasındaki tam yol kullanılır.",
95
+ "多语种混合": "Çok dilli karışım",
96
+ "多语种混合(粤语)": "Çok dilli karışık (Yue)",
97
+ "失败": " Başarısız",
98
+ "如不认可该条款, 则不能使用或引用软件包内任何代码和文件. 详见根目录LICENSE.": "Bu şartları kabul etmiyorsanız, yazılım paketindeki herhangi bir kodu veya dosyayı kullanamaz veya alıntılayamazsınız. Detaylar için ana dizindeki LICENSE dosyasına bakın.",
99
+ "实际输入的参考文本:": "Gerçekten girilen referans metin:",
100
+ "实际输入的目标文本(切句后):": "Gerçekten girilen hedef metin (cümleler kesildikten sonra):",
101
+ "实际输入的目标文本(每句):": "Gerçekten girilen hedef metin (her cümle):",
102
+ "实际输入的目标文本:": "Gerçekten girilen hedef metin:",
103
+ "导出文件格式": "Dışa aktarma dosya formatı",
104
+ "已关闭": " Kapalı",
105
+ "已完成": " Tamamlandı",
106
+ "已开启": " Açık",
107
+ "并行推理": "Paralel Çıkarım",
108
+ "并行推理模式已关闭": "Paralel Çıkarım Modu Kapalı",
109
+ "并行推理模式已开启": "Paralel Çıkarım Modu Etkin",
110
+ "开启": "Aç ",
111
+ "开启无参考文本模式。不填参考文本亦相当于开启。": "Referans metni olmayan mod açık. Referans metni doldurulmazsa bu mod otomatik olarak açılır.",
112
+ "微调训练": "İnce Ayar Eğitimi",
113
+ "怎么切": "Nasıl kesilir",
114
+ "总训练轮数total_epoch": "Toplam eğitim turu sayısı total_epoch",
115
+ "总训练轮数total_epoch,不建议太高": "Toplam eğitim turu sayısı total_epoch, çok yüksek önerilmez",
116
+ "指定输出主人声文件夹": "Vokal için çıkış klasörünü belirtin:",
117
+ "指定输出非主人声文件夹": "Müzik ve diğer sesler için çıkış klasörünü belirtin:",
118
+ "按中文句号。切": "Çince dönem işaretine göre kes",
119
+ "按标点符号切": "Noktalama işaretlerine göre kes",
120
+ "按英文句号.切": "İngilizce nokta işaretine göre kes",
121
+ "推理": "Çıkarım",
122
+ "推理设置": "Çıkarım Ayarları",
123
+ "提取文本Bert特征": "Metin BERT Özelliklerini Çıkar",
124
+ "数据分桶(并行推理时会降低一点计算量)": "Veri Kovaya Ayrılması (Paralel Çıkarımda Hesaplama Maliyetini Azaltır)",
125
+ "数据类型精度": "veri türü doğruluğu",
126
+ "文本分词与特征提取": "Metin Kelimelemeleri ve Özellik Çıkartma",
127
+ "文本切分工具。太长的文本合成出来效果不一定好,所以太长建议先切。合成会根据文本的换行分开合成再拼起来。": "Metin Bölümleme Aracı. Çok uzun metinlerin sentez sonuçları iyi olmayabilir, bu nedenle uzun metinleri önce bölümlere ayırmanız önerilir. Sentez, metnin satır sonlarına göre ayrı ayrı yapılıp sonra birleştirilecektir.",
128
+ "文本模块学习率权重": "Metin modülü öğrenme oranı ağırlığı",
129
+ "施工中,请静候佳音": "Yapım aşamasında, lütfen iyi haberler için bekleyin",
130
+ "日文": "Japonca",
131
+ "日英混合": "Japonca ve İngilizce karışımı",
132
+ "是否仅保存最新的权重文件以节省硬盘空间": "Sadece en son ağırlık dosyasını kaydedip sabit disk alanı tasarrufu sağlamak isterseniz",
133
+ "是否在每次保存时间点将最终小模型保存至weights文件夹": "Her kayıt zamanında son küçük modelin weights klasörüne kaydedilmesi gerekiyor mu",
134
+ "是否开启DPO训练选项(实验性)": "DPO Eğitim Seçeneğini Açmak (Deneysel)",
135
+ "是否直接对上次合成结果调整语速和音色。防止随机性。": "Rastgeleliği önlemek için son sentez sonucunun konuşma hızını ve tonunu ayarlayın.",
136
+ "显卡信息": "Ekran kartı bilgisi",
137
+ "未下载模型": "Model İndirilmedi",
138
+ "本软件以MIT协议开源, 作者不对软件具备任何控制力, 使用软件者、传播软件导出的声音者自负全责.": "Bu yazılım MIT lisansı ile açık kaynak olarak sunulmuştur, yazar yazılım üzerinde herhangi bir kontrol sahibi değildir, yazılımı kullanan veya yazılımın çıktısını dağıtan kişiler tüm sorumluluğu üstlenir.",
139
+ "标注文件路径 (含文件后缀 *.list)": "Etiketleme Dosyası Yolu (dosya uzantısı *.list dahil)",
140
+ "模型": "Model",
141
+ "模型分为三类:": "Modeller üç türdedir:",
142
+ "模型切换": "Model değiştirme",
143
+ "每张显卡的batch_size": "Her bir ekran kartı için batch_size",
144
+ "版本": "Versiyon",
145
+ "粤英混合": "Yue-İngilizce Karışık",
146
+ "粤语": "Yue",
147
+ "终止合成": "Sentezi Sonlandır",
148
+ "缺少Hubert数据集": "Hubert Veri Seti Eksik",
149
+ "缺少语义数据集": "Anlamsal Veri Seti Eksik",
150
+ "缺少音素数据集": "Fonem Veri Seti Eksik",
151
+ "缺少音频数据集": "Ses Veri Seti Eksik",
152
+ "英文": "İngilizce",
153
+ "训练集格式化一键三连": "Eğitim Seti Formatlama Tek Tıkla Üçlü",
154
+ "训练集格式化工具": "Eğitim Seti Formatlama Aracı",
155
+ "语义Token提取": "Anlamlı Token Çıkartma",
156
+ "语速": "Konuşma hızı",
157
+ "语速调整,高为更快": "Konuşma hızını ayarla, yüksek daha hızlı",
158
+ "语速调节不支持分桶处理,已自动关闭分桶处理": "Konuşma Hızı Ayarlaması Kovaya İşlemeyi Desteklemediği İçin Kovaya İşleme Otomatik Olarak Kapatılmıştır",
159
+ "语音切分": "Ses Bölme",
160
+ "语音切分工具": "Ses Bölme Aracı",
161
+ "语音文本校对标注工具": "Ses Metni Düzeltme Etiketleme Aracı",
162
+ "语音自监督特征提取": "Ses Kendiliğinden Denetimli Özellik Çıkartma",
163
+ "语音识别": "Ses Tanıma",
164
+ "语音识别工具": "Ses Tanıma Aracı",
165
+ "语音降噪": "Ses Gürültü Azaltma",
166
+ "语音降噪工具": "Ses Gürültü Azaltma Aracı",
167
+ "请上传3~10秒内参考音频,超过会报错!": "Lütfen 3~10 saniye arasında bir referans ses dosyası yükleyin, aşım durumunda hata verilecektir!",
168
+ "请上传参考音频": "Lütfen Referans Sesi Yükleyin",
169
+ "请填入推理文本": "Lütfen Hedef Metni Girin",
170
+ "请填入正确的List路径": "Lütfen Doğru Liste Yolunu Girin",
171
+ "请填入正确的音频文件夹路径": "Lütfen Doğru Ses Klasörü Yolunu Girin",
172
+ "请输入有效文本": "Geçerli metin girin",
173
+ "路径不存在,使用默认配置": "Yol Bulunamadı, Varsayılan Yapılandırma Kullanılıyor",
174
+ "路径不能为空": "Boş Yol Beklenmiyor",
175
+ "路径错误": "Yol Hatası",
176
+ "转换": "Dönüştür",
177
+ "辅参考音频(可选多个,或不选)": "Yardımcı Referans Sesi (İsteğe bağlı birden çok seçilebilir veya hiç seçilmeyebilir)",
178
+ "输入待处理音频文件夹路径": "İşlenecek ses klasörünün yolunu girin:",
179
+ "输入文件夹路径": "Dosya klasörü yolu girin",
180
+ "输入路径不存在": "Girdi Yolu Mevcut Değil",
181
+ "输入路径存在但不可用": "Girdi Yolu Mevcut Ama Kullanılamaz",
182
+ "输出logs/实验名目录下应有23456开头的文件和文件夹": "Çıktı logs/deney adı dizininde 23456 ile başlayan dosya ve klasörler olmalı",
183
+ "输出信息": "Çıkış bilgisi",
184
+ "输出文件夹路径": "Çıktı klasörü yolu",
185
+ "输出的语音": "Çıktı sesi",
186
+ "运行中": " Çalışıyor",
187
+ "进度": "İlerleme",
188
+ "进程已终止": " İşlem Sonlandırıldı",
189
+ "进程输出信息": " İşlem Çıktı Bilgisi",
190
+ "选择训练完存放在SoVITS_weights和GPT_weights下的模型。默认的一个是底模,体验5秒Zero Shot TTS用。": "Eğitimi tamamlanmış ve SoVITS_weights ile GPT_weights altına kaydedilmiş modeli seçin. Varsayılan bir temel modeldir, 5 saniyelik Zero Shot TTS deneyimi için kullanılır.",
191
+ "采样步数,如果觉得电,提高试试,如果觉得慢,降低试试": "Örnekleme Adımları: Eğer gürültülü görünüyorsa, adımları artırın; eğer yavaş görünüyorsa, adımları azaltın",
192
+ "重复惩罚": "Tekrarlama Cezası",
193
+ "随机种子": "Rastgele Tohum",
194
+ "需先终止才能开启下一次任务": "Bir sonraki görevi başlatmadan önce mevcut işlem sonlandırılmalıdır",
195
+ "需要合成的切分前文本": "Sentez İçin Bölümlenmemiş Metin",
196
+ "需要合成的文本": "Sentezlenmesi gereken metin",
197
+ "需要合成的文本的语种": "Sentez Metninin Dili",
198
+ "需要合成的语种": "Sentezlenmesi gereken dil",
199
+ "韩文": "Korece",
200
+ "韩英混合": "Korece-İngilizce Karışık",
201
+ "音频加载失败": "Ses Yüklenemedi",
202
+ "音频文件不存在,跳过:": "Ses Dosyası Bulunamadı, Atlanıyor: ",
203
+ "音频标注WebUI": "Ses Etiketleme WebUI",
204
+ "音频自动切分输入路径,可文件可文件夹": "Ses otomatik bölme giriş yolu, dosya veya klasör olabilir",
205
+ "音频超分中": "Ses Süper Çözünürlük Yapılıyor",
206
+ "预训练GPT模型路径": "Önceden Eğitilmiş GPT Modeli Yolu",
207
+ "预训练SSL模型路径": "Önceden Eğitilmiş SSL Modeli Yolu",
208
+ "预训练SoVITS-D模型路径": "Önceden Eğitilmiş SoVITS-D Modeli Yolu",
209
+ "预训练SoVITS-G模型路径": "Önceden Eğitilmiş SoVITS-G Modeli Yolu",
210
+ "预训练中文BERT模型路径": "Önceden Eğitilmiş Çince BERT Modeli Yolu"
211
+ }
tools/i18n/locale/zh_CN.json ADDED
@@ -0,0 +1,211 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ {
2
+ "(1)MDX-Net(onnx_dereverb):对于双通道混响是最好的选择,不能去除单通道混响;": "(1)MDX-Net(onnx_dereverb):对于双通道混响是最好的选择,不能去除单通道混响;",
3
+ "(234)DeEcho:去除延迟效果。Aggressive比Normal去除得更彻底,DeReverb额外去除混响,可去除单声道混响,但是对高频重的板式混响去不干净。": "(234)DeEcho:去除延迟效果。Aggressive 比 Normal 去除得更彻底,DeReverb 额外去除混响,可去除单声道混响,但是对高频重的板式混响去不干净。",
4
+ "*实验/模型名": "*实验/模型名",
5
+ "*文本标注文件": "*文本标注文件",
6
+ "*训练集音频文件目录": "*训练集音频文件目录",
7
+ "*请上传并填写参考信息": "*请上传并填写参考信息",
8
+ "*请填写需要合成的目标文本和语种模式": "*请填写需要合成的目标文本和语种模式",
9
+ ".限制范围越小判别效果越好。": ".限制范围越小判别效果越好。",
10
+ "1-GPT-SoVITS-TTS": "1-GPT-SoVITS-TTS",
11
+ "1、DeEcho-DeReverb模型的耗时是另外2个DeEcho模型的接近2倍;": "1、DeEcho-DeReverb模型的耗时是另外2个DeEcho模型的接近2倍;",
12
+ "1、保留人声:不带和声的音频选这个,对主人声保留比HP5更好。内置HP2和HP3两个模型,HP3可能轻微漏伴奏但对主人声保留比HP2稍微好一丁点;": "1、保留人声:不带和声的音频选这个,对主人声保留比HP5更好。内置HP2和HP3两个模型,HP3可能轻微漏伴奏但对主人声保留比HP2稍微好一丁点;",
13
+ "2-GPT-SoVITS-变声": "2-GPT-SoVITS-变声",
14
+ "2、MDX-Net-Dereverb模型挺慢的;": "2、MDX-Net-Dereverb模型挺慢的;",
15
+ "2、仅保留主人声:带和声的音频选这个,对主人声可能有削弱。内置HP5一个模型;": "2、仅保留主人声:带和声的音频选这个,对主人声可能有削弱。内置HP5一个模型;",
16
+ "3、个人推荐的最干净的配置是先MDX-Net再DeEcho-Aggressive。": "3、个人推荐的最干净的配置是先MDX-Net再DeEcho-Aggressive。",
17
+ "3、去混响、去延迟模型(by FoxJoy):": "3、去混响、去延迟模型(by FoxJoy):",
18
+ "ASR 模型": "ASR 模型",
19
+ "ASR 模型尺寸": "ASR 模型尺寸",
20
+ "ASR 语言设置": "ASR 语言设置",
21
+ "GPT 训练: 模型权重文件在 GPT_weights/": "GPT 训练: 模型权重文件在 GPT_weights/",
22
+ "GPT模型列表": "GPT模型列表",
23
+ "GPT训练": "GPT训练",
24
+ "GPT采样参数(无参考文本时不要太低。不懂就用默认):": "GPT采样参数(无参考文本时不要太低。不懂就用默认):",
25
+ "GPU卡号,只能填1个整数": "GPU卡号,只能填1个整数",
26
+ "GPU卡号以-分割,每个卡号一个进程": "GPU卡号以-分割,每个卡号一个进程",
27
+ "LoRA秩": "LoRA秩",
28
+ "SoVITS V3 底模缺失,无法加载相应 LoRA 权重": "SoVITS V3 底模缺失,无法加载相应 LoRA 权重",
29
+ "SoVITS 训练: 模型权重文件在 SoVITS_weights/": "SoVITS 训练: 模型权重文件在 SoVITS_weights/",
30
+ "SoVITS模型列表": "SoVITS模型列表",
31
+ "SoVITS训练": "SoVITS训练",
32
+ "TTS推理WebUI": "TTS推理WebUI",
33
+ "UVR5人声伴奏分离&去混响去延迟工具": "UVR5人声伴奏分离&去混响去延迟工具",
34
+ "alpha_mix:混多少比例归一化后音频进来": "alpha_mix:混多少比例归一化后音频进来",
35
+ "batch_size": "batch_size",
36
+ "hop_size:怎么算音量曲线,越小精度越大计算量越高(不是精度越大效果越好)": "hop_size:怎么算音量曲线,越小精度越大计算量越高(不是精度越大效果越好)",
37
+ "max:归一化后最大值多少": "max:归一化后最大值多少",
38
+ "max_sil_kept:切完后静音最多留多长": "max_sil_kept:切完后静音最多留多长",
39
+ "min_interval:最短切割间隔": "min_interval:最短切割间隔",
40
+ "min_length:每段最小多长,如果第一段太短一直和后面段连起来直到超过这个值": "min_length:每段最小多长,如果第一段太短一直和后面段连起来直到超过这个值",
41
+ "temperature": "temperature",
42
+ "threshold:音量小于这个值视作静音的备选切割点": "threshold:音量小于这个值视作静音的备选切割点",
43
+ "top_k": "top_k",
44
+ "top_p": "top_p",
45
+ "v3暂不支持该模式,使用了会报错。": "v3暂不支持该模式,使用了会报错。",
46
+ "v3输出如果觉得闷可以试试开超分": "v3输出如果觉得闷可以试试开超分",
47
+ "不切": "不切",
48
+ "中文": "中文",
49
+ "中文教程文档": "中文教程文档",
50
+ "中英混合": "中英混合",
51
+ "主参考音频(请上传3~10秒内参考音频,超过会报错!)": "主参考音频(请上传3~10秒内参考音频,超过会报错!)",
52
+ "主参考音频的文本": "主参考音频的文本",
53
+ "主参考音频的语种": "主参考音频的语种",
54
+ "也可批量输入音频文件, ���选一, 优先读文件夹": "也可批量输入音频文件, 二选一, 优先读文件夹",
55
+ "人声伴奏分离批量处理, 使用UVR5模型。": "人声伴奏分离批量处理, 使用UVR5模型。",
56
+ "人声分离WebUI": "人声分离WebUI",
57
+ "人声提取激进程度": "人声提取激进程度",
58
+ "以下文件或文件夹不存在": "以下文件或文件夹不存在",
59
+ "以下模型不存在:": "以下模型不存在:",
60
+ "伴奏人声分离&去混响&去回声": "伴奏人声分离&去混响&去回声",
61
+ "你没有下载超分模型的参数,因此不进行超分。如想超分请先参照教程把文件下载好": "你没有下载超分模型的参数,因此不进行超分。如想超分请先参照教程把文件下载好",
62
+ "使用无参考文本模式时建议使用微调的GPT": "使用无参考文本模式时建议使用微调的GPT",
63
+ "保存频率save_every_epoch": "保存频率save_every_epoch",
64
+ "保持随机": "保持随机",
65
+ "关闭": "关闭",
66
+ "凑50字一切": "凑50字一切",
67
+ "凑四句一切": "凑四句一切",
68
+ "分桶处理模式已关闭": "分桶处理模式已关闭",
69
+ "分桶处理模式已开启": "分桶处理模式已开启",
70
+ "分段返回模式不支持分桶处理,已自动关闭分桶处理": "分段返回模式不支持分桶处理,已自动关闭分桶处理",
71
+ "分段返回模式已开启": "分段返回模式已开启",
72
+ "分段间隔(秒)": "分段间隔(秒)",
73
+ "分段间隔过小,已自动设置为0.01": "分段间隔过小,已自动设置为0.01",
74
+ "切分": "切分",
75
+ "切分后文本": "切分后文本",
76
+ "切分后的子音频的输出根目录": "切分后的子音频的输出根目录",
77
+ "切分文本": "切分文本",
78
+ "切割使用的进程数": "切割使用的进程数",
79
+ "刷新模型路径": "刷新模型路径",
80
+ "前端处理后的文本(每句):": "前端处理后的文本(每句):",
81
+ "前置数据集获取工具": "前置数据集获取工具",
82
+ "占用中": "占用中",
83
+ "去混响/去延迟,附:": "去混响/去延迟,附:",
84
+ "参考音频在3~10秒范围外,请更换!": "参考音频在3~10秒范围外,请更换!",
85
+ "参考音频的文本": "参考音频的文本",
86
+ "参考音频的语种": "参考音频的语种",
87
+ "句间停顿秒数": "句间停顿秒数",
88
+ "可选项:通过拖拽多个文件上传多个参考音频(建议同性),平均融合他们的音色。如不填写此项,音色由左侧单个参考音频控制。如是微调模型,建议参考音频全部在微调训练集音色内,底模不用管。": "可选项:通过拖拽多个文件上传多个参考音频(建议同性),平均融合他们的音色。如不填写此项,音色由左侧单个参考音频控制。如是微调模型,建议参考音频全部在微调训练集音色内,底模不用管。",
89
+ "合成语音": "合成语音",
90
+ "合格的文件夹路径格式举例: E:\\codes\\py39\\vits_vc_gpu\\白鹭霜华测试样例(去文件管理器地址栏拷就行了)。": "合格的文件夹路径格式举例: E:\\codes\\py39\\vits_vc_gpu\\白鹭霜华测试样例(去文件管理器地址栏拷就行了)。",
91
+ "后续将支持转音素、手工修改音素、语音合成分步执行。": "后续将支持转音素、手工修改音素、语音合成分步执行。",
92
+ "听不清参考音频说的啥(不晓得写啥)可以开。开启后无视填写的参考文本。": "听不清参考音频说的啥(不晓得写啥)可以开。开启后无视填写的参考文本。",
93
+ "启用并行推理版本": "启用并行推理版本",
94
+ "填切割后音频所在目录!读取的音频文件完整路径=该目录-拼接-list文件里波形对应的文件名(不是全路径)。如果留空则使用.list文件里的绝对全路径。": "填切割后音频所在目录!读取的音频文件完整路径=该目录-拼接-list文件里波形对应的文件名(不是全路径)。如果留空则使用.list文件里的绝对全路径。",
95
+ "多语种混合": "多语种混合",
96
+ "多语种混合(粤语)": "多语种混合(粤语)",
97
+ "失败": "失败",
98
+ "如不认可该条款, 则不能使用或引用软件包内任何代码和文件. 详见根目录LICENSE.": "如不认可该条款, 则不能使用或引用软件包内任何代码和文件. 详见根目录LICENSE.",
99
+ "实际输入的参考文本:": "实际输入的参考文本:",
100
+ "实际输入的目标文本(切句后):": "实际输入的目标文本(切句后):",
101
+ "实际输入的目标文本(每句):": "实际输入的目标文本(每句):",
102
+ "实际输入的目标文本:": "实际输入的目标文本:",
103
+ "导出文件格式": "导出文件格式",
104
+ "已关闭": "已关闭",
105
+ "已完成": "已完成",
106
+ "已开启": "已开启",
107
+ "并行推理": "并行推理",
108
+ "并行推理模式已关闭": "并行推理模式已关闭",
109
+ "并行推理模式已开启": "并行推理模式���开启",
110
+ "开启": "开启",
111
+ "开启无参考文本模式。不填参考文本亦相当于开启。": "开启无参考文本模式。不填参考文本亦相当于开启。",
112
+ "微调训练": "微调训练",
113
+ "怎么切": "怎么切",
114
+ "总训练轮数total_epoch": "总训练轮数total_epoch",
115
+ "总训练轮数total_epoch,不建议太高": "总训练轮数total_epoch,不建议太高",
116
+ "指定输出主人声文件夹": "指定输出主人声文件夹",
117
+ "指定输出非主人声文件夹": "指定输出非主人声文件夹",
118
+ "按中文句号。切": "按中文句号。切",
119
+ "按标点符号切": "按标点符号切",
120
+ "按英文句号.切": "按英文句号.切",
121
+ "推理": "推理",
122
+ "推理设置": "推理设置",
123
+ "提取文本Bert特征": "提取文本Bert特征",
124
+ "数据分桶(并行推理时会降低一点计算量)": "数据分桶(并行推理时会降低一点计算量)",
125
+ "数据类型精度": "数据类型精度",
126
+ "文本分词与特征提取": "文本分词与特征提取",
127
+ "文本切分工具。太长的文本合成出来效果不一定好,所以太长建议先切。合成会根据文本的换行分开合成再拼起来。": "文本切分工具。太长的文本合成出来效果不一定好,所以太长建议先切。合成会根据文本的换行分开合成再拼起来。",
128
+ "文本模块学习率权重": "文本模块学习率权重",
129
+ "施工中,请静候佳音": "施工中,请静候佳音",
130
+ "日文": "日文",
131
+ "日英混合": "日英混合",
132
+ "是否仅保存最新的权重文件以节省硬盘空间": "是否仅保存最新的权重文件以节省硬盘空间",
133
+ "是否在每次保存时间点将最终小模型保存至weights文件夹": "是否在每次保存时间点将最终小模型保存至weights文件夹",
134
+ "是否开启DPO训练选项(实验性)": "是否开启DPO训练选项(实验性)",
135
+ "是否直接对上次合成结果调整语速和音色。防止随机性。": "是否直接对上次合成结果调整语速和音色。防止随机性。",
136
+ "显卡信息": "显卡信息",
137
+ "未下载模型": "未下载模型",
138
+ "本软件以MIT协议开源, 作者不对软件具备任何控制力, 使用软件者、传播软件导出的声音者自负全责.": "本软件以MIT协议开源, 作者不对软件具备任何控制力, 使用软件者、传播软件导出的声音者自负全责.",
139
+ "标注文件路径 (含文件后缀 *.list)": "标注文件路径 (含文件后缀 *.list)",
140
+ "模型": "模型",
141
+ "模型分为三类:": "模型分为三类:",
142
+ "模型切换": "模型切换",
143
+ "每张显卡的batch_size": "每张显卡的batch_size",
144
+ "版本": "版本",
145
+ "粤英混合": "粤英混合",
146
+ "粤语": "粤语",
147
+ "终止合成": "终止合成",
148
+ "缺少Hubert数据集": "缺少Hubert数据集",
149
+ "缺少语义数据集": "缺少语义数据集",
150
+ "缺少音素数据集": "缺少音素数据集",
151
+ "缺少音频数据集": "缺少音频数据集",
152
+ "英文": "英文",
153
+ "训练集格式化一键三连": "训练集格式化一键三连",
154
+ "训练集格式化工具": "训练集格式化工具",
155
+ "语义Token提取": "语义Token提取",
156
+ "语速": "语速",
157
+ "语速调整,高为更快": "语速调整,高为更快",
158
+ "语速调节不支持分桶处理,已自动关闭分桶处理": "语速调节不支持分桶处理,已自动关闭分桶处理",
159
+ "语音切分": "语音切分",
160
+ "语音切分工具": "语音切分工具",
161
+ "语音文本校对标注工具": "语音文本校对标注工具",
162
+ "语音自监督特征提取": "语音自监督特征提取",
163
+ "语音识别": "语音识别",
164
+ "语音识别工具": "语音识别工具",
165
+ "语音降噪": "语音降噪",
166
+ "语音降噪工具": "语音降噪工具",
167
+ "请上传3~10秒内参考音频,超过会报错!": "请上传3~10秒内参考音频,超过会报错!",
168
+ "请上传参考音频": "请上传参考音频",
169
+ "请填入推理文本": "请填入推理文本",
170
+ "请填入正确的List路径": "请填入正确的List路径",
171
+ "请填入正确的音频文件夹路径": "请填入正确的音频文件夹路径",
172
+ "请输入有效文本": "请输入有效文本",
173
+ "路径不存在,使用默认配置": "路径不存在,使用默认配置",
174
+ "路径不能为空": "路径不能为空",
175
+ "路径错误": "路径错误",
176
+ "转换": "转换",
177
+ "辅参考音频(可选多个,或不选)": "辅参考音频(可选多个,或不选)",
178
+ "输入待处理音频文件夹路径": "输入待处理音频文件夹路径",
179
+ "输入文件夹路径": "输入文件夹路径",
180
+ "输入路径不存在": "输入路径不存在",
181
+ "输入路径存在但不可用": "输入路径存在但不可用",
182
+ "输出logs/实验名目录下应有23456开头的文件和文件夹": "输出logs/实验名目录下应有23456开头的文件和文件夹",
183
+ "输出信息": "输出信息",
184
+ "输出文件夹路径": "输出文件夹路径",
185
+ "输出的语音": "输出的语音",
186
+ "运行中": "运行中",
187
+ "进度": "进度",
188
+ "进程已终止": "进程已终止",
189
+ "进程输出信息": "进程输出信息",
190
+ "选择训练完存放在SoVITS_weights和GPT_weights下的模型。默认的一个是底模,体验5秒Zero Shot TTS用。": "选择训练完存放在SoVITS_weights和GPT_weights下的模型。默认的一个是底模,体验5秒Zero Shot TTS用。",
191
+ "采样步数,如果觉得电,提高试试,如果觉得慢,降低试试": "采样步数,如果觉得电,提高试试,如果觉得慢,降低试试",
192
+ "重复惩罚": "重复惩罚",
193
+ "随机种子": "随机种子",
194
+ "需先终止才能开启下一次任务": "需先终止才能开启下一次任务",
195
+ "需要合成的切分前文本": "需要合成的切分前文本",
196
+ "需要合成的文本": "需要合成的文本",
197
+ "需要合成的文本的语种": "需要合成的文本的语种",
198
+ "需要合成的语种": "需要合成的语种",
199
+ "韩文": "韩文",
200
+ "韩英混合": "韩英混合",
201
+ "音频加载失败": "音频加载失败",
202
+ "音频文件不存在,跳过:": "音频文件不存在,跳过:",
203
+ "音频标注WebUI": "音频标注WebUI",
204
+ "音频自动切分输入路径,可文件可文件夹": "音频自动切分输入路径,可文件可文件夹",
205
+ "音频超分中": "音频超分中",
206
+ "预训练GPT模型路径": "预训练GPT模型路径",
207
+ "预训练SSL模型路径": "预训练SSL模型路径",
208
+ "预训练SoVITS-D模型路径": "预训练SoVITS-D模型路径",
209
+ "预训练SoVITS-G模型路径": "预训练SoVITS-G模型路径",
210
+ "预训练中文BERT模型路径": "预训练中文BERT模型路径"
211
+ }
tools/i18n/locale/zh_HK.json ADDED
@@ -0,0 +1,211 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ {
2
+ "(1)MDX-Net(onnx_dereverb):对于双通道混响是最好的选择,不能去除单通道混响;": "(1)MDX-Net(onnx_dereverb):對於雙通道混響是最佳選擇,但不能去除單通道混響;",
3
+ "(234)DeEcho:去除延迟效果。Aggressive比Normal去除得更彻底,DeReverb额外去除混响,可去除单声道混响,但是对高频重的板式混响去不干净。": "(234)DeEcho: 去除延遲效果。Aggressive 比 Normal 去除得更徹底,DeReverb 額外去除混響,可去除單聲道混響,但對高頻重的板式混響去不乾淨。",
4
+ "*实验/模型名": "*實驗/模型名",
5
+ "*文本标注文件": "*文本標注文件",
6
+ "*训练集音频文件目录": "*訓練集音頻文件目錄",
7
+ "*请上传并填写参考信息": "*請上傳並填寫參考信息",
8
+ "*请填写需要合成的目标文本和语种模式": "請填寫需要合成的目標文本和語言模式",
9
+ ".限制范围越小判别效果越好。": ".限制范围越小判别效果越好。",
10
+ "1-GPT-SoVITS-TTS": "1-GPT-SoVITS-TTS",
11
+ "1、DeEcho-DeReverb模型的耗时是另外2个DeEcho模型的接近2倍;": "1、DeEcho-DeReverb 模型的處理時間是另外兩個 DeEcho 模型的接近兩倍;",
12
+ "1、保留人声:不带和声的音频选这个,对主人声保留比HP5更好。内置HP2和HP3两个模型,HP3可能轻微漏伴奏但对主人声保留比HP2稍微好一丁点;": "1、保留人聲:不帶和聲的音頻選這個,對主人聲保留比HP5更好。內置HP2和HP3兩個模型,HP3可能輕微漏伴奏但對主人聲保留比HP2稍微好一點點;",
13
+ "2-GPT-SoVITS-变声": "2-GPT-SoVITS-變聲",
14
+ "2、MDX-Net-Dereverb模型挺慢的;": "2、MDX-Net-Dereverb 模型的處理時間挺慢的;",
15
+ "2、仅保留主人声:带和声的音频选这个,对主人声可能有削弱。内置HP5一个模型;": "2、僅保留主人聲:帶和聲的音頻選這個,對主人聲可能有削弱。內置HP5一個模型;",
16
+ "3、个人推荐的最干净的配置是先MDX-Net再DeEcho-Aggressive。": "3、個人推薦的最乾淨的配置是先 MDX-Net 再 DeEcho-Aggressive。",
17
+ "3、去混响、去延迟模型(by FoxJoy):": "3、去混響、去延遲模型(by FoxJoy):",
18
+ "ASR 模型": "ASR 模型",
19
+ "ASR 模型尺寸": "ASR 模型尺寸",
20
+ "ASR 语言设置": "ASR 語言設置",
21
+ "GPT 训练: 模型权重文件在 GPT_weights/": "GPT 訓練: 模型權重檔案在 GPT_weights/",
22
+ "GPT模型列表": "GPT模型列表",
23
+ "GPT训练": "GPT訓練",
24
+ "GPT采样参数(无参考文本时不要太低。不懂就用默认):": "GPT 采样参数(无参考文本时不要太低。不懂就用默认):",
25
+ "GPU卡号,只能填1个整数": "GPU卡號,只能填1個整數",
26
+ "GPU卡号以-分割,每个卡号一个进程": "GPU卡號以-分割,每個卡號一個進程",
27
+ "LoRA秩": "LoRA秩",
28
+ "SoVITS V3 底模缺失,无法加载相应 LoRA 权重": "SoVITS V3 底模缺失,無法加載相應 LoRA 權重",
29
+ "SoVITS 训练: 模型权重文件在 SoVITS_weights/": "SoVITS 訓練: 模型權重檔案在 SoVITS_weights/",
30
+ "SoVITS模型列表": "SoVITS模型列表",
31
+ "SoVITS训练": "SoVITS訓練",
32
+ "TTS推理WebUI": "TTS推理WebUI",
33
+ "UVR5人声伴奏分离&去混响去延迟工具": "UVR5人聲伴奏分離&去混響去延遲工具",
34
+ "alpha_mix:混多少比例归一化后音频进来": "alpha_mix:混多少比例歸一化後音頻進來",
35
+ "batch_size": "批次大小",
36
+ "hop_size:怎么算音量曲线,越小精度越大计算量越高(不是精度越大效果越好)": "hop_size:怎麼算音量曲線,越小精度越大計算量越高(不是精度越大效果越好)",
37
+ "max:归一化后最大值多少": "max:歸一化後最大值多少",
38
+ "max_sil_kept:切完后静音最多留多长": "max_sil_kept:切完後靜音最多留多長",
39
+ "min_interval:最短切割间隔": "min_interval:最短切割間隔",
40
+ "min_length:每段最小多长,如果第一段太短一直和后面段连起来直到超过这个值": "min_length:每段最小多長,如果第一段太短一直和後面段連起來直到超過這個值",
41
+ "temperature": "temperature",
42
+ "threshold:音量小于这个值视作静音的备选切割点": "threshold:音量小於這個值視作靜音的備選切割點",
43
+ "top_k": "top_k",
44
+ "top_p": "top_p",
45
+ "v3暂不支持该模式,使用了会报错。": "v3暫不支持該模式,使用了會報錯。",
46
+ "v3输出如果觉得闷可以试试开超分": "v3輸出如果覺得悶可以試試開超分",
47
+ "不切": "不切",
48
+ "中文": "中文",
49
+ "中文教程文档": "中文教程文檔",
50
+ "中英混合": "中英混合",
51
+ "主参考音频(请上传3~10秒内参考音频,超过会报错!)": "主參考音頻(請上傳3~10秒內參考音頻,超過會報錯!)",
52
+ "主参考音频的文本": "主參考音頻的文本",
53
+ "主参考音频的语种": "主參考音頻的語種",
54
+ "也可批量输入音频文件, 二选一, 优先读文件夹": "也可批量输入音频文件, 二选一, 优先读文件夹",
55
+ "人声伴奏分离批量处理, 使用UVR5模型。": "人聲伴奏分離批量處理, 使用UVR5模型。",
56
+ "人声分离WebUI": "人聲分離WebUI",
57
+ "人声提取激进程度": "人聲提取激進程度",
58
+ "以下文件或文件夹不存在": "沒有此文件或文件夾",
59
+ "以下模型不存在:": "以下模型不存在:",
60
+ "伴奏人声分离&去混响&去回声": "伴奏人聲分離&去混響&去回聲",
61
+ "你没有下载超分模型的参数,因此不进行超分。如想超分请先参照教程把文件下载好": "你沒有下載超分模型的參數,因此不進行超分。如想超分請先參照教程把文件下載好",
62
+ "使用无参考文本模式时建议使用微调的GPT": "使用無參考文本模式時建議使用微調的GPT",
63
+ "保存频率save_every_epoch": "保存頻率save_every_epoch",
64
+ "保持随机": "保持隨機",
65
+ "关闭": "關閉",
66
+ "凑50字一切": "湊50字一切",
67
+ "凑四句一切": "湊四句一切",
68
+ "分桶处理模式已关闭": "分桶處理模式已關閉",
69
+ "分桶处理模式已开启": "分桶處理模式已開啟",
70
+ "分段返回模式不支持分桶处理,已自动关闭分桶处理": "分段返回模式不支持分桶處理,已自動關閉分桶處理",
71
+ "分段返回模式已开启": "分段返回模式已開啟",
72
+ "分段间隔(秒)": "分段間隔(秒)",
73
+ "分段间隔过小,已自动设置为0.01": "分段間隔過小,已自動設置為0.01",
74
+ "切分": "切分",
75
+ "切分后文本": "切分後文本",
76
+ "切分后的子音频的输出根目录": "切分後的子音頻的輸出根目錄",
77
+ "切分文本": "切分文本",
78
+ "切割使用的进程数": "切割使用的進程數",
79
+ "刷新模型路径": "刷新模型路徑",
80
+ "前端处理后的文本(每句):": "前端處理後的文本(每句):",
81
+ "前置数据集获取工具": "前置數據集獲取工具",
82
+ "占用中": "佔用中",
83
+ "去混响/去延迟,附:": "去混響/去延遲,附",
84
+ "参考音频在3~10秒范围外,请更换!": "參考音頻在3~10秒範圍外,請更換!",
85
+ "参考音频的文本": "參考音頻的文本",
86
+ "参考音频的语种": "參考音頻的語種",
87
+ "句间停顿秒数": "句間停頓秒數",
88
+ "可选项:通过拖拽多个文件上传多个参考音频(建议同性),平均融合他们的音色。如不填写此项,音色由左侧单个参考音频控制。如是微调模型,建议参考音频全部在微调训练集音色内,底模不用管。": "可選項:通過拖曳多個文件上傳多個參考音頻(建議同性),平均融合他們的音色。如不填寫此項,音色由左側單個參考音頻控制。如是微調模型,建議參考音頻全部在微調訓練集音色內,底模不用管。",
89
+ "合成语音": "合成語音",
90
+ "合格的文件夹路径格式举例: E:\\codes\\py39\\vits_vc_gpu\\白鹭霜华测试样例(去文件管理器地址栏拷就行了)。": "合格的文件夾路徑格式舉例: E:\\codes\\py39\\vits_vc_gpu\\白鷺霜華測試樣例(去文件管理器地址欄拷就行了)。",
91
+ "后续将支持转音素、手工修改音素、语音合成分步执行。": "後續將支持轉音素、手工修改音素、語音合成分步執行。",
92
+ "听不清参考音频说的啥(不晓得写啥)可以开。开启后无视填写的参考文本。": "聽不清參考音頻說的啥(不曉得寫啥)可以開。開啟後無視填寫的參考文本。",
93
+ "启用并行推理版本": "啟用並行推理版本",
94
+ "填切割后音频所在目录!读取的音频文件完整路径=该目录-拼接-list文件里波形对应的文件名(不是全路径)。如果留空则使用.list文件里的绝对全路径。": "填切割後音頻所在目錄!讀取的音頻文件完整路徑=該目錄-拼接-list文件裡波形對應的文件名(不是全路徑)。如果留空則使用.list文件裡的絕對全路徑。",
95
+ "多语种混合": "多語種混合",
96
+ "多语种混合(粤语)": "多語種混合 (粵語)",
97
+ "失败": "失敗",
98
+ "如不认可该条款, 则不能使用或引用软件包内任何代码和文件. 详见根目录LICENSE.": "如不認可該條款, 則不能使用或引用軟體包內任何程式碼和文件. 詳見根目錄LICENSE.",
99
+ "实际输入的参考文本:": "實際輸入的參考文本:",
100
+ "实际输入的目标文本(切句后):": "實際輸入的目標文本(切句後):",
101
+ "实际输入的目标文本(每句):": "實際輸入的目標文本(每句):",
102
+ "实际输入的目标文本:": "實際輸入的目標文本:",
103
+ "导出文件格式": "導出檔格式",
104
+ "已关闭": "已關閉",
105
+ "已完成": "已完成",
106
+ "已开启": "已開啟",
107
+ "并行推理": "並行推理",
108
+ "并行推理模式已关闭": "並行推理模式已關閉",
109
+ "��行推理模式已开启": "並行推理模式已開啟",
110
+ "开启": "開啟",
111
+ "开启无参考文本模式。不填参考文本亦相当于开启。": "開啟無參考文本模式。不填參考文本亦相當於開啟。",
112
+ "微调训练": "微調訓練",
113
+ "怎么切": "怎麼切",
114
+ "总训练轮数total_epoch": "總訓練輪數total_epoch",
115
+ "总训练轮数total_epoch,不建议太高": "總訓練輪數total_epoch,不建議太高",
116
+ "指定输出主人声文件夹": "指定输出主人声文件夹",
117
+ "指定输出非主人声文件夹": "指定输出非主人声文件夹",
118
+ "按中文句号。切": "按中文句號。切",
119
+ "按标点符号切": "按標點符號切",
120
+ "按英文句号.切": "按英文句號.切",
121
+ "推理": "推理",
122
+ "推理设置": "推理設置",
123
+ "提取文本Bert特征": "提取文本BERT特徵",
124
+ "数据分桶(并行推理时会降低一点计算量)": "數據分桶(並行推理時會降低一點計算量)",
125
+ "数据类型精度": "數據類型精度",
126
+ "文本分词与特征提取": "文本分詞與特徵提取",
127
+ "文本切分工具。太长的文本合成出来效果不一定好,所以太长建议先切。合成会根据文本的换行分开合成再拼起来。": "文本切分工具。太長的文本合成出來效果不一定好,所以太長建議先切。合成會根據文本的換行分開合成再拼起來。",
128
+ "文本模块学习率权重": "文本模塊學習率權重",
129
+ "施工中,请静候佳音": "施工中,請靜候佳音",
130
+ "日文": "日文",
131
+ "日英混合": "日英混合",
132
+ "是否仅保存最新的权重文件以节省硬盘空间": "是否僅保存最新的權重文件以節省硬碟空間",
133
+ "是否在每次保存时间点将最终小模型保存至weights文件夹": "是否在每次保存時間點將最終小模型保存至weights文件夾",
134
+ "是否开启DPO训练选项(实验性)": "是否開啟DPO訓練選項(實驗性)",
135
+ "是否直接对上次合成结果调整语速和音色。防止随机性。": "是否直接對上次合成結果調整語速和音色,以防止隨機性。",
136
+ "显卡信息": "顯卡信息",
137
+ "未下载模型": "未下載模型",
138
+ "本软件以MIT协议开源, 作者不对软件具备任何控制力, 使用软件者、传播软件导出的声音者自负全责.": "本軟體以MIT協議開源, 作者不對軟體具備任何控制力, 使用軟體者、傳播軟體導出的聲音者自負全責.",
139
+ "标注文件路径 (含文件后缀 *.list)": "標註文件路徑 (含文件後綴 *.list)",
140
+ "模型": "模型",
141
+ "模型分为三类:": "模型分為三類:",
142
+ "模型切换": "模型切換",
143
+ "每张显卡的batch_size": "每張顯卡的batch_size",
144
+ "版本": "版本",
145
+ "粤英混合": "粵英混合",
146
+ "粤语": "粵語",
147
+ "终止合成": "終止合成",
148
+ "缺少Hubert数据集": "缺少Hubert數據集",
149
+ "缺少语义数据集": "缺少語義數據集",
150
+ "缺少音素数据集": "缺少音素數據集",
151
+ "缺少音频数据集": "缺少音頻數據集",
152
+ "英文": "英文",
153
+ "训练集格式化一键三连": "訓練集格式化一鍵三連",
154
+ "训练集格式化工具": "訓練集格式化工具",
155
+ "语义Token提取": "語義Token提取",
156
+ "语速": "語速",
157
+ "语速调整,高为更快": "調整語速,高為更快",
158
+ "语速调节不支持分桶处理,已自动关闭分桶处理": "語速調節不支持分桶處理,已自動關閉分桶處理",
159
+ "语音切分": "語音切分",
160
+ "语音切分工具": "語音切分工具",
161
+ "语音文本校对标注工具": "語音文本校對標註工具",
162
+ "语音自监督特征提取": "語音自監督特徵提取",
163
+ "语音识别": "語音識別",
164
+ "语音识别工具": "語音識別工具",
165
+ "语音降噪": "語音降噪",
166
+ "语音降噪工具": "語音降噪工具",
167
+ "请上传3~10秒内参考音频,超过会报错!": "請上傳3~10秒內參考音頻,超過會報錯!",
168
+ "请上传参考音频": "請上傳參考音頻",
169
+ "请填入推理文本": "請填入推理文本",
170
+ "请填入正确的List路径": "請填寫正確的列表路徑",
171
+ "请填入正确的音频文件夹路径": "請填寫正確的音頻文件夾路徑",
172
+ "请输入有效文本": "請輸入有效文本",
173
+ "路径不存在,使用默认配置": "路徑不存在,使用默認配置",
174
+ "路径不能为空": "路徑不應該為空",
175
+ "路径错误": "路徑錯誤",
176
+ "转换": "轉換",
177
+ "辅参考音频(可选多个,或不选)": "輔參考音頻(可選多個,或不選)",
178
+ "输入待处理音频文件夹路径": "輸入待處理音頻資料夾路徑",
179
+ "输入文件夹路径": "輸入文件夾路徑",
180
+ "输入路径不存在": "輸入路徑不存在",
181
+ "输入路径存在但不可用": "輸入路徑存在但不可用",
182
+ "输出logs/实验名目录下应有23456开头的文件和文件夹": "輸出logs/實驗名目錄下應有23456開頭的文件和文件夾",
183
+ "输出信息": "輸出訊息",
184
+ "输出文件夹路径": "輸出文件夾路徑",
185
+ "输出的语音": "輸出的語音",
186
+ "运行中": "運行中",
187
+ "进度": "進度",
188
+ "进程已终止": "進程已終止",
189
+ "进程输出信息": "進程輸出信息",
190
+ "选择训练完存放在SoVITS_weights和GPT_weights下的模型。默认的一个是底模,体验5秒Zero Shot TTS用。": "選擇訓練完存放在SoVITS_weights和GPT_weights下的模型。默認的一個是底模,體驗5秒Zero Shot TTS用。",
191
+ "采样步数,如果觉得电,提高试试,如果觉得慢,降低试试": "採樣步數,如果覺得電,提高試試,如果覺得慢,降低試試",
192
+ "重复惩罚": "重複懲罰",
193
+ "随机种子": "隨機種子",
194
+ "需先终止才能开启下一次任务": "需先終止才能開啟下一次任務",
195
+ "需要合成的切分前文本": "需要合成的切分前文本",
196
+ "需要合成的文本": "需要合成的文本",
197
+ "需要合成的文本的语种": "需要合成的文本的語種",
198
+ "需要合成的语种": "需要合成的語種",
199
+ "韩文": "韓文",
200
+ "韩英混合": "韓英混合",
201
+ "音频加载失败": "無法加載音頻",
202
+ "音频文件不存在,跳过:": "音頻檔案不存在,跳過:",
203
+ "音频标注WebUI": "音頻標註WebUI",
204
+ "音频自动切分输入路径,可文件可文件夹": "音頻自動切分輸入路徑,可文件可文件夾",
205
+ "音频超分中": "音頻超分中",
206
+ "预训练GPT模型路径": "預訓練GPT模型路徑",
207
+ "预训练SSL模型路径": "預訓練SSL模型路徑",
208
+ "预训练SoVITS-D模型路径": "預訓練SoVITS-D模型路徑",
209
+ "预训练SoVITS-G模型路径": "預訓練SoVITS-G模型路徑",
210
+ "预训练中文BERT模型路径": "預訓練中文BERT模型路徑"
211
+ }
tools/i18n/locale/zh_SG.json ADDED
@@ -0,0 +1,211 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ {
2
+ "(1)MDX-Net(onnx_dereverb):对于双通道混响是最好的选择,不能去除单通道混响;": "(1)MDX-Net(onnx_dereverb):對於雙通道混響是最好的選擇,不能去除單通道混響;",
3
+ "(234)DeEcho:去除延迟效果。Aggressive比Normal去除得更彻底,DeReverb额外去除混响,可去除单声道混响,但是对高频重的板式混响去不干净。": "(234)DeEcho:去除延遲效果。Aggressive 比 Normal 去除得更徹底,DeReverb 額外去除混響,可去除單聲道混響,但是對高頻重的板式混響去不乾淨。",
4
+ "*实验/模型名": "*實驗/模型名",
5
+ "*文本标注文件": "*文本標註文件",
6
+ "*训练集音频文件目录": "*訓練集音頻文件目錄",
7
+ "*请上传并填写参考信息": "*請上傳並填寫參考信息",
8
+ "*请填写需要合成的目标文本和语种模式": "請填寫需要合成的目標文本和語言模式",
9
+ ".限制范围越小判别效果越好。": ".限制范围越小判别效果越好。",
10
+ "1-GPT-SoVITS-TTS": "1-GPT-SoVITS-TTS",
11
+ "1、DeEcho-DeReverb模型的耗时是另外2个DeEcho模型的接近2倍;": "1、DeEcho-DeReverb 模型的耗時是另外兩個 DeEcho 模型的接近兩倍;",
12
+ "1、保留人声:不带和声的音频选这个,对主人声保留比HP5更好。内置HP2和HP3两个模型,HP3可能轻微漏伴奏但对主人声保留比HP2稍微好一丁点;": "1、保留人聲:不帶和聲的音頻選這個,對主人聲保留比HP5更好。內置HP2和HP3兩個模型,HP3可能輕微漏伴奏但對主人聲保留比HP2稍微好一丁點;",
13
+ "2-GPT-SoVITS-变声": "2-GPT-SoVITS-變聲",
14
+ "2、MDX-Net-Dereverb模型挺慢的;": "2、MDX-Net-Dereverb 模型的處理時間挺慢的;",
15
+ "2、仅保留主人声:带和声的音频选这个,对主人声可能有削弱。内置HP5一个模型;": "2、僅保留主人聲:帶和聲的音頻選這個,對主人聲可能有削弱。內置HP5一個模型;",
16
+ "3、个人推荐的最干净的配置是先MDX-Net再DeEcho-Aggressive。": "3、個人推薦的最乾淨的配置是先 MDX-Net 再 DeEcho-Aggressive。",
17
+ "3、去混响、去延迟模型(by FoxJoy):": "3、去混響、去延遲模型(by FoxJoy):",
18
+ "ASR 模型": "ASR 模型",
19
+ "ASR 模型尺寸": "ASR 模型尺寸",
20
+ "ASR 语言设置": "ASR 語言設定",
21
+ "GPT 训练: 模型权重文件在 GPT_weights/": "GPT 训练: 模型权重文件在 GPT_weights/ 目錄下",
22
+ "GPT模型列表": "GPT模型列表",
23
+ "GPT训练": "GPT訓練",
24
+ "GPT采样参数(无参考文本时不要太低。不懂就用默认):": "GPT 采样参数(无参考文本时不要太低。不懂就用默认):",
25
+ "GPU卡号,只能填1个整数": "GPU卡號,只能填1個整數",
26
+ "GPU卡号以-分割,每个卡号一个进程": "GPU卡號以-分割,每個卡號一個進程",
27
+ "LoRA秩": "LoRA秩",
28
+ "SoVITS V3 底模缺失,无法加载相应 LoRA 权重": "SoVITS V3 底模缺失,無法加載相應 LoRA 權重",
29
+ "SoVITS 训练: 模型权重文件在 SoVITS_weights/": "SoVITS 訓練: 模型權重文件在 SoVITS_weights/ 目錄下",
30
+ "SoVITS模型列表": "SoVITS模型列表",
31
+ "SoVITS训练": "SoVITS訓練",
32
+ "TTS推理WebUI": "TTS推理WebUI",
33
+ "UVR5人声伴奏分离&去混响去延迟工具": "UVR5人聲伴奏分離&去混響去延遲工具",
34
+ "alpha_mix:混多少比例归一化后音频进来": "alpha_mix:混多少比例歸一化後音頻進來",
35
+ "batch_size": "批次大小",
36
+ "hop_size:怎么算音量曲线,越小精度越大计算量越高(不是精度越大效果越好)": "hop_size:怎麼算音量曲線,越小精度越大計算量越高(不是精度越大效果越好)",
37
+ "max:归一化后最大值多少": "max:歸一化後最大值多少",
38
+ "max_sil_kept:切完后静音最多留多长": "max_sil_kept:切完後靜音最多留多長",
39
+ "min_interval:最短切割间隔": "min_interval:最短切割間隔",
40
+ "min_length:每段最小多长,如果第一段太短一直和后面段连起来直到超过这个值": "min_length:每段最小多長,如果第一段太短一直和後面段連起來直到超過這個值",
41
+ "temperature": "temperature",
42
+ "threshold:音量小于这个值视作静音的备选切割点": "threshold:音量小於這個值視作靜音的備選切割點",
43
+ "top_k": "top_k",
44
+ "top_p": "top_p",
45
+ "v3暂不支持该模式,使用了会报错。": "v3暫不支援該模式,使用了會報錯。",
46
+ "v3输出如果觉得闷可以试试开超分": "v3輸出如果覺得悶可以試試開超分",
47
+ "不切": "不切",
48
+ "中文": "中文",
49
+ "中文教程文档": "中文教程文檔",
50
+ "中英混合": "中英混合",
51
+ "主参考音频(请上传3~10秒内参考音频,超过会报错!)": "主參考音檔(請上傳3~10秒內參考音檔,超過會報錯!)",
52
+ "主参考音频的文本": "主參考音檔的文本",
53
+ "主参考音频的语种": "主參考音檔的語種",
54
+ "也可批量输入音频文件, 二选一, 优先读文件夹": "也可批量输入音频文件, 二选一, 优先读文件夹",
55
+ "人声伴奏分离批量处理, 使用UVR5模型。": "人聲伴奏分離批量處理, 使用UVR5模型。",
56
+ "人声分离WebUI": "人聲分離WebUI",
57
+ "人声提取激进程度": "人聲提取激進程度",
58
+ "以下文件或文件夹不存在": "沒有此文件或文件夾",
59
+ "以下模型不存在:": "以下模型不存在",
60
+ "伴奏人声分离&去混响&去回声": "伴奏人聲分離&去混響&去回聲",
61
+ "你没有下载超分模型的参数,因此不进行超分。如想超分请先参照教程把文件下载好": "你沒有下載超分模型的參數,因此不進行超分。如想超分請先參照教程把文件下載好",
62
+ "使用无参考文本模式时建议使用微调的GPT": "使用無參考文本模式時建議使用微調的GPT",
63
+ "保存频率save_every_epoch": "保存頻率save_every_epoch",
64
+ "保持随机": "保持隨機",
65
+ "关闭": "關閉",
66
+ "凑50字一切": "湊50字一切",
67
+ "凑四句一切": "湊四句一切",
68
+ "分桶处理模式已关闭": "分桶處理模式已關閉",
69
+ "分桶处理模式已开启": "分桶處理模式已開啟",
70
+ "分段返回模式不支持分桶处理,已自动关闭分桶处理": "分段返回模式不支援分桶處理,已自動關閉分桶處理",
71
+ "分段返回模式已开启": "分段返回模式已開啟",
72
+ "分段间隔(秒)": "分段間隔(秒)",
73
+ "分段间隔过小,已自动设置为0.01": "分段間隔過小,已自動設置為0.01",
74
+ "切分": "切分",
75
+ "切分后文本": "切分後文本",
76
+ "切分后的子音频的输出根目录": "切分後的子音頻的輸出根目錄",
77
+ "切分文本": "切分文本",
78
+ "切割使用的进程数": "切割使用的進程數",
79
+ "刷新模型路径": "刷新模型路徑",
80
+ "前端处理后的文本(每句):": "前端處理後的文本(每句):",
81
+ "前置数据集获取工具": "前置數據集獲取工具",
82
+ "占用中": "占用中",
83
+ "去混响/去延迟,附:": "去混響/去延遲,附:",
84
+ "参考音频在3~10秒范围外,请更换!": "參考音頻在3~10秒範圍外,請更換!",
85
+ "参考音频的文本": "參考音頻的文本",
86
+ "参考音频的语种": "參考音頻的語種",
87
+ "句间停顿秒数": "句間停頓秒數",
88
+ "可选项:通过拖拽多个文件上传多个参考音频(建议同性),平均融合他们的音色。如不填写此项,音色由左侧单个参考音频控制。如是微调模型,建议参考音频全部在微调训练集音色内,底模不用管。": "可選項:通過拖曳多個文件上傳多個參考音頻(建議同性),平均融合他們的音色。如不填寫此項,音色由左側單個參考音頻控制。如是微調模型,建議參考音頻全部在微調訓練集音色內,底模不用管。",
89
+ "合成语音": "合成語音",
90
+ "合格的文件夹路径格式举例: E:\\codes\\py39\\vits_vc_gpu\\白鹭霜华测试样例(去文件管理器地址栏拷就行了)。": "合格的資料夾路徑格式舉例: E:\\codes\\py39\\vits_vc_gpu\\白鷺霜華測試範例(去文件管理器地址欄拷就行了)。",
91
+ "后续将支持转音素、手工修改音素、语音合成分步执行。": "後續將支援轉音素、手工修改音素、語音合成分步執行。",
92
+ "听不清参考音频说的啥(不晓得写啥)可以开。开启后无视填写的参考文本。": "聽不清參考音頻說的啥(不曉得寫啥)可以開。開啟後無視填寫的參考文本。",
93
+ "启用并行推理版本": "啟用並行推理版本",
94
+ "填切割后音频所在目录!读取的音频文件完整路径=该目录-拼接-list文件里波形对应的文件名(不是全路径)。如果留空则使用.list文件里的绝对全路径。": "填切割後音頻所在目錄!讀取的音頻檔案完整路徑=該目錄-拼接-list檔案裡波形對應的檔案名(不是全路徑)。如果留空則使用.list檔案裡的絕對全路徑。",
95
+ "多语种混合": "多語種混合",
96
+ "多语种混合(粤语)": "多語種混合 (粵語)",
97
+ "失败": "失敗",
98
+ "如不认可该条款, 则不能使用或引用软件包内任何代码和文件. 详见根目录LICENSE.": "如不認可該條款, 則不能使用或引用軟體包內任何代碼和文件. 詳見根目錄LICENSE.",
99
+ "实际输入的参考文本:": "實際輸入的參考文本:",
100
+ "实际输入的目标文本(切句后):": "實際輸入的目標文本(切句後):",
101
+ "实际输入的目标文本(每句):": "實際輸入的目標文本(每句):",
102
+ "实际输入的目标文本:": "實際輸入的目標文本:",
103
+ "导出文件格式": "導出檔格式",
104
+ "已关闭": "已關閉",
105
+ "已完成": "已完成",
106
+ "已开启": "已開啟",
107
+ "并行推理": "並行推理",
108
+ "并行推理模式已关闭": "並行推理模式已關閉",
109
+ "并行推理模式已开启": "並行推理模式已開啟",
110
+ "开启": "開啟",
111
+ "开启无参考文本模式。不填参考文本亦相当于开启。": "開啟無參考文本模式。不填參考文本亦相當於開啟。",
112
+ "微调训练": "微調訓練",
113
+ "怎么切": "怎麼切",
114
+ "总训练轮数total_epoch": "總訓練輪數total_epoch",
115
+ "总训练轮数total_epoch,不建议太高": "總訓練輪數total_epoch,不建議太高",
116
+ "指定输出主人声文件夹": "指定输出主人声文件夹",
117
+ "指定输出非主人声文件夹": "指定输出非主人声文件夹",
118
+ "按中文句号。切": "按中文句號。切",
119
+ "按标点符号切": "按標點符號切",
120
+ "按英文句号.切": "按英文句號.切",
121
+ "推理": "推理",
122
+ "推理设置": "推理設定",
123
+ "提取文本Bert特征": "提取文本BERT特徵",
124
+ "数据分桶(并行推理时会降低一点计算量)": "資料分桶(並行推理時會降低一點計算量)",
125
+ "数据类型精度": "數據類型精度",
126
+ "文本分词与特征提取": "文本分詞與特徵提取",
127
+ "文本切分工具。太长的文本合成出来效果不一定好,所以太长建议先切。合成会根据文本的换行分开合成再拼起来。": "文本切分工具。太長的文本合成出來效果不一定好,所以太長建議先切。合成會根據文本的換行分開合成再拼起來。",
128
+ "文本模块学习率权重": "文本模塊學習率權重",
129
+ "施工中,请静候佳音": "施工中,請靜候佳音",
130
+ "日文": "日文",
131
+ "日英混合": "日英混合",
132
+ "是否仅保存最新的权重文件以节省硬盘空间": "是否僅保存最新的權重文件以節省硬碟空間",
133
+ "是否在每次保存时间点将最终小模型保存至weights文件夹": "是否在每次保存時間點將最終小模型保存至weights文件夾",
134
+ "是否开启DPO训练选项(实验性)": "是否開啟DPO訓練選項(實驗性)",
135
+ "是否直接对上次合成结果调整语速和音色。防止随机性。": "是否直接對上次合成結果調整語速和音色,以防止隨機性。",
136
+ "显卡信息": "顯卡資訊",
137
+ "未下载模型": "未下載模型",
138
+ "本软件以MIT协议开源, 作者不对软件具备任何控制力, 使用软件者、传播软件导出的声音者自负全责.": "本軟體以MIT協議開源, 作者不對軟體具備任何控制力, 使用軟體者、傳播軟體導出的聲音者自負全責.",
139
+ "标注文件路径 (含文件后缀 *.list)": "標註文件路徑 (含文件後綴 *.list)",
140
+ "模型": "模型",
141
+ "模型分为三类:": "模型分為三類:",
142
+ "模型切换": "模型切換",
143
+ "每张显卡的batch_size": "每張顯卡的batch_size",
144
+ "版本": "版本",
145
+ "粤英混合": "粵英混合",
146
+ "粤语": "粵語",
147
+ "终止合成": "終止合成",
148
+ "缺少Hubert数据集": "缺少Hubert數據集",
149
+ "缺少语义数据集": "缺少語義數據集",
150
+ "缺少音素数据集": "缺少音素數據集",
151
+ "缺少音频数据集": "缺少音頻數據集",
152
+ "英文": "英文",
153
+ "训练集格式化一键三连": "訓練集格式化一鍵三連",
154
+ "训练集格式化工具": "訓練集格式化工具",
155
+ "语义Token提取": "語義Token提取",
156
+ "语速": "語速",
157
+ "语速调整,高为更快": "調整語速,高為更快",
158
+ "语速调节不支持分桶处理,已自动关闭分桶处理": "語速調節不支援分桶處理,已自動關閉分桶處理",
159
+ "语音切分": "語音切分",
160
+ "语音切分工具": "語音切分工具",
161
+ "语音文本校对标注工具": "語音文本校對標註工具",
162
+ "语音自监督特征提取": "語音自監督特徵提取",
163
+ "语音识别": "語音識別",
164
+ "语音识别工具": "語音識別工具",
165
+ "语音降噪": "語音降噪",
166
+ "语音降噪工具": "語音降噪工具",
167
+ "请上传3~10秒内参考音频,超过会报错!": "請上傳3~10秒內參考音頻,超過會報錯!",
168
+ "请上传参考音频": "請上傳參考音頻",
169
+ "请填入推理文本": "請填入推理文本",
170
+ "请填入正确的List路径": "請填寫正確的列表路徑",
171
+ "请填入正确的音频文件夹路径": "請填寫正確的音頻文件夾路徑",
172
+ "请输入有效文本": "請輸入有效文本",
173
+ "路径不存在,使用默认配置": "路徑不存在,使用預設配置",
174
+ "路径不能为空": "路徑不應該為空",
175
+ "路径错误": "路徑錯誤",
176
+ "转换": "轉換",
177
+ "辅参考音频(可选多个,或不选)": "輔參考音檔(可選多個,或不選)",
178
+ "输入待处理音频文件夹路径": "輸入待處理音頻資料夾路徑",
179
+ "输入文件夹路径": "輸入文件夾路徑",
180
+ "输入路径不存在": "輸入路徑不存在",
181
+ "输入路径存在但不可用": "輸入路徑存在但不可用",
182
+ "输出logs/实验名目录下应有23456开头的文件和文件夹": "輸出logs/實驗名目��下應有23456開頭的文件和文件夾",
183
+ "输出信息": "輸出訊息",
184
+ "输出文件夹路径": "輸出文件夾路徑",
185
+ "输出的语音": "輸出的語音",
186
+ "运行中": "運行中",
187
+ "进度": "進度",
188
+ "进程已终止": "進程已終止",
189
+ "进程输出信息": "進程輸出信息",
190
+ "选择训练完存放在SoVITS_weights和GPT_weights下的模型。默认的一个是底模,体验5秒Zero Shot TTS用。": "選擇訓練完存放在SoVITS_weights和GPT_weights下的模型。默認的一個是底模,體驗5秒Zero Shot TTS用。",
191
+ "采样步数,如果觉得电,提高试试,如果觉得慢,降低试试": "採樣步數,如果覺得電,提高試試,如果覺得慢,降低試試",
192
+ "重复惩罚": "重複懲罰",
193
+ "随机种子": "隨機種子",
194
+ "需先终止才能开启下一次任务": "需先終止才能開啟下一次任務",
195
+ "需要合成的切分前文本": "需要合成的切分前文本",
196
+ "需要合成的文本": "需要合成的文本",
197
+ "需要合成的文本的语种": "需要合成的文本的語種",
198
+ "需要合成的语种": "需要合成的語種",
199
+ "韩文": "韓文",
200
+ "韩英混合": "韓英混合",
201
+ "音频加载失败": "無法加載音頻",
202
+ "音频文件不存在,跳过:": "音檔不存在,跳過:",
203
+ "音频标注WebUI": "音頻標註WebUI",
204
+ "音频自动切分输入路径,可文件可文件夹": "音頻自動切分輸入路徑,可文件可文件夾",
205
+ "音频超分中": "音頻超分中",
206
+ "预训练GPT模型路径": "預訓練GPT模型路徑",
207
+ "预训练SSL模型路径": "預訓練SSL模型路徑",
208
+ "预训练SoVITS-D模型路径": "預訓練SoVITS-D模型路徑",
209
+ "预训练SoVITS-G模型路径": "預訓練SoVITS-G模型路徑",
210
+ "预训练中文BERT模型路径": "預訓練中文BERT模型路徑"
211
+ }
tools/i18n/locale/zh_TW.json ADDED
@@ -0,0 +1,211 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ {
2
+ "(1)MDX-Net(onnx_dereverb):对于双通道混响是最好的选择,不能去除单通道混响;": "(1)MDX-Net(onnx_dereverb):對於雙通道混響是最好的選擇,不能去除單通道混響;",
3
+ "(234)DeEcho:去除延迟效果。Aggressive比Normal去除得更彻底,DeReverb额外去除混响,可去除单声道混响,但是对高频重的板式混响去不干净。": "(234)DeEcho:去除延遲效果。Aggressive 比 Normal 去除得更徹底,DeReverb 額外去除混響,可去除單聲道混響,但是對高頻重的板式混響去不乾淨。",
4
+ "*实验/模型名": "*實驗/模型名",
5
+ "*文本标注文件": "*文本標注文件",
6
+ "*训练集音频文件目录": "*訓練集音頻文件目錄",
7
+ "*请上传并填写参考信息": "*請上傳並填寫參考資訊",
8
+ "*请填写需要合成的目标文本和语种模式": "請填寫需要合成的目標文本和語言模式",
9
+ ".限制范围越小判别效果越好。": ".限制范围越小判别效果越好。",
10
+ "1-GPT-SoVITS-TTS": "1-GPT-SoVITS-TTS",
11
+ "1、DeEcho-DeReverb模型的耗时是另外2个DeEcho模型的接近2倍;": "1、DeEcho-DeReverb 模型的耗時是另外兩個 DeEcho 模型的接近兩倍;",
12
+ "1、保留人声:不带和声的音频选这个,对主人声保留比HP5更好。内置HP2和HP3两个模型,HP3可能轻微漏伴奏但对主人声保留比HP2稍微好一丁点;": "1、保留人聲:不帶和聲的音頻選這個,對主人聲保留比HP5更好。內置HP2和HP3兩個模型,HP3可能輕微漏伴奏但對主人聲保留比HP2稍微好一丁點;",
13
+ "2-GPT-SoVITS-变声": "2-GPT-SoVITS-變聲",
14
+ "2、MDX-Net-Dereverb模型挺慢的;": "2、MDX-Net-Dereverb模型挺慢的;",
15
+ "2、仅保留主人声:带和声的音频选这个,对主人声可能有削弱。内置HP5一个模型;": "2、僅保留主人聲:帶和聲的音頻選這個,對主人聲可能有削弱。內置HP5一個模型;",
16
+ "3、个人推荐的最干净的配置是先MDX-Net再DeEcho-Aggressive。": "3、個人推薦的最乾淨的配置是先 MDX-Net 再 DeEcho-Aggressive。",
17
+ "3、去混响、去延迟模型(by FoxJoy):": "3、去混響、去延遲模型(by FoxJoy):",
18
+ "ASR 模型": "ASR 模型",
19
+ "ASR 模型尺寸": "ASR 模型尺寸",
20
+ "ASR 语言设置": "ASR 語言設置",
21
+ "GPT 训练: 模型权重文件在 GPT_weights/": "GPT 訓練: 模型權重文件在 GPT_weights/",
22
+ "GPT模型列表": "GPT模型列表",
23
+ "GPT训练": "GPT訓練",
24
+ "GPT采样参数(无参考文本时不要太低。不懂就用默认):": "GPT 采样参数(无参考文本时不要太低。不懂就用默认):",
25
+ "GPU卡号,只能填1个整数": "GPU卡號,只能填1個整數",
26
+ "GPU卡号以-分割,每个卡号一个进程": "GPU卡號以-分割,每個卡號一個進程",
27
+ "LoRA秩": "LoRA階",
28
+ "SoVITS V3 底模缺失,无法加载相应 LoRA 权重": "SoVITS V3 底模缺失,無法加載相應 LoRA 權重",
29
+ "SoVITS 训练: 模型权重文件在 SoVITS_weights/": "SoVITS 訓練: 模型權重文件在 SoVITS_weights/",
30
+ "SoVITS模型列表": "SoVITS模型列表",
31
+ "SoVITS训练": "SoVITS訓練",
32
+ "TTS推理WebUI": "TTS推理WebUI",
33
+ "UVR5人声伴奏分离&去混响去延迟工具": "UVR5人聲伴奏分離&去混響去延遲工具",
34
+ "alpha_mix:混多少比例归一化后音频进来": "alpha_mix:混多少比例歸一化後音頻進來",
35
+ "batch_size": "批次大小",
36
+ "hop_size:怎么算音量曲线,越小精度越大计算量越高(不是精度越大效果越好)": "hop_size:怎麼算音量曲線,越小精度越大計算量越高(不是精度越大效果越好)",
37
+ "max:归一化后最大值多少": "max:歸一化後最大值多少",
38
+ "max_sil_kept:切完后静音最多留多长": "max_sil_kept:切完後靜音最多留多長",
39
+ "min_interval:最短切割间隔": "min_interval:最短切割間隔",
40
+ "min_length:每段最小多长,如果第一段太短一直和后面段连起来直到超过这个值": "min_length:每段最小多長,如果第一段太短一直和後面段連起來直到超過這個值",
41
+ "temperature": "temperature",
42
+ "threshold:音量小于这个值视作静音的备选切割点": "threshold:音量小於這個值視作靜音的備選切割點",
43
+ "top_k": "top_k",
44
+ "top_p": "top_p",
45
+ "v3暂不支持该模式,使用了会报错。": "v3暫不支援該模式,使用了會報錯。",
46
+ "v3输出如果觉得闷可以试试开超分": "v3輸出如果覺得悶可以試試開超分",
47
+ "不切": "不切",
48
+ "中文": "中文",
49
+ "中文教程文档": "中文教程文檔",
50
+ "中英混合": "中英混合",
51
+ "主参考音频(请上传3~10秒内参考音频,超过会报错!)": "主參考音檔(請上傳3~10秒內參考音檔,超過會報錯!)",
52
+ "主参考音频的文本": "主參考音檔的文字",
53
+ "主参考音频的语种": "主參考音檔的語種",
54
+ "也可批量输入音频文件, 二选一, 优先读文件夹": "也可批量输入音频文件, 二选一, 优先读文件夹",
55
+ "人声伴奏分离批量处理, 使用UVR5模型。": "人聲伴奏分離批量處理, 使用UVR5模型。",
56
+ "人声分离WebUI": "人聲分離WebUI",
57
+ "人声提取激进程度": "人聲提取激進程度",
58
+ "以下文件或文件夹不存在": "沒有此文件或文件夾",
59
+ "以下模型不存在:": "#以下模型不存在",
60
+ "伴奏人声分离&去混响&去回声": "伴奏人聲分離&去混響&去回聲",
61
+ "你没有下载超分模型的参数,因此不进行超分。如想超分请先参照教程把文件下载好": "你沒有下載超分模型的參數,因此不進行超分。如想超分請先參照教程把文件下載好",
62
+ "使用无参考文本模式时建议使用微调的GPT": "使用無參考文本模式時建議使用微調的GPT",
63
+ "保存频率save_every_epoch": "保存頻率save_every_epoch",
64
+ "保持随机": "保持隨機",
65
+ "关闭": "關閉",
66
+ "凑50字一切": "湊50字一切",
67
+ "凑四句一切": "湊四句一切",
68
+ "分桶处理模式已关闭": "分桶處理模式已關閉",
69
+ "分桶处理模式已开启": "分桶處理模式已開啟",
70
+ "分段返回模式不支持分桶处理,已自动关闭分桶处理": "分段返回模式不支援分桶處理,已自動關閉分桶處理",
71
+ "分段返回模式已开启": "分段返回模式已開啟",
72
+ "分段间隔(秒)": "分段間隔(秒)",
73
+ "分段间隔过小,已自动设置为0.01": "分段間隔過小,已自動設定為0.01",
74
+ "切分": "切分",
75
+ "切分后文本": "切分後文字",
76
+ "切分后的子音频的输出根目录": "切分後的子音頻的輸出根目錄",
77
+ "切分文本": "切分文字",
78
+ "切割使用的进程数": "切割使用的進程數",
79
+ "刷新模型路径": "刷新模型路徑",
80
+ "前端处理后的文本(每句):": "前端處理後的文本(每句):",
81
+ "前置数据集获取工具": "前置數據集獲取工具",
82
+ "占用中": "佔用中",
83
+ "去混响/去延迟,附:": "去混響/去延遲,附:",
84
+ "参考音频在3~10秒范围外,请更换!": "參考音頻在3~10秒範圍外,請更換!",
85
+ "参考音频的文本": "參考音頻的文本",
86
+ "参考音频的语种": "參考音頻的語種",
87
+ "句间停顿秒数": "句間停頓秒數",
88
+ "可选项:通过拖拽多个文件上传多个参考音频(建议同性),平均融合他们的音色。如不填写此项,音色由左侧单个参考音频控制。如是微调模型,建议参考音频全部在微调训练集音色内,底模不用管。": "可選項:通過拖曳多個文件上傳多個參考音頻(建議同性),平均融合他們的音色。如不填寫此項,音色由左側單個參考音頻控制。如是微調模型,建議參考音頻全部在微調訓練集音色內,底模不用管。",
89
+ "合成语音": "合成語音",
90
+ "合格的文件夹路径格式举例: E:\\codes\\py39\\vits_vc_gpu\\白鹭霜华测试样例(去文件管理器地址栏拷就行了)。": "合格的資料夾路徑格式舉例: E:\\codes\\py39\\vits_vc_gpu\\白鷺霜華測試範例(去文件管理器地址欄拷就行了)。",
91
+ "后续将支持转音素、手工修改音素、语音合成分步执行。": "後續將支援轉音素、手工修改音素、語音合成分步執行。",
92
+ "听不清参考音频说的啥(不晓得写啥)可以开。开启后无视填写的参考文本。": "聽不清參考音頻說的啥(不曉得寫啥)可以開,開啟後無視填寫的參考文本。",
93
+ "启用并行推理版本": "啟用並行推理版本",
94
+ "填切割后音频所在目录!读取的音频文件完整路径=该目录-拼接-list文件里波形对应的文件名(不是全路径)。如果留空则使用.list文件里的绝对全路径。": "填切割後音頻所在目錄!讀取的音頻檔案完整路徑=該目錄-拼接-list檔案裡波形對應的檔案名(不是全路徑)。如果留空則使用.list檔案裡的絕對全路徑。",
95
+ "多语种混合": "多語種混合",
96
+ "多语种混合(粤语)": "多語種混合 (粵語)",
97
+ "失败": "失敗",
98
+ "如不认可该条款, 则不能使用或引用软件包内任何代码和文件. 详见根目录LICENSE.": "如不認可該條款,則不能使用或引用軟體包內任何代碼和文件。詳見根目錄LICENSE",
99
+ "实际输入的参考文本:": "實際輸入的參考文本:",
100
+ "实际输入的目标文本(切句后):": "實際輸入的目標文本(切句後):",
101
+ "实际输入的目标文本(每句):": "實際輸入的目標文本(每句):",
102
+ "实际输入的目标文本:": "實際輸入的目標文本:",
103
+ "导出文件格式": "導出檔格式",
104
+ "已关闭": "已關閉",
105
+ "已完成": "已完成",
106
+ "已开启": "已開啟",
107
+ "并行推理": "並行推理",
108
+ "并行推理模式已关闭": "並行推理模式已關閉",
109
+ "并行推理模式已开启": "並行推理模式已開啟",
110
+ "开启": "開啟",
111
+ "开启无参考文本模式。不填参考文本亦相当于开启。": "開啟無參考文本模式。不填參考文本亦相當於開啟。",
112
+ "微调训练": "微調訓練",
113
+ "怎么切": "怎麼切",
114
+ "总训练轮数total_epoch": "總訓練輪數total_epoch",
115
+ "总训练轮数total_epoch,不建议太高": "總訓練輪數total_epoch,不建議太高",
116
+ "指定输出主人声文件夹": "指定输出主人声文件夹",
117
+ "指定输出非主人声文件夹": "指定输出非主人声文件夹",
118
+ "按中文句号。切": "按中文句號。切",
119
+ "按标点符号切": "按標點符號切",
120
+ "按英文句号.切": "按英文句號.切",
121
+ "推理": "推理",
122
+ "推理设置": "推理設定",
123
+ "提取文本Bert特征": "提取文字BERT特徵",
124
+ "数据分桶(并行推理时会降低一点计算量)": "資料分桶(並行推理時會降低一點計算量)",
125
+ "数据类型精度": "數據類型精度",
126
+ "文本分词与特征提取": "文本分詞與特徵提取",
127
+ "文本切分工具。太长的文本合成出来效果不一定好,所以太长建议先切。合成会根据文本的换行分开合成再拼起来。": "文字切分工具。太長的文字合成出來效果不一定好,所以太長建議先切。合成會根據文字的換行分開合成再拼起來。",
128
+ "文本模块学习率权重": "文本模塊學習率權重",
129
+ "施工中,请静候佳音": "施工中,請靜候佳音",
130
+ "日文": "日文",
131
+ "日英混合": "日英混合",
132
+ "是否仅保存最新的权重文件以节省硬盘空间": "是否僅保存最新的權重文件以節省硬盤空間",
133
+ "是否在每次保存时间点将最终小模型保存至weights文件夹": "是否在每次保存時間點將最終小模型保存至weights文件夾",
134
+ "是否开启DPO训练选项(实验性)": "是否開啟DPO訓練選項(實驗性)",
135
+ "是否直接对上次合成结果调整语速和音色。防止随机性。": "是否直接對上次合成結果調整語速和音色,以防止隨機性。",
136
+ "显卡信息": "顯卡資訊",
137
+ "未下载模型": "未下載模型",
138
+ "本软件以MIT协议开源, 作者不对软件具备任何控制力, 使用软件者、传播软件导出的声音者自负全责.": "本軟體以MIT協議開源,作者不對軟體具備任何控制力,使用軟體者、傳播軟體導出的聲音者自負全責。",
139
+ "标注文件路径 (含文件后缀 *.list)": "標註文件路徑 (含文件後綴 *.list)",
140
+ "模型": "模型",
141
+ "模型分为三类:": "模型分為三類:",
142
+ "模型切换": "模型切換",
143
+ "每张显卡的batch_size": "每張顯卡的batch_size",
144
+ "版本": "版本",
145
+ "粤英混合": "粵英混合",
146
+ "粤语": "粵語",
147
+ "终止合成": "終止合成",
148
+ "缺少Hubert数据集": "缺少Hubert數據集",
149
+ "缺少语义数据集": "缺少語義數據集",
150
+ "缺少音素数据集": "缺少音素數據集",
151
+ "缺少音频数据集": "缺少音頻數據集",
152
+ "英文": "英文",
153
+ "训练集格式化一键三连": "訓練集格式化一鍵三連",
154
+ "训练集格式化工具": "訓練集格式化工具",
155
+ "语义Token提取": "語義Token提取",
156
+ "语速": "語速",
157
+ "语速调整,高为更快": "調整語速,高為更快",
158
+ "语速调节不支持分桶处理,已自动关闭分桶处理": "語速調節不支援分桶處理,已自動關閉分桶處理",
159
+ "语音切分": "語音切分",
160
+ "语音切分工具": "語音切分工具",
161
+ "语音文本校对标注工具": "語音文本校對標註工具",
162
+ "语音自监督特征提取": "語音自監督特徵提取",
163
+ "语音识别": "語音識別",
164
+ "语音识别工具": "語音識別工具",
165
+ "语音降噪": "語音降噪",
166
+ "语音降噪工具": "語音降噪工具",
167
+ "请上传3~10秒内参考音频,超过会报错!": "請上傳3~10秒內參考音頻,超過會報錯!",
168
+ "请上传参考音频": "請上傳參考音頻",
169
+ "请填入推理文本": "請填入推理文本",
170
+ "请填入正确的List路径": "請填寫正確的列表路徑",
171
+ "请填入正确的音频文件夹路径": "請填寫正確的音頻文件夾路徑",
172
+ "请输入有效文本": "請輸入有效文本",
173
+ "路径不存在,使用默认配置": "路徑不存在,使用預設配置",
174
+ "路径不能为空": "路徑不應該為空",
175
+ "路径错误": "路徑錯誤",
176
+ "转换": "轉換",
177
+ "辅参考音频(可选多个,或不选)": "輔參考音檔(可選多個,或不選)",
178
+ "输入待处理音频文件夹路径": "輸入待處理音頻資料夾路徑",
179
+ "输入文件夹路径": "輸入文件夾路徑",
180
+ "输入路径不存在": "輸入路徑不存在",
181
+ "输入路径存在但不可用": "輸入路徑存在但不可用",
182
+ "输出logs/实验名目录下应有23456开头的文件和文件夹": "輸出logs/實驗名目錄下應有23456開頭的文件和文件夾",
183
+ "输出信息": "輸出訊息",
184
+ "输出文件夹路径": "輸出文件夾路徑",
185
+ "输出的语音": "輸出的語音",
186
+ "运行中": "運行中",
187
+ "进度": "進度",
188
+ "进程已终止": "進程已終止",
189
+ "进程输出信息": "進程輸出資訊",
190
+ "选择训练完存放在SoVITS_weights和GPT_weights下的模型。默认的一个是底模,体验5秒Zero Shot TTS用。": "選擇訓練完存放在SoVITS_weights和GPT_weights下的模型。默認的一個是底模,體驗5秒Zero Shot TTS用。",
191
+ "采样步数,如果觉得电,提高试试,如果觉得慢,降低试试": "採樣步數,如果覺得電,提高試試,如果覺得慢,降低試試",
192
+ "重复惩罚": "重複懲罰",
193
+ "随机种子": "隨機種子",
194
+ "需先终止才能开启下一次任务": "需先終止才能開啟下一次任務",
195
+ "需要合成的切分前文本": "需要合成的切分前文字",
196
+ "需要合成的文本": "需要合成的文本",
197
+ "需要合成的文本的语种": "需要合成的文字語種",
198
+ "需要合成的语种": "需要合成的語種",
199
+ "韩文": "韓文",
200
+ "韩英混合": "韓英混合",
201
+ "音频加载失败": "無法加載音頻",
202
+ "音频文件不存在,跳过:": "音檔不存在,跳過:",
203
+ "音频标注WebUI": "音頻標註WebUI",
204
+ "音频自动切分输入路径,可文件可文件夹": "音頻自動切分輸入路徑,可文件可文件夾",
205
+ "音频超分中": "音頻超分中",
206
+ "预训练GPT模型路径": "預訓練GPT模型路徑",
207
+ "预训练SSL模型路径": "預訓練SSL模型路徑",
208
+ "预训练SoVITS-D模型路径": "預訓練SoVITS-D模型路徑",
209
+ "预训练SoVITS-G模型路径": "預訓練SoVITS-G模型路徑",
210
+ "预训练中文BERT模型路径": "預訓練中文BERT模型路徑"
211
+ }
tools/i18n/scan_i18n.py ADDED
@@ -0,0 +1,137 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ import ast
2
+ import glob
3
+ import json
4
+ import os
5
+ from collections import OrderedDict
6
+
7
+ I18N_JSON_DIR: os.PathLike = os.path.join(os.path.dirname(os.path.relpath(__file__)), "locale")
8
+ DEFAULT_LANGUAGE: str = "zh_CN" # 默认语言
9
+ TITLE_LEN: int = 60 # 标题显示长度
10
+ KEY_LEN: int = 30 # 键名显示长度
11
+ SHOW_KEYS: bool = False # 是否显示键信息
12
+ SORT_KEYS: bool = False # 是否按全局键名写入文件
13
+
14
+
15
+ def extract_i18n_strings(node):
16
+ i18n_strings = []
17
+
18
+ if isinstance(node, ast.Call) and isinstance(node.func, ast.Name) and node.func.id == "i18n":
19
+ for arg in node.args:
20
+ if isinstance(arg, ast.Str):
21
+ i18n_strings.append(arg.s)
22
+
23
+ for child_node in ast.iter_child_nodes(node):
24
+ i18n_strings.extend(extract_i18n_strings(child_node))
25
+
26
+ return i18n_strings
27
+
28
+
29
+ def scan_i18n_strings():
30
+ """
31
+ scan the directory for all .py files (recursively)
32
+ for each file, parse the code into an AST
33
+ for each AST, extract the i18n strings
34
+ """
35
+ strings = []
36
+ print(" Scanning Files and Extracting i18n Strings ".center(TITLE_LEN, "="))
37
+ for filename in glob.iglob("**/*.py", recursive=True):
38
+ try:
39
+ with open(filename, "r", encoding="utf-8") as f:
40
+ code = f.read()
41
+ if "I18nAuto" in code:
42
+ tree = ast.parse(code)
43
+ i18n_strings = extract_i18n_strings(tree)
44
+ print(f"{filename.ljust(KEY_LEN * 3 // 2)}: {len(i18n_strings)}")
45
+ if SHOW_KEYS:
46
+ print("\n".join([s for s in i18n_strings]))
47
+ strings.extend(i18n_strings)
48
+ except Exception as e:
49
+ print(f"\033[31m[Failed] Error occur at {filename}: {e}\033[0m")
50
+
51
+ code_keys = set(strings)
52
+ print(f"{'Total Unique'.ljust(KEY_LEN * 3 // 2)}: {len(code_keys)}")
53
+ return code_keys
54
+
55
+
56
+ def update_i18n_json(json_file, standard_keys):
57
+ standard_keys = sorted(standard_keys)
58
+ print(f" Process {json_file} ".center(TITLE_LEN, "="))
59
+ # 读取 JSON 文件
60
+ with open(json_file, "r", encoding="utf-8") as f:
61
+ json_data = json.load(f, object_pairs_hook=OrderedDict)
62
+ # 打印处理前的 JSON 条目数
63
+ len_before = len(json_data)
64
+ print(f"{'Total Keys'.ljust(KEY_LEN)}: {len_before}")
65
+ # 识别缺失的键并补全
66
+ miss_keys = set(standard_keys) - set(json_data.keys())
67
+ if len(miss_keys) > 0:
68
+ print(f"{'Missing Keys (+)'.ljust(KEY_LEN)}: {len(miss_keys)}")
69
+ for key in miss_keys:
70
+ if DEFAULT_LANGUAGE in json_file:
71
+ # 默认语言的键值相同.
72
+ json_data[key] = key
73
+ else:
74
+ # 其他语言的值设置为 #! + 键名以标注未被翻译.
75
+ json_data[key] = "#!" + key
76
+ if SHOW_KEYS:
77
+ print(f"{'Added Missing Key'.ljust(KEY_LEN)}: {key}")
78
+ # 识别多余的键并删除
79
+ diff_keys = set(json_data.keys()) - set(standard_keys)
80
+ if len(diff_keys) > 0:
81
+ print(f"{'Unused Keys (-)'.ljust(KEY_LEN)}: {len(diff_keys)}")
82
+ for key in diff_keys:
83
+ del json_data[key]
84
+ if SHOW_KEYS:
85
+ print(f"{'Removed Unused Key'.ljust(KEY_LEN)}: {key}")
86
+ # 按键顺序排序
87
+ json_data = OrderedDict(
88
+ sorted(
89
+ json_data.items(),
90
+ key=lambda x: (
91
+ list(standard_keys).index(x[0])
92
+ if x[0] in standard_keys and not x[1].startswith("#!")
93
+ else len(json_data),
94
+ ),
95
+ )
96
+ )
97
+ # 打印处理后的 JSON 条目数
98
+ if len(miss_keys) != 0 or len(diff_keys) != 0:
99
+ print(f"{'Total Keys (After)'.ljust(KEY_LEN)}: {len(json_data)}")
100
+ # 识别有待翻译的键
101
+ num_miss_translation = 0
102
+ duplicate_items = {}
103
+ for key, value in json_data.items():
104
+ if value.startswith("#!"):
105
+ num_miss_translation += 1
106
+ if SHOW_KEYS:
107
+ print(f"{'Missing Translation'.ljust(KEY_LEN)}: {key}")
108
+ if value in duplicate_items:
109
+ duplicate_items[value].append(key)
110
+ else:
111
+ duplicate_items[value] = [key]
112
+ # 打印是否有重复的值
113
+ for value, keys in duplicate_items.items():
114
+ if len(keys) > 1:
115
+ print(
116
+ "\n".join(
117
+ [f"\033[31m{'[Failed] Duplicate Value'.ljust(KEY_LEN)}: {key} -> {value}\033[0m" for key in keys]
118
+ )
119
+ )
120
+
121
+ if num_miss_translation > 0:
122
+ print(f"\033[31m{'[Failed] Missing Translation'.ljust(KEY_LEN)}: {num_miss_translation}\033[0m")
123
+ else:
124
+ print("\033[32m[Passed] All Keys Translated\033[0m")
125
+ # 将处理后的结果写入 JSON 文件
126
+ with open(json_file, "w", encoding="utf-8") as f:
127
+ json.dump(json_data, f, ensure_ascii=False, indent=4, sort_keys=SORT_KEYS)
128
+ f.write("\n")
129
+ print(f" Updated {json_file} ".center(TITLE_LEN, "=") + "\n")
130
+
131
+
132
+ if __name__ == "__main__":
133
+ code_keys = scan_i18n_strings()
134
+ for json_file in os.listdir(I18N_JSON_DIR):
135
+ if json_file.endswith(r".json"):
136
+ json_file = os.path.join(I18N_JSON_DIR, json_file)
137
+ update_i18n_json(json_file, code_keys)