{ "*GPT模型列表": "*Lista de modelos GPT", "*SoVITS模型列表": "*Lista de modelos Sovits", "*实验/模型名": "*Nome do experimento/modelo", "*文本标注文件": "*Arquivo de marcação de texto", "*训练集音频文件目录": "*Diretório de arquivos de áudio do conjunto de treinamento", "*请上传并填写参考信息": "#!*请上传并填写参考信息", "*请填写需要合成的目标文本和语种模式": "#!*请填写需要合成的目标文本和语种模式", ".list标注文件的路径": "#!.list标注文件的路径", "0-前置数据集获取工具": "0- Ferramenta de aquisição de conjunto de dados pré-frontal", "0a-UVR5人声伴奏分离&去混响去延迟工具": "0A-UVR5 separação de voz e acompanhamento instrumental & ferramenta para remover reverberação e atraso", "0b-语音切分工具": "0b- Ferramenta de corte de voz", "0bb-语音降噪工具": "#!0bb-语音降噪工具", "0c-中文批量离线ASR工具": "0c- Ferramenta chinesa de ASR offline em lote", "0d-语音文本校对标注工具": "0d- Ferramenta de correção e marcação de texto de voz", "1-GPT-SoVITS-TTS": "1-GPT-SOVITS-TTS", "1A-训练集格式化工具": "1A-Ferramenta de formatação de conjunto de dados de treinamento", "1Aa-文本内容": "1AA-Conteúdo do texto", "1Aabc-训练集格式化一键三连": "1AABC-Formatação de conjunto de treinamento em um clique", "1Ab-SSL自监督特征提取": "1AB-Extração de características auto-supervisionadas SSL", "1Ac-语义token提取": "1AC-Extração de token semântico", "1B-微调训练": "1B-Treinamento de ajuste fino", "1Ba-SoVITS训练。用于分享的模型文件输出在SoVITS_weights下。": "1ba-Treinamento SoVITS. O arquivo de modelo para compartilhamento é gerado em SOVITS_WEIGHTS", "1Bb-GPT训练。用于分享的模型文件输出在GPT_weights下。": "1BB-Treinamento GPT. O arquivo de modelo para compartilhamento é gerado em GPT_WEIGHTS", "1C-推理": "1C-raciocínio", "2-GPT-SoVITS-变声": "2-gpt-sovits-mudança de voz", "ASR 模型": "#!ASR 模型", "ASR 模型尺寸": "#!ASR 模型尺寸", "ASR 语言设置": "#!ASR 语言设置", "ASR进程输出信息": "Informações de saída do processo ASR", "GPT模型列表": "#!GPT模型列表", "GPT训练进程输出信息": "Informações de saída do processo de treinamento GPT", "GPU卡号,只能填1个整数": "Número da placa de vídeo, só é possível preencher com um número inteiro", "GPU卡号以-分割,每个卡号一个进程": "Número da placa de vídeo dividido por-, cada número de placa é um processo", "SSL进程输出信息": "Informações de saída do processo SSL", "SoVITS模型列表": "#!SoVITS模型列表", "SoVITS训练进程输出信息": "Informações de saída do processo de treinamento SoVITS", "TTS推理WebUI进程输出信息": "Informações de saída do processo webui de raciocínio TTS", "TTS推理进程已关闭": "O processo de inferência TTS foi desativado", "TTS推理进程已开启": "O processo de inferência TTS foi iniciado", "UVR5已关闭": "UVR5 está desativado", "UVR5已开启": "UVR5 está ativado", "UVR5进程输出信息": "Informações de saída do processo UVR5", "alpha_mix:混多少比例归一化后音频进来": "alpha_mix: Em que proporção o áudio normalizado é misturado de volta", "gpt采样参数(无参考文本时不要太低):": "#!gpt采样参数(无参考文本时不要太低):", "hop_size:怎么算音量曲线,越小精度越大计算量越高(不是精度越大效果越好)": "HOP_SIZE: Como calcular a curva de volume, quanto menor a precisão, maior a quantidade de cálculos (não significa que quanto maior a precisão, melhor o efeito)", "max:归一化后最大值多少": "MAX: Qual é o valor máximo após a normalização?", "max_sil_kept:切完后静音最多留多长": "max_sil_kept: Depois de cortar, por quanto tempo no máximo o silêncio é mantido", "min_interval:最短切割间隔": "min_interval: O intervalo de corte mínimo", "min_length:每段最小多长,如果第一段太短一直和后面段连起来直到超过这个值": "min_length: O comprimento mínimo de cada parágrafo, se o primeiro for muito curto, conecte-o continuamente aos próximos até ultrapassar este valor", "temperature": "#!temperature", "threshold:音量小于这个值视作静音的备选切割点": "Limiar: O volume menor que este valor é considerado como um ponto de corte mudo alternativo", "top_k": "#!top_k", "top_p": "#!top_p", "一键三连进程输出信息": "Informações de saída do processo de um clique", "不切": "#!不切", "中文": "#!中文", "中文教程文档:https://www.yuque.com/baicaigongchang1145haoyuangong/ib3g1e": "#!中文教程文档:https://www.yuque.com/baicaigongchang1145haoyuangong/ib3g1e", "中英混合": "#!中英混合", "也可批量输入音频文件, 二选一, 优先读文件夹": "#!也可批量输入音频文件, 二选一, 优先读文件夹", "人声伴奏分离批量处理, 使用UVR5模型。
合格的文件夹路径格式举例: E:\\codes\\py39\\vits_vc_gpu\\白鹭霜华测试样例(去文件管理器地址栏拷就行了)。
模型分为三类:
1、保留人声:不带和声的音频选这个,对主人声保留比HP5更好。内置HP2和HP3两个模型,HP3可能轻微漏伴奏但对主人声保留比HP2稍微好一丁点;
2、仅保留主人声:带和声的音频选这个,对主人声可能有削弱。内置HP5一个模型;
3、去混响、去延迟模型(by FoxJoy):
  (1)MDX-Net(onnx_dereverb):对于双通道混响是最好的选择,不能去除单通道混响;
 (234)DeEcho:去除延迟效果。Aggressive比Normal去除得更彻底,DeReverb额外去除混响,可去除单声道混响,但是对高频重的板式混响去不干净。
去混响/去延迟,附:
1、DeEcho-DeReverb模型的耗时是另外2个DeEcho模型的接近2倍;
2、MDX-Net-Dereverb模型挺慢的;
3、个人推荐的最干净的配置是先MDX-Net再DeEcho-Aggressive。": "#!人声伴奏分离批量处理, 使用UVR5模型。
合格的文件夹路径格式举例: E:\\codes\\py39\\vits_vc_gpu\\白鹭霜华测试样例(去文件管理器地址栏拷就行了)。
模型分为三类:
1、保留人声:不带和声的音频选这个,对主人声保留比HP5更好。内置HP2和HP3两个模型,HP3可能轻微漏伴奏但对主人声保留比HP2稍微好一丁点;
2、仅保留主人声:带和声的音频选这个,对主人声可能有削弱。内置HP5一个模型;
3、去混响、去延迟模型(by FoxJoy):
  (1)MDX-Net(onnx_dereverb):对于双通道混响是最好的选择,不能去除单通道混响;
 (234)DeEcho:去除延迟效果。Aggressive比Normal去除得更彻底,DeReverb额外去除混响,可去除单声道混响,但是对高频重的板式混响去不干净。
去混响/去延迟,附:
1、DeEcho-DeReverb模型的耗时是另外2个DeEcho模型的接近2倍;
2、MDX-Net-Dereverb模型挺慢的;
3、个人推荐的最干净的配置是先MDX-Net再DeEcho-Aggressive。", "人声提取激进程度": "#!人声提取激进程度", "伴奏人声分离&去混响&去回声": "#!伴奏人声分离&去混响&去回声", "使用无参考文本模式时建议使用微调的GPT,听不清参考音频说的啥(不晓得写啥)可以开,开启后无视填写的参考文本。": "#!使用无参考文本模式时建议使用微调的GPT,听不清参考音频说的啥(不晓得写啥)可以开,开启后无视填写的参考文本。", "保存频率save_every_epoch": "Frequência de salvamento save_every_epoch", "凑50字一切": "#!凑50字一切", "凑四句一切": "#!凑四句一切", "切分后文本": "#!切分后文本", "切分后的子音频的输出根目录": "Diretório raiz de saída do sub-áudio após o corte", "切割使用的进程数": "Número de processos para corte", "刷新模型路径": "Atualizar caminho do modelo", "前端处理后的文本(每句):": "#!前端处理后的文本(每句):", "参考音频在3~10秒范围外,请更换!": "#!参考音频在3~10秒范围外,请更换!", "参考音频的文本": "#!参考音频的文本", "参考音频的语种": "#!参考音频的语种", "合成语音": "#!合成语音", "后续将支持转音素、手工修改音素、语音合成分步执行。": "#!后续将支持转音素、手工修改音素、语音合成分步执行。", "填切割后音频所在目录!读取的音频文件完整路径=该目录-拼接-list文件里波形对应的文件名(不是全路径)。如果留空则使用.list文件里的绝对全路径。": "#!填切割后音频所在目录!读取的音频文件完整路径=该目录-拼接-list文件里波形对应的文件名(不是全路径)。如果留空则使用.list文件里的绝对全路径。", "多语种混合": "#!多语种混合", "实际输入的参考文本:": "#!实际输入的参考文本:", "实际输入的目标文本(切句后):": "#!实际输入的目标文本(切句后):", "实际输入的目标文本(每句):": "#!实际输入的目标文本(每句):", "实际输入的目标文本:": "#!实际输入的目标文本:", "导出文件格式": "#!导出文件格式", "开启GPT训练": "Ativar treinamento GPT", "开启SSL提取": "Ativar extração SSL", "开启SoVITS训练": "Ativar treinamento SoVITS", "开启一键三连": "Ativar um clique", "开启文本获取": "Ativar obtenção de texto", "开启无参考文本模式。不填参考文本亦相当于开启。": "#!开启无参考文本模式。不填参考文本亦相当于开启。", "开启离线批量ASR": "Ativar ASR offline em lote", "开启语义token提取": "Ativar extração de token semântico", "开启语音切割": "Ativar corte de voz", "开启语音降噪": "#!开启语音降噪", "怎么切": "#!怎么切", "总训练轮数total_epoch": "Total de epoch de treinamento", "总训练轮数total_epoch,不建议太高": "Total de epoch de treinamento, não é recomendável um valor muito alto", "打标工具WebUI已关闭": "A ferramenta de marcação WebUI foi desativado", "打标工具WebUI已开启": "A ferramenta de marcação WebUI está ativada", "打标工具进程输出信息": "Informações de saída do processo da ferramenta de marcação", "指定输出主人声文件夹": "#!指定输出主人声文件夹", "指定输出非主人声文件夹": "#!指定输出非主人声文件夹", "按中文句号。切": "#!按中文句号。切", "按标点符号切": "#!按标点符号切", "按英文句号.切": "#!按英文句号.切", "文本切分工具。太长的文本合成出来效果不一定好,所以太长建议先切。合成会根据文本的换行分开合成再拼起来。": "#!文本切分工具。太长的文本合成出来效果不一定好,所以太长建议先切。合成会根据文本的换行分开合成再拼起来。", "文本模块学习率权重": "Weight da taxa de aprendizado do módulo de texto", "文本进程输出信息": "Informações de saída do processo de texto", "施工中,请静候佳音": "Em construção, por favor, aguarde por um bom som", "日文": "#!日文", "日英混合": "#!日英混合", "是否仅保存最新的ckpt文件以节省硬盘空间": "Se deve salvar apenas o último arquivo CKPT para economizar espaço em disco", "是否在每次保存时间点将最终小模型保存至weights文件夹": "Se deve salvar o modelo pequeno final na pasta Weights em cada ponto de salvamento de tempo", "是否开启TTS推理WebUI": "Se deseja ativar o webui de raciocínio TTS", "是否开启UVR5-WebUI": "Se deseja ativar a UVR5-WEBUI", "是否开启dpo训练选项(实验性)": "#!是否开启dpo训练选项(实验性)", "是否开启打标WebUI": "Se deseja abrir o webui de marcação", "显卡信息": "Informações da placa de vídeo", "本软件以MIT协议开源, 作者不对软件具备任何控制力, 使用软件者、传播软件导出的声音者自负全责.
如不认可该条款, 则不能使用或引用软件包内任何代码和文件. 详见根目录LICENSE.": "Este software é de código aberto sob a licença MIT. O autor não tem controle sobre o software. Aqueles que usam o software e difundem os sons exportados pelo software são totalmente responsáveis.
Se você não concorda com esta cláusula, não pode usar ou citar nenhum código e arquivo dentro do pacote de software. Consulte o diretório raiz LICENSE para mais detalhes.

Traduzido por Rafael Godoy Ebert", "模型": "#!模型", "模型切换": "#!模型切换", "每张显卡的batch_size": "Tamanho do lote de cada placa de vídeo", "终止ASR进程": "Encerrar processo ASR", "终止GPT训练": "Encerrar treinamento GPT", "终止SSL提取进程": "Encerrar processo de extração SSL", "终止SoVITS训练": "Encerrar treinamento SoVITS", "终止一键三连": "Encerrar um clique", "终止文本获取进程": "Encerrar processo de obtenção de texto", "终止语义token提取进程": "Encerrar processo de extração de token semântico", "终止语音切割": "Encerrar corte de voz", "终止语音降噪进程": "#!终止语音降噪进程", "英文": "#!英文", "语义token提取进程输出信息": "Informações de saída do processo de extração de token semântico", "语音切割进程输出信息": "Informações de saída do processo de corte de voz", "语音降噪进程输出信息": "#!语音降噪进程输出信息", "请上传3~10秒内参考音频,超过会报错!": "#!请上传3~10秒内参考音频,超过会报错!", "请输入有效文本": "#!请输入有效文本", "转换": "#!转换", "输入待处理音频文件夹路径": "#!输入待处理音频文件夹路径", "输入文件夹路径": "#!输入文件夹路径", "输出logs/实验名目录下应有23456开头的文件和文件夹": "Logs de saída/deve haver arquivos e pastas começando com 23456 no diretório do nome do experimento", "输出信息": "#!输出信息", "输出文件夹路径": "#!输出文件夹路径", "输出的语音": "#!输出的语音", "选择训练完存放在SoVITS_weights和GPT_weights下的模型。默认的一个是底模,体验5秒Zero Shot TTS用。": "Selecione os modelos armazenados em Sovits_weights e GPT_WEIGHTS. O padrão é o modelo inferior, experiência para 5 segundos de Zero Shot TTS", "降噪结果输出文件夹": "#!降噪结果输出文件夹", "降噪音频文件输入文件夹": "#!降噪音频文件输入文件夹", "需要合成的切分前文本": "#!需要合成的切分前文本", "需要合成的文本": "#!需要合成的文本", "需要合成的语种": "#!需要合成的语种", "音频自动切分输入路径,可文件可文件夹": "Caminho de entrada automático de corte de áudio, pode ser um arquivo ou uma pasta", "预训练的GPT模型路径": "Caminho do modelo GPT pre-train", "预训练的SSL模型路径": "Caminho do modelo SSL pre-train", "预训练的SoVITS-D模型路径": "Caminho do modelo SoVITS-D pre-train", "预训练的SoVITS-G模型路径": "Caminho do modelo SoVITS-G pre-train", "预训练的中文BERT模型路径": "Caminho do modelo BERT chinês pre-train" }