RVC-UI / i18n /locale /ja_JP.json
Blane187's picture
Upload folder using huggingface_hub
c7b379a verified
raw
history blame
20.4 kB
{
"### Model comparison\n> You can get model ID (long) from `View model information` below.\n\nCalculate a similarity between two models.": "### モデル比べ\n> モデルID(長)は下の`モデル情報を表示`に得ることが出来ます。\n\n両モデルの推論相似度を比べることが出来ます。",
"### Model extraction\n> Enter the path of the large file model under the 'logs' folder.\n\nThis is useful if you want to stop training halfway and manually extract and save a small model file, or if you want to test an intermediate model.": "### モデル抽出\n> ログフォルダー内の大モデルのパスを入力\n\nモデルを半分まで学習し、小モデルを保存しなかった場合、又は中間モデルをテストしたい場合に適用されます。",
"### Model fusion\nCan be used to test timbre fusion.": "### モデルマージ\n音源のマージテストに使用できます",
"### Modify model information\n> Only supported for small model files extracted from the 'weights' folder.": "### モデル情報の修正\n> `weights`フォルダから抽出された小モデルのみ対応",
"### Step 1. Fill in the experimental configuration.\nExperimental data is stored in the 'logs' folder, with each experiment having a separate folder. Manually enter the experiment name path, which contains the experimental configuration, logs, and trained model files.": "### 第一歩 実験設定入力\n実験データはlogsフォルダーに、実験名別のフォルダで保存されたため、その実験名をご自分で決定する必要があります。実験設定、ログ、学習されたモデルファイルなどがそのフォルダに含まれています。",
"### Step 2. Audio processing. \n#### 1. Slicing.\nAutomatically traverse all files in the training folder that can be decoded into audio and perform slice normalization. Generates 2 wav folders in the experiment directory. Currently, only single-singer/speaker training is supported.": "### 第二歩 音声処理\n#### 1. 音声切分\n学習フォルダー内のすべての音声ファイルを自動的に探し出し、切分と正規化を行い、2つのwavフォルダーを実験ディレクトリに生成します。現在は単人モデルの学習のみを支援しています。",
"### Step 3. Start training.\nFill in the training settings and start training the model and index.": "### 第三歩 学習開始\n学習設定を入力して、モデルと索引の学習を開始します。",
"### View model information\n> Only supported for small model files extracted from the 'weights' folder.": "### モデル情報を表示\n> `weights`フォルダから抽出された小さなのみ対応",
"#### 2. Feature extraction.\nUse CPU to extract pitch (if the model has pitch), use GPU to extract features (select GPU index).": "#### 2. 特徴抽出\nCPUで音高を抽出し(モデルに音高がある場合のみ)、GPUで特徴を抽出する(GPU番号を選択すべし)",
"Actually calculated": "実際計算",
"Adjust the volume envelope scaling. Closer to 0, the more it mimicks the volume of the original vocals. Can help mask noise and make volume sound more natural when set relatively low. Closer to 1 will be more of a consistently loud volume": "入力ソースの音量エンベロープと出力音量エンベロープの融合率 1に近づくほど、出力音量エンベロープの割合が高くなる",
"Algorithmic delays (ms)": "推論遅延(ms)",
"All processes have been completed!": "全工程が完了!",
"Audio device": "音声デバイス",
"Auto-detect index path and select from the dropdown": "索引パスの自動検出 ドロップダウンで選択",
"Batch conversion. Enter the folder containing the audio files to be converted or upload multiple audio files. The converted audio will be output in the specified folder (default: 'opt').": "一括変換、変換する音声フォルダを入力、または複数の音声ファイルをアップロードし、指定したフォルダ(デフォルトのopt)に変換した音声を出力します。",
"Batch inference": "一括推論",
"Batch processing for vocal accompaniment separation using the UVR5 model.<br>Example of a valid folder path format: D:\\path\\to\\input\\folder (copy it from the file manager address bar).<br>The model is divided into three categories:<br>1. Preserve vocals: Choose this option for audio without harmonies. It preserves vocals better than HP5. It includes two built-in models: HP2 and HP3. HP3 may slightly leak accompaniment but preserves vocals slightly better than HP2.<br>2. Preserve main vocals only: Choose this option for audio with harmonies. It may weaken the main vocals. It includes one built-in model: HP5.<br>3. De-reverb and de-delay models (by FoxJoy):<br>  (1) MDX-Net: The best choice for stereo reverb removal but cannot remove mono reverb;<br>&emsp;(234) DeEcho: Removes delay effects. Aggressive mode removes more thoroughly than Normal mode. DeReverb additionally removes reverb and can remove mono reverb, but not very effectively for heavily reverberated high-frequency content.<br>De-reverb/de-delay notes:<br>1. The processing time for the DeEcho-DeReverb model is approximately twice as long as the other two DeEcho models.<br>2. The MDX-Net-Dereverb model is quite slow.<br>3. The recommended cleanest configuration is to apply MDX-Net first and then DeEcho-Aggressive.": "UVR5モデルを使用したボーカル伴奏の分離バッチ処理。<br>有効なフォルダーパスフォーマットの例: D:\\path\\to\\input\\folder (エクスプローラーのアドレスバーからコピーします)。<br>モデルは三つのカテゴリに分かれています:<br>1. ボーカルを保持: ハーモニーのないオーディオに対してこれを選択します。HP5よりもボーカルをより良く保持します。HP2とHP3の二つの内蔵モデルが含まれています。HP3は伴奏をわずかに漏らす可能性がありますが、HP2よりもわずかにボーカルをより良く保持します。<br>2. 主なボーカルのみを保持: ハーモニーのあるオーディオに対してこれを選択します。主なボーカルを弱める可能性があります。HP5の一つの内蔵モデルが含まれています。<br>3. ディリバーブとディレイモデル (by FoxJoy):<br>  (1) MDX-Net: ステレオリバーブの除去に最適な選択肢ですが、モノリバーブは除去できません;<br>&emsp;(234) DeEcho: ディレイ効果を除去します。AggressiveモードはNormalモードよりも徹底的に除去します。DeReverbはさらにリバーブを除去し、モノリバーブを除去することができますが、高周波のリバーブが強い内容に対しては非常に効果的ではありません。<br>ディリバーブ/ディレイに関する注意点:<br>1. DeEcho-DeReverbモデルの処理時間は、他の二つのDeEchoモデルの約二倍です。<br>2. MDX-Net-Dereverbモデルは非常に遅いです。<br>3. 推奨される最もクリーンな設定は、最初にMDX-Netを適用し、その後にDeEcho-Aggressiveを適用することです。",
"Batch size per GPU": "GPUごとのバッチサイズ",
"Cache all training sets to GPU memory. Caching small datasets (less than 10 minutes) can speed up training, but caching large datasets will consume a lot of GPU memory and may not provide much speed improvement": "すべての学習データをメモリにキャッシュするかどうか。10分以下の小さなデータはキャッシュして学習を高速化できますが、大きなデータをキャッシュするとメモリが破裂し、あまり速度が上がりません。",
"Calculate": "計算",
"Choose sample rate of the device": "デバイスサンプリング率を使用",
"Choose sample rate of the model": "モデルサンプリング率を使用",
"Convert": "変換",
"Device type": "デバイス種類",
"Enable phase vocoder": "启用相位声码器",
"Enter the GPU index(es) separated by '-', e.g., 0-0-1 to use 2 processes in GPU0 and 1 process in GPU1": "rmvpeカード番号設定:異なるプロセスに使用するカード番号を入力する。例えば、0-0-1でカード0に2つのプロセス、カード1に1つのプロセスを実行する。",
"Enter the GPU index(es) separated by '-', e.g., 0-1-2 to use GPU 0, 1, and 2": "ハイフンで区切って使用するGPUの番号を入力します。例えば0-1-2はGPU0、GPU1、GPU2を使用します",
"Enter the experiment name": "モデル名",
"Enter the path of the audio folder to be processed": "処理するオーディオファイルのフォルダパスを入力してください",
"Enter the path of the audio folder to be processed (copy it from the address bar of the file manager)": "処理対象音声フォルダーのパスを入力してください(エクスプローラーのアドレスバーからコピーしてください)",
"Enter the path of the training folder": "学習用フォルダのパスを入力してください",
"Exist": "有",
"Export Onnx": "Onnx抽出",
"Export Onnx Model": "Onnxに変換",
"Export audio (click on the three dots in the lower right corner to download)": "出力音声(右下の三点をクリックしてダウンロードできます)",
"Export file format": "エクスポート形式",
"Extra inference time": "追加推論時間",
"Extract": "抽出",
"F0 curve file (optional). One pitch per line. Replaces the default F0 and pitch modulation": "F0(最低共振周波数)カーブファイル(オプション、1行に1ピッチ、デフォルトのF0(最低共振周波数)とエレベーションを置き換えます。)",
"FAQ (Frequently Asked Questions)": "よくある質問",
"Fade length": "フェードイン/フェードアウト長",
"Fail": "失败",
"Feature extraction": "特徴抽出",
"Feature searching ratio": "検索特徴率",
"Formant offset": "共振偏移",
"Fusion": "マージ",
"GPU Information": "GPU情報",
"General settings": "一般設定",
"Hidden": "無表示",
"ID of model A (long)": "AモデルID(長)",
"ID of model B (long)": "BモデルID(長)",
"ID(long)": "ID(長)",
"ID(short)": "ID(短)",
"If >=3: apply median filtering to the harvested pitch results. The value represents the filter radius and can reduce breathiness.": ">=3 次に、harvestピッチの認識結果に対してメディアンフィルタを使用します。値はフィルター半径で、ミュートを減衰させるために使用します。",
"Inference time (ms)": "推論時間(ms)",
"Inferencing voice": "音源推論",
"Information": "情報",
"Input device": "入力デバイス",
"Input noise reduction": "入力騒音低減",
"Input voice monitor": "入力返聴",
"Link index to outside folder": "索引を外部フォルダへリンク",
"Load model": "モデルをロード",
"Load pre-trained base model D path": "事前学習済みのDモデルのパス",
"Load pre-trained base model G path": "事前学習済みのGモデルのパス",
"Loudness factor": "ラウドネス係数",
"Model": "モデル",
"Model Author": "モデル作者",
"Model Author (Nullable)": "モデル作者(空き可)",
"Model Inference": "モデル推論",
"Model architecture version": "モデルのバージョン",
"Model info": "モデル情報",
"Model information to be modified": "変更するモデル情報",
"Model information to be placed": "挿入するモデル情報",
"Model name": "モデル名",
"Modify": "変更",
"Multiple audio files can also be imported. If a folder path exists, this input is ignored.": "複数のオーディオファイルをインポートすることもできます。フォルダパスが存在する場合、この入力は無視されます。",
"No": "いいえ",
"None": "空き",
"Not exist": "無",
"Number of CPU processes used for harvest pitch algorithm": "harvestプロセス数",
"Number of CPU processes used for pitch extraction and data processing": "ピッチの抽出やデータ処理に使用するCPUスレッド数",
"One-click training": "ワンクリック学習",
"Onnx Export Path": "Onnx出力パス",
"Output converted voice": "出力音声変換",
"Output device": "出力デバイス",
"Output information": "出力情報",
"Output noise reduction": "出力騒音低減",
"Path to Model": "モデルパス",
"Path to Model A": "Aモデルのパス",
"Path to Model B": "Bモデルのパス",
"Path to the feature index file. Leave blank to use the selected result from the dropdown": "特徴検索ライブラリへのパス 空の場合はドロップダウンで選択",
"Performance settings": "パフォーマンス設定",
"Pitch detection algorithm": "ピッチアルゴリズム",
"Pitch guidance (f0)": "ピッチ導き(f0)",
"Pitch settings": "音程設定",
"Please choose the .index file": "indexファイルを選択してください",
"Please choose the .pth file": "pthファイルを選択してください",
"Please specify the speaker/singer ID": "話者IDを指定してください",
"Process data": "データ処理",
"Protect voiceless consonants and breath sounds to prevent artifacts such as tearing in electronic music. Set to 0.5 to disable. Decrease the value to increase protection, but it may reduce indexing accuracy": "明確な子音と呼吸音を保護し、電子音の途切れやその他のアーティファクトを防止します。0.5でオフになります。下げると保護が強化されますが、indexの効果が低下する可能性があります。",
"RVC Model Path": "RVCモデルパス",
"Read from model": "モデルから読込",
"Refresh voice list and index path": "音源リストと索引パスの更新",
"Reload device list": "デバイス列の再読込",
"Resample the output audio in post-processing to the final sample rate. Set to 0 for no resampling": "最終的なサンプリング率へのポストプロセッシングのリサンプリング リサンプリングしない場合は0",
"Response threshold": "反応閾値",
"Sample length": "サンプル長",
"Sampling rate": "サンプル率",
"Save a small final model to the 'weights' folder at each save point": "各保存時点の小モデルを全部weightsフォルダに保存するかどうか",
"Save file name (default: same as the source file)": "保存するファイル名、デフォルトでは空欄で元のファイル名と同じ名前になります",
"Save frequency (save_every_epoch)": "エポックごとの保存頻度",
"Save name": "保存ファイル名",
"Save only the latest '.ckpt' file to save disk space": "ハードディスク容量を節約するため、最新のckptファイルのみを保存しますか?",
"Saved model name (without extension)": "拡張子のない保存するモデル名",
"Sealing date": "締め日付",
"Select Speaker/Singer ID": "話者IDを選択してください",
"Select the .index file": ".indexファイルを選択",
"Select the .pth file": ".pthファイルを選択",
"Select the pitch extraction algorithm ('pm': faster extraction but lower-quality speech; 'harvest': better bass but extremely slow; 'crepe': better quality but GPU intensive), 'rmvpe': best quality, and little GPU requirement": "ピッチ抽出アルゴリズムの選択、歌声はpmで高速化でき、harvestは低音が良いが信じられないほど遅く、crepeは良く動くがGPUを喰います",
"Select the pitch extraction algorithm: when extracting singing, you can use 'pm' to speed up. For high-quality speech with fast performance, but worse CPU usage, you can use 'dio'. 'harvest' results in better quality but is slower. 'rmvpe' has the best results and consumes less CPU/GPU": "ピッチ抽出アルゴリズムの選択:歌声はpmで高速化でき、入力した音声が高音質でCPUが貧弱な場合はdioで高速化でき、harvestの方が良いが遅く、rmvpeがベストだがCPU/GPUを若干食います。",
"Similarity": "相似度",
"Similarity (from 0 to 1)": "相似度(0~1)",
"Single inference": "一度推論",
"Specify output folder": "出力フォルダを指定してください",
"Specify the output folder for accompaniment": "マスター以外の出力音声フォルダーを指定する",
"Specify the output folder for vocals": "マスターの出力音声フォルダーを指定する",
"Start audio conversion": "音声変換を開始",
"Step 1: Processing data": "step1:処理中のデータ",
"Step 3a: Model training started": "step3a:学習中のモデル",
"Stop audio conversion": "音声変換を停止",
"Successfully built index into": "成功构建索引到",
"Takeover WASAPI device": "WASAPIデバイスを独占",
"Target sample rate": "目標サンプリング率",
"The audio file to be processed": "処理待ち音声",
"This software is open source under the MIT license. The author does not have any control over the software. Users who use the software and distribute the sounds exported by the software are solely responsible. <br>If you do not agree with this clause, you cannot use or reference any codes and files within the software package. See the root directory <b>Agreement-LICENSE.txt</b> for details.": "本ソフトウェアはMITライセンスに基づくオープンソースであり、製作者は本ソフトウェアに対していかなる責任を持ちません。本ソフトウェアの利用者および本ソフトウェアから派生した音源(成果物)を配布する者は、本ソフトウェアに対して自身で責任を負うものとします。 <br>この条項に同意しない場合、パッケージ内のコードやファイルを使用や参照を禁じます。詳しくは<b>LICENSE</b>をご覧ください。",
"Total training epochs (total_epoch)": "総エポック数",
"Train": "学習",
"Train feature index": "特徴索引の学習",
"Train model": "モデルの学習",
"Training complete. You can check the training logs in the console or the 'train.log' file under the experiment folder.": "学習終了時に、学習ログやフォルダ内のtrain.logを確認することができます",
"Transpose (integer, number of semitones, raise by an octave: 12, lower by an octave: -12)": "ピッチ変更(整数、半音数、上下オクターブ12-12)",
"Unfortunately, there is no compatible GPU available to support your training.": "学習に対応したGPUが動作しないのは残念です。",
"Unknown": "未知",
"Unload model to save GPU memory": "音源を削除してメモリを節約",
"Version": "バージョン",
"View": "表示",
"Vocals/Accompaniment Separation & Reverberation Removal": "伴奏ボーカル分離&残響除去&エコー除去",
"Weight (w) for Model A": "Aモデル占有率",
"Whether the model has pitch guidance": "モデルに音高ガイドを付けるかどうか",
"Whether the model has pitch guidance (1: yes, 0: no)": "モデルに音高ガイドを付けるかどうか、1は付ける、0は付けない",
"Whether the model has pitch guidance (required for singing, optional for speech)": "モデルに音高ガイドがあるかどうか(歌唱には必要ですが、音声には必要ありません)",
"Yes": "はい",
"ckpt Processing": "ckptファイルの処理",
"index path cannot contain unicode characters": "indexファイルのパスに漢字を含んではいけません",
"pth path cannot contain unicode characters": "pthファイルのパスに漢字を含んではいけません",
"step2:Pitch extraction & feature extraction": "step2:ピッチ抽出と特徴抽出"
}