Spaces:
Running
Running
import os | |
import sys | |
import subprocess | |
import gradio as gr | |
from pydub import AudioSegment | |
import tempfile | |
from scipy.io.wavfile import write, read | |
from TTS.api import TTS | |
import numpy as np | |
import torch | |
import torchaudio | |
from resemble_enhance.enhancer.inference import denoise | |
# Установка переменных окружения для принятия лицензионных условий | |
os.environ["COQUI_TOS_AGREED"] = "1" | |
# Определение устройства (CUDA или CPU) | |
device = torch.device("cuda" if torch.cuda.is_available() else "cpu") | |
# Глобальные переменные и настройки | |
language_options = { | |
"English (en)": "en", | |
"Spanish (es)": "es", | |
"French (fr)": "fr", | |
"German (de)": "de", | |
"Italian (it)": "it", | |
"Portuguese (pt)": "pt", | |
"Polish (pl)": "pl", | |
"Turkish (tr)": "tr", | |
"Russian (ru)": "ru", | |
"Dutch (nl)": "nl", | |
"Czech (cs)": "cs", | |
"Arabic (ar)": "ar", | |
"Chinese (zh-cn)": "zh-cn", | |
"Japanese (ja)": "ja", | |
"Hungarian (hu)": "hu", | |
"Korean (ko)": "ko", | |
"Hindi (hi)": "hi" | |
} | |
other_language = { | |
"Vietnamese": "vie", | |
"Serbian": "srp", | |
"Romanian": "ron", | |
"Indonesian": "ind", | |
"Philippine": "tgl", | |
"Bulgarian": "bul", | |
} | |
# Инициализация модели TTS | |
tts = TTS("tts_models/multilingual/multi-dataset/xtts_v2") | |
# Функции для голосового клонирования | |
def check_audio_length(audio_path, max_duration=120): | |
try: | |
audio = AudioSegment.from_file(audio_path) | |
duration = audio.duration_seconds | |
if duration > max_duration: | |
print(f"Audio is too long: {duration} seconds. Max allowed is {max_duration} seconds.") | |
return False | |
return True | |
except Exception as e: | |
print(f"Error while checking audio length: {e}") | |
return False | |
def synthesize_and_convert_voice(text, language_iso, voice_audio_path, speed): | |
# Синтез речи с помощью TTS | |
tts_synthesis = TTS(model_name=f"tts_models/{language_iso}/fairseq/vits") | |
wav_data = tts_synthesis.tts(text, speed=speed) | |
# Преобразование wav_data из списка в NumPy массив с типом float32 | |
wav_data_np = np.array(wav_data, dtype=np.float32) | |
# Нормализация данных, если необходимо | |
max_val = np.max(np.abs(wav_data_np)) | |
if max_val > 1.0: | |
wav_data_np = wav_data_np / max_val | |
# Масштабирование до int16 для записи в WAV файл | |
wav_data_int16 = np.int16(wav_data_np * 32767) | |
# Сохранение синтезированного аудио во временный файл | |
with tempfile.NamedTemporaryFile(suffix='.wav', delete=False) as temp_tts_wav_file: | |
temp_tts_wav_path = temp_tts_wav_file.name | |
write(temp_tts_wav_path, 22050, wav_data_int16) | |
# Загрузка синтезированного аудио | |
wav_tensor, sample_rate = torchaudio.load(temp_tts_wav_path) | |
# Преобразование в моно, если аудио стерео | |
if wav_tensor.dim() > 1 and wav_tensor.size(0) > 1: | |
wav_tensor = wav_tensor.mean(dim=0, keepdim=True) | |
# Применение денойзинга (не перемещаем wav_tensor на устройство) | |
denoised_wav_tensor, denoised_sample_rate = denoise(wav_tensor.squeeze(), sample_rate, device) | |
# Сохранение денойзенного аудио во временный файл | |
with tempfile.NamedTemporaryFile(suffix='.wav', delete=False) as temp_denoised_wav_file: | |
temp_denoised_wav_path = temp_denoised_wav_file.name | |
torchaudio.save(temp_denoised_wav_path, denoised_wav_tensor.unsqueeze(0).cpu(), denoised_sample_rate) | |
# Преобразование голоса с использованием денойзенного аудио | |
tts_conversion = TTS(model_name="voice_conversion_models/multilingual/vctk/freevc24", progress_bar=False) | |
# Подготовка временного выходного файла | |
with tempfile.NamedTemporaryFile(suffix='.wav', delete=False) as temp_output_wav_file: | |
temp_output_wav_path = temp_output_wav_file.name | |
# Преобразование голоса | |
tts_conversion.voice_conversion_to_file(temp_denoised_wav_path, target_wav=voice_audio_path, | |
file_path=temp_output_wav_path) | |
# Чтение преобразованного аудио | |
output_sample_rate, output_audio_data = read(temp_output_wav_path) | |
# Удаление временных файлов | |
os.remove(temp_tts_wav_path) | |
os.remove(temp_denoised_wav_path) | |
os.remove(temp_output_wav_path) | |
return (output_sample_rate, output_audio_data) | |
def synthesize_speech(text, speaker_wav_path, language_iso, speed): | |
# Загрузка аудио говорящего | |
speaker_wav_tensor, speaker_sample_rate = torchaudio.load(speaker_wav_path) | |
# Преобразование в моно, если аудио стерео | |
if speaker_wav_tensor.dim() > 1 and speaker_wav_tensor.size(0) > 1: | |
speaker_wav_tensor = speaker_wav_tensor.mean(dim=0, keepdim=True) | |
# Применение денойзинга к аудио говорящего | |
denoised_speaker_wav_tensor, denoised_speaker_sample_rate = denoise( | |
speaker_wav_tensor.squeeze(), speaker_sample_rate, device | |
) | |
# Сохранение денойзенного аудио говорящего во временный файл | |
with tempfile.NamedTemporaryFile(suffix='.wav', delete=False) as temp_denoised_speaker_file: | |
temp_denoised_speaker_path = temp_denoised_speaker_file.name | |
torchaudio.save( | |
temp_denoised_speaker_path, | |
denoised_speaker_wav_tensor.unsqueeze(0).cpu(), | |
denoised_speaker_sample_rate | |
) | |
# Генерация речи с помощью TTS и сохранение во временный файл | |
with tempfile.NamedTemporaryFile(suffix='.wav', delete=False) as temp_tts_output: | |
temp_tts_output_path = temp_tts_output.name | |
tts.tts_to_file( | |
text=text, | |
file_path=temp_tts_output_path, | |
speed=speed, | |
speaker_wav=temp_denoised_speaker_path, | |
language=language_iso | |
) | |
# Загрузка сгенерированного аудио | |
wav_tensor, sample_rate = torchaudio.load(temp_tts_output_path) | |
# Преобразование в моно, если аудио стерео | |
if wav_tensor.dim() > 1 and wav_tensor.size(0) > 1: | |
wav_tensor = wav_tensor.mean(dim=0, keepdim=True) | |
# Сохранение сгенерированного аудио во временный файл для voice cloning | |
with tempfile.NamedTemporaryFile(suffix='.wav', delete=False) as temp_vc_input_file: | |
temp_vc_input_path = temp_vc_input_file.name | |
torchaudio.save(temp_vc_input_path, wav_tensor.cpu(), sample_rate) | |
# Инициализация модели voice conversion | |
tts_conversion = TTS( | |
model_name="voice_conversion_models/multilingual/vctk/freevc24", | |
progress_bar=False | |
) | |
# Подготовка временного выходного файла | |
with tempfile.NamedTemporaryFile(suffix='.wav', delete=False) as temp_output_wav_file: | |
temp_output_wav_path = temp_output_wav_file.name | |
# Преобразование голоса | |
tts_conversion.voice_conversion_to_file( | |
temp_vc_input_path, | |
target_wav=temp_denoised_speaker_path, | |
file_path=temp_output_wav_path | |
) | |
# Чтение преобразованного аудио | |
output_sample_rate, output_audio_data = read(temp_output_wav_path) | |
# Удаление временных файлов | |
os.remove(temp_denoised_speaker_path) | |
os.remove(temp_tts_output_path) | |
os.remove(temp_vc_input_path) | |
os.remove(temp_output_wav_path) | |
return (output_sample_rate, output_audio_data) | |
def get_language_code(selected_language): | |
if selected_language in language_options: | |
return language_options[selected_language] | |
elif selected_language in other_language: | |
return other_language[selected_language] | |
else: | |
return None | |
def process_speech(text, speaker_wav_path, selected_language, speed): | |
language_code = get_language_code(selected_language) | |
if language_code is None: | |
raise ValueError("Выбранный язык не поддерживается.") | |
if speaker_wav_path is None: | |
error_message = "Пожалуйста, загрузите аудио файл говорящего." | |
error = gr.Error(error_message, duration=5) | |
raise error | |
# Проверка длины аудио | |
audio = AudioSegment.from_file(speaker_wav_path) | |
duration = audio.duration_seconds | |
if duration > 120: | |
error_message = "Длина аудио превышает допустимый лимит в 2 минуты." | |
error = gr.Error(error_message, duration=5) | |
raise error | |
if selected_language in other_language: | |
output_audio_data = synthesize_and_convert_voice(text, language_code, speaker_wav_path, speed) | |
else: | |
output_audio_data = synthesize_speech(text, speaker_wav_path, language_code, speed) | |
return output_audio_data | |
def restart_program(): | |
python = sys.executable | |
os.execl(python, python, *sys.argv) | |
# Функции для липсинка | |
def generate(video, audio, checkpoint, no_smooth, resize_factor, pad_top, pad_bottom, pad_left, pad_right, save_as_video): | |
if video is None or audio is None or checkpoint is None: | |
return "Пожалуйста, загрузите видео/изображение и аудио файл, а также выберите чекпойнт." | |
print(f"Текущая рабочая директория: {os.getcwd()}") | |
print(f"Содержимое текущей директории: {os.listdir('.')}") | |
print(f"Проверка наличия 'inference.py': {os.path.exists('inference.py')}") | |
video_path = video # Путь к видео или изображению | |
audio_path = audio # Путь к аудио | |
print(f"Путь к видео: {video_path}") | |
print(f"Путь к аудио: {audio_path}") | |
output_dir = "outputs" | |
os.makedirs(output_dir, exist_ok=True) | |
output_path = os.path.join(output_dir, "output.mp4") | |
print(f"Путь к выходному файлу: {output_path}") | |
args = [ | |
"--checkpoint_path", f"checkpoints/{checkpoint}.pth", | |
"--segmentation_path", "checkpoints/face_segmentation.pth", | |
"--no_seg", | |
"--no_sr", | |
"--face", video_path, | |
"--audio", audio_path, | |
"--outfile", output_path, | |
"--resize_factor", str(resize_factor), | |
"--face_det_batch_size", "4", | |
"--wav2lip_batch_size", "64", | |
"--fps", "30", | |
"--pads", str(pad_top), str(pad_bottom), str(pad_left), str(pad_right) | |
] | |
if no_smooth: | |
args.append("--nosmooth") | |
if save_as_video: | |
args.append("--save_as_video") | |
try: | |
cmd = ["python", "inference.py"] + args | |
print(f"Запуск инференса с командой: {' '.join(cmd)}") | |
subprocess.run(cmd, check=True) | |
except subprocess.CalledProcessError as e: | |
print(f"Ошибка при выполнении команды: {e}") | |
return f"Произошла ошибка при обработке: {e}" | |
if not os.path.exists(output_path): | |
print("Выходной файл не существует.") | |
return "Не удалось создать выходное видео." | |
print(f"Выходной файл создан по пути: {output_path}") | |
return output_path # Возвращаем путь к выходному видео | |
# Создание Gradio интерфейса с вкладками | |
with gr.Blocks() as app: | |
gr.Markdown("# Voice Clone Union") | |
with gr.Tabs(): | |
with gr.TabItem("Voice Clone"): | |
# Интерфейс для голосового клонирования | |
text_input = gr.Textbox(label="Введите текст для генерации", placeholder="Введите ваш текст здесь...") | |
speaker_wav_input = gr.Audio(label="Загрузите аудио файла говорящего (WAV формат)", type="filepath") | |
all_languages = list(language_options.keys()) + list(other_language.keys()) | |
language_input = gr.Dropdown( | |
label="Язык", | |
choices=all_languages, | |
value="English (en)" | |
) | |
speed_input = gr.Slider( | |
label="Скорость синтеза", | |
minimum=0.1, | |
maximum=10, | |
step=0.1, | |
value=1.0, | |
info="Выберите скорость" | |
) | |
output_audio = gr.Audio(label="Сгенерированное аудио", type="filepath") | |
with gr.Row(): | |
synthesize_button = gr.Button("Сгенерировать") | |
gr.HTML("<div style='width:300px;'></div>") | |
reload_button = gr.Button("Перезапустить") | |
synthesize_button.click( | |
fn=process_speech, | |
inputs=[text_input, speaker_wav_input, language_input, speed_input], | |
outputs=output_audio | |
) | |
reload_button.click(fn=restart_program, inputs=None, outputs=None) | |
with gr.TabItem("Lipsync"): | |
# Интерфейс для липсинка | |
gr.Markdown("## Lipsync") | |
with gr.Row(): | |
video = gr.File(label="Видео или Изображение", type="filepath") | |
audio = gr.File(label="Аудио", type="filepath") | |
with gr.Column(): | |
checkpoint = gr.Radio(["wav2lip", "wav2lip_gan"], label="Чекпойнт", value="wav2lip_gan", visible=False) | |
no_smooth = gr.Checkbox(label="Без сглаживания", value=False) | |
resize_factor = gr.Slider(minimum=1, maximum=4, step=1, label="Фактор изменения размера", value=2) | |
with gr.Row(): | |
with gr.Column(): | |
pad_top = gr.Slider(minimum=0, maximum=50, step=1, value=0, label="Отступ сверху") | |
pad_bottom = gr.Slider(minimum=0, maximum=50, step=1, value=10, label="Отступ снизу") | |
pad_left = gr.Slider(minimum=0, maximum=50, step=1, value=0, label="Отступ слева") | |
pad_right = gr.Slider(minimum=0, maximum=50, step=1, value=0, label="Отступ справа") | |
save_as_video = gr.Checkbox(label="Сохранять как видео", value=True) | |
generate_btn = gr.Button("Сгенерировать") | |
with gr.Column(): | |
result = gr.Video(label="Результат") | |
generate_btn.click( | |
generate, | |
inputs=[video, audio, checkpoint, no_smooth, resize_factor, pad_top, pad_bottom, pad_left, pad_right, save_as_video], | |
outputs=result, | |
) | |
def launch_gradio(): | |
app.launch( | |
# Вы можете добавить параметры запуска здесь, если необходимо | |
) | |
if __name__ == "__main__": | |
launch_gradio() | |