Peca33 commited on
Commit
3498704
verified
1 Parent(s): 4c4d83a

actualizacion: traduccion

Browse files
Files changed (1) hide show
  1. app.py +10 -29
app.py CHANGED
@@ -1,9 +1,3 @@
1
- """Proyecto 2: Modelos de IA
2
- Traducci贸n de audio en espa帽ol a audio en ingl茅s
3
- Modelo para la recogida del audio: https://huggingface.co/openai/whisper-large-v3-turbo
4
- Modelo texto-audio:
5
- """
6
-
7
  import whisper
8
  from transformers import pipeline
9
  import gradio as gr
@@ -14,18 +8,18 @@ from scipy.io.wavfile import write
14
  import tempfile
15
 
16
 
17
-
18
-
19
- # Cargar el modelo Whisper-large-v3-turbo
20
- transcribir = pipeline("automatic-speech-recognition", model="openai/whisper-small")
21
  bark = pipeline("text-to-speech", model="suno/bark")
22
 
23
- # Funci贸n para transcribir el audio
 
24
  def transcribir_audio(audio):
25
  # Usamos el pipeline de Hugging Face para la transcripci贸n
26
  result = transcribir_audio(audio)
27
  return result["text"]
28
 
 
29
  #Funci贸n para generar el audio
30
  def generar_audio(text):
31
  #Generar audio con Bark
@@ -42,26 +36,14 @@ def generar_audio(text):
42
 
43
 
44
  def process_audio(audio_file):
45
- # Paso 1: Transcripci贸n con Whisper
46
- transcripcion = transcribir(audio_file)["text"]
47
 
48
  # Paso 2: Generaci贸n de audio con Bark
49
- audio_sintetizado = generar_audio(transcripcion)
50
 
51
- return transcripcion, audio_sintetizado
52
-
53
 
54
- """# Crear la interfaz de usuario con Gradio
55
- iface = gr.Interface(
56
- fn=transcribir_audio,
57
- inputs=gr.Audio(type="filepath"), # Permite cargar o grabar audio
58
- outputs=gr.Audio(type="filepath", label="Tus palabras... pero en ingl茅s"), # Mostrar la transcripci贸n
59
- title="Traductor de voz",
60
- description="Carga o graba tu audio para traducirlo al ingl茅s."
61
- )
62
-
63
- # Iniciar la interfaz
64
- iface.launch()"""
65
 
66
  # Crear interfaz Gradio
67
  with gr.Blocks() as demo:
@@ -76,5 +58,4 @@ with gr.Blocks() as demo:
76
  process_button.click(process_audio, inputs=input_audio, outputs=[transcription_output, output_audio])
77
 
78
  # Lanzar la app
79
- demo.launch()
80
-
 
 
 
 
 
 
 
1
  import whisper
2
  from transformers import pipeline
3
  import gradio as gr
 
8
  import tempfile
9
 
10
 
11
+ # Cargar el modelo Whisper-small y bark
12
+ transcribir = pipeline("automatic-speech-recognition", model="openai/whisper-small", task="translate")
 
 
13
  bark = pipeline("text-to-speech", model="suno/bark")
14
 
15
+
16
+ # Funci贸n para transcribir el audio y traducir el audio de entrada
17
  def transcribir_audio(audio):
18
  # Usamos el pipeline de Hugging Face para la transcripci贸n
19
  result = transcribir_audio(audio)
20
  return result["text"]
21
 
22
+
23
  #Funci贸n para generar el audio
24
  def generar_audio(text):
25
  #Generar audio con Bark
 
36
 
37
 
38
  def process_audio(audio_file):
39
+ # Paso 1: Transcripci贸n y traducci贸n con Whisper
40
+ transcripcion_traducida = transcribir(audio_file)["text"]
41
 
42
  # Paso 2: Generaci贸n de audio con Bark
43
+ audio_sintetizado = generar_audio(transcripcion_traducida)
44
 
45
+ return transcripcion_traducida, audio_sintetizado
 
46
 
 
 
 
 
 
 
 
 
 
 
 
47
 
48
  # Crear interfaz Gradio
49
  with gr.Blocks() as demo:
 
58
  process_button.click(process_audio, inputs=input_audio, outputs=[transcription_output, output_audio])
59
 
60
  # Lanzar la app
61
+ demo.launch()