Spaces:
Running
Running
File size: 1,114 Bytes
6c226f9 588b387 d790c0b 6c226f9 588b387 6c226f9 588b387 3c0cd8e bab1585 6c226f9 588b387 6c226f9 13e0565 1faae08 13e0565 6c226f9 bab1585 6c226f9 588b387 3c0cd8e 53b8fc6 bab1585 3c0cd8e 6c226f9 9c4478d 6c226f9 5208902 7097513 |
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 |
import gradio as gr
from whisper2 import generate
MODEL_NAME = "/whisper-large-v3"
def transcribe(inputs):
if inputs is None:
raise gr.Error("Cap fitxer d'脿udio introduit! Si us plau pengeu un fitxer "\
"o enregistreu un 脿udio abans d'enviar la vostra sol路licitud")
return generate(audio=inputs)
description_string = "Transcripci贸 autom脿tica de micr貌fon o de fitxers d'脿udio.\n Aquest demostrador s'ha desenvolupat per"\
" comprovar els models de reconeixement de parla per a m贸bils. Per ara utilitza el checkpoint "\
f"[{MODEL_NAME}](https://huggingface.co/{MODEL_NAME}) i la llibreria de 馃 Transformers per a la transcripci贸."
file_transcribe = gr.Interface(
fn=transcribe,
inputs=[
gr.Audio(sources=["upload", "microphone"], type="filepath", label="Audio")
],
outputs="text",
title="Transcripci贸 autom脿tica d'脿udio",
description=(description_string),
allow_flagging="never",
)
demo = gr.TabbedInterface([file_transcribe], ["Fitxer"])
if __name__ == "__main__":
demo.launch()
|