Spaces:
Runtime error
Runtime error
Commit
·
4dc33e7
1
Parent(s):
f4af34e
Update app.py
Browse files
app.py
CHANGED
@@ -219,6 +219,9 @@ def get_youtube(video_url):
|
|
219 |
def speech_to_text(video_file_path, selected_source_lang, whisper_model, num_speakers):
|
220 |
"""
|
221 |
# Transcreva o link do youtube usando OpenAI Whisper
|
|
|
|
|
|
|
222 |
1. Usando o modelo Whisper da Open AI para separar áudio em segmentos e gerar transcrições.
|
223 |
2. Gerando embeddings de alto-falante para cada segmento.
|
224 |
3. Aplicando clustering aglomerativo nos embeddings para identificar o falante de cada segmento.
|
@@ -386,9 +389,8 @@ with demo:
|
|
386 |
### Pode testar com os seguintes exemplos:
|
387 |
''')
|
388 |
examples = gr.Examples(examples=
|
389 |
-
[ "https://
|
390 |
-
"https://
|
391 |
-
"https://www.youtube.com/watch?v=7minSgqi-Gw"],
|
392 |
label="Examples", inputs=[youtube_url_in])
|
393 |
|
394 |
|
|
|
219 |
def speech_to_text(video_file_path, selected_source_lang, whisper_model, num_speakers):
|
220 |
"""
|
221 |
# Transcreva o link do youtube usando OpenAI Whisper
|
222 |
+
|
223 |
+
NOTA: Este modelo foi adaptado por Pedro Faria, para exemplo para a Biometrid, não deve ser usado para outros fins.
|
224 |
+
|
225 |
1. Usando o modelo Whisper da Open AI para separar áudio em segmentos e gerar transcrições.
|
226 |
2. Gerando embeddings de alto-falante para cada segmento.
|
227 |
3. Aplicando clustering aglomerativo nos embeddings para identificar o falante de cada segmento.
|
|
|
389 |
### Pode testar com os seguintes exemplos:
|
390 |
''')
|
391 |
examples = gr.Examples(examples=
|
392 |
+
[ "https://youtu.be/mYT33lWKJyw",
|
393 |
+
"https://youtu.be/ctirgguI7RM"],
|
|
|
394 |
label="Examples", inputs=[youtube_url_in])
|
395 |
|
396 |
|