pedromsfaria commited on
Commit
4dc33e7
·
1 Parent(s): f4af34e

Update app.py

Browse files
Files changed (1) hide show
  1. app.py +5 -3
app.py CHANGED
@@ -219,6 +219,9 @@ def get_youtube(video_url):
219
  def speech_to_text(video_file_path, selected_source_lang, whisper_model, num_speakers):
220
  """
221
  # Transcreva o link do youtube usando OpenAI Whisper
 
 
 
222
  1. Usando o modelo Whisper da Open AI para separar áudio em segmentos e gerar transcrições.
223
  2. Gerando embeddings de alto-falante para cada segmento.
224
  3. Aplicando clustering aglomerativo nos embeddings para identificar o falante de cada segmento.
@@ -386,9 +389,8 @@ with demo:
386
  ### Pode testar com os seguintes exemplos:
387
  ''')
388
  examples = gr.Examples(examples=
389
- [ "https://www.youtube.com/watch?v=j7BfEzAFuYc&t=32s",
390
- "https://www.youtube.com/watch?v=-UX0X45sYe4",
391
- "https://www.youtube.com/watch?v=7minSgqi-Gw"],
392
  label="Examples", inputs=[youtube_url_in])
393
 
394
 
 
219
  def speech_to_text(video_file_path, selected_source_lang, whisper_model, num_speakers):
220
  """
221
  # Transcreva o link do youtube usando OpenAI Whisper
222
+
223
+ NOTA: Este modelo foi adaptado por Pedro Faria, para exemplo para a Biometrid, não deve ser usado para outros fins.
224
+
225
  1. Usando o modelo Whisper da Open AI para separar áudio em segmentos e gerar transcrições.
226
  2. Gerando embeddings de alto-falante para cada segmento.
227
  3. Aplicando clustering aglomerativo nos embeddings para identificar o falante de cada segmento.
 
389
  ### Pode testar com os seguintes exemplos:
390
  ''')
391
  examples = gr.Examples(examples=
392
+ [ "https://youtu.be/mYT33lWKJyw",
393
+ "https://youtu.be/ctirgguI7RM"],
 
394
  label="Examples", inputs=[youtube_url_in])
395
 
396