Update app.py
Browse files
app.py
CHANGED
@@ -132,46 +132,6 @@ def process_yt_transcription(*args):
|
|
132 |
simplified_diarization = simplify_diarization_output(speaker_transcription)
|
133 |
return html_embed, raw_text, simplified_diarization
|
134 |
|
135 |
-
def create_process_explanation(tab_name):
|
136 |
-
if tab_name == "Fichier audio":
|
137 |
-
return gr.Markdown("""
|
138 |
-
### Comment fonctionne la transcription de fichier audio ?
|
139 |
-
1. Chargez votre fichier audio en utilisant le bouton de téléchargement.
|
140 |
-
2. Choisissez entre la transcription (même langue) ou la traduction (vers le français).
|
141 |
-
3. Cliquez sur 'Lancer la transcription' pour démarrer le processus.
|
142 |
-
4. Le modèle Whisper analysera votre audio et générera une transcription.
|
143 |
-
5. Si activé, le modèle de diarisation identifiera les différents locuteurs.
|
144 |
-
6. Examinez les résultats et modifiez-les si nécessaire.
|
145 |
-
7. Ajoutez des métadonnées optionnelles pour enrichir votre transcription.
|
146 |
-
8. Cliquez sur 'Générer la transcription formatée' pour obtenir le résultat final.
|
147 |
-
|
148 |
-
**Note sur la confidentialité**: Votre fichier audio est traité localement et n'est pas stocké après le traitement.
|
149 |
-
""")
|
150 |
-
elif tab_name == "Microphone":
|
151 |
-
return gr.Markdown("""
|
152 |
-
### Comment fonctionne l'enregistrement et la transcription en direct ?
|
153 |
-
1. Cliquez sur le bouton d'enregistrement pour commencer à capturer votre voix.
|
154 |
-
2. Parlez clairement dans votre microphone.
|
155 |
-
3. Cliquez à nouveau sur le bouton pour arrêter l'enregistrement.
|
156 |
-
4. Choisissez entre la transcription ou la traduction.
|
157 |
-
5. Cliquez sur 'Transcrire l'enregistrement' pour lancer le processus.
|
158 |
-
6. Le modèle Whisper traitera votre enregistrement et générera une transcription.
|
159 |
-
7. Examinez les résultats et utilisez le bouton 'Générer la transcription formatée' si nécessaire.
|
160 |
-
|
161 |
-
**Astuce**: Pour une meilleure qualité, utilisez un microphone externe et évitez les bruits de fond.
|
162 |
-
""")
|
163 |
-
elif tab_name == "YouTube":
|
164 |
-
return gr.Markdown("""
|
165 |
-
### Comment transcrire l'audio d'une vidéo YouTube ?
|
166 |
-
1. Collez l'URL de la vidéo YouTube dans le champ prévu.
|
167 |
-
2. Choisissez entre la transcription ou la traduction.
|
168 |
-
3. Cliquez sur 'Transcrire la vidéo' pour démarrer le processus.
|
169 |
-
4. Le modèle téléchargera l'audio de la vidéo et le traitera.
|
170 |
-
5. La transcription sera générée et affichée.
|
171 |
-
6. Vous pouvez examiner les résultats et utiliser le bouton 'Générer la transcription formatée'.
|
172 |
-
|
173 |
-
**Note**: La durée maximale des vidéos est limitée à 1 heure pour des raisons de performance.
|
174 |
-
""")
|
175 |
|
176 |
# New functions for progress indicator
|
177 |
def create_progress_indicator():
|
@@ -354,7 +314,7 @@ demo = gr.Blocks(
|
|
354 |
|
355 |
|
356 |
with demo:
|
357 |
-
gr.Markdown("# 🎙️ Scribe : Assistant de Transcription Audio Intelligent 📝")
|
358 |
gr.HTML(
|
359 |
"""
|
360 |
<div class="logo">
|
@@ -362,7 +322,7 @@ with demo:
|
|
362 |
</div>
|
363 |
"""
|
364 |
)
|
365 |
-
gr.Markdown("## **Bienvenue sur Scribe,
|
366 |
|
367 |
gr.Markdown("""
|
368 |
### 🔍 **Fonctionnement du Modèle** :
|
@@ -502,14 +462,14 @@ with demo:
|
|
502 |
|
503 |
with gr.Accordion("❓ README :", open=False):
|
504 |
gr.Markdown("""
|
505 |
-
- Concepteur :
|
506 |
- Modèles :
|
507 |
- [Whisper-médium](https://huggingface.co/openai/whisper-medium) : Model size - 764M params - Tensor type F32 -
|
508 |
- [speaker-diarization-3.1](https://huggingface.co/pyannote/speaker-diarization-3.1) : Model size - Unknow - Tensor type F32 -
|
509 |
-
- Version :
|
510 |
- Langues : FR, EN
|
511 |
-
- Copyright :
|
512 |
-
- [En savoir +](README.md)
|
513 |
""")
|
514 |
|
515 |
# Connexions des boutons aux fonctions appropriées
|
|
|
132 |
simplified_diarization = simplify_diarization_output(speaker_transcription)
|
133 |
return html_embed, raw_text, simplified_diarization
|
134 |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
135 |
|
136 |
# New functions for progress indicator
|
137 |
def create_progress_indicator():
|
|
|
314 |
|
315 |
|
316 |
with demo:
|
317 |
+
gr.Markdown("# 🎙️ **Scribe** : Assistant de Transcription Audio Intelligent 📝")
|
318 |
gr.HTML(
|
319 |
"""
|
320 |
<div class="logo">
|
|
|
322 |
</div>
|
323 |
"""
|
324 |
)
|
325 |
+
gr.Markdown("## **Bienvenue sur Scribe, une solution pour la transcription audio. Transformez efficacement vos fichiers audio, enregistrements en direct ou vidéos YouTube en texte précis.**")
|
326 |
|
327 |
gr.Markdown("""
|
328 |
### 🔍 **Fonctionnement du Modèle** :
|
|
|
462 |
|
463 |
with gr.Accordion("❓ README :", open=False):
|
464 |
gr.Markdown("""
|
465 |
+
- Concepteur : Woziii
|
466 |
- Modèles :
|
467 |
- [Whisper-médium](https://huggingface.co/openai/whisper-medium) : Model size - 764M params - Tensor type F32 -
|
468 |
- [speaker-diarization-3.1](https://huggingface.co/pyannote/speaker-diarization-3.1) : Model size - Unknow - Tensor type F32 -
|
469 |
+
- Version : V.2.0.0-Bêta
|
470 |
- Langues : FR, EN
|
471 |
+
- Copyright : cc-by-nc-4.0
|
472 |
+
- [En savoir +](https://huggingface.co/spaces/Woziii/scribe/blob/main/README.md)
|
473 |
""")
|
474 |
|
475 |
# Connexions des boutons aux fonctions appropriées
|