File size: 22,238 Bytes
7efd2b1
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
76
77
78
79
80
81
82
83
84
85
86
87
88
89
90
91
92
93
94
95
96
97
98
99
100
101
102
103
104
105
106
107
108
109
110
111
112
113
114
115
116
117
118
119
120
121
122
123
124
125
126
127
128
129
130
131
132
133
134
135
136
137
138
139
140
141
142
143
144
145
146
147
148
149
150
151
152
153
154
155
156
157
158
159
160
161
162
163
164
165
166
167
168
169
170
171
172
173
174
175
176
177
178
179
180
181
182
183
184
185
186
187
188
189
190
191
192
193
194
195
196
197
198
199
200
201
202
203
204
205
206
207
208
209
210
211
212
213
214
215
216
217
218
219
220
221
222
223
224
225
226
227
228
229
230
231
232
233
234
235
236
237
238
239
240
241
242
243
244
245
246
247
248
249
250
251
252
253
254
255
256
257
258
259
260
261
262
263
264
265
266
267
268
269
270
271
272
273
274
275
276
277
278
279
280
281
282
283
284
285
286
287
288
289
290
291
292
293
294
295
296
297
298
299
300
301
302
303
304
305
306
307
308
309
310
311
312
313
314
315
316
317
318
319
320
321
322
323
324
325
326
327
328
329
330
331
332
333
334
335
336
337
338
339
340
341
342
343
344
345
346
347
348
349
350
351
352
353
354
355
356
357
358
359
360
361
362
363
364
365
366
367
368
369
370
371
372
373
374
375
376
377
378
379
380
381
382
383
384
385
386
387
388
389
390
391
392
393
394
395
396
397
398
399
400
401
402
403
404
405
406
407
408
409
410
411
412
413
414
415
416
417
418
419
420
421
422
423
424
425
426
427
428
429
430
431
432
433
434
435
436
437
438
439
440
441
442
443
444
445
446
447
448
449
450
451
452
453
454
455
456
457
458
459
460
461
462
463
464
465
466
467
468
469
470
471
472
473
474
475
476
477
478
479
480
481
482
483
484
485
486
487
488
import concurrent.futures as cf
import glob
import io
import os
import time
import asyncio
import re
import json
from pathlib import Path
from tempfile import NamedTemporaryFile
from typing import List, Literal

import gradio as gr
from edge_tts import Communicate
from loguru import logger
from openai import OpenAI
from promptic import llm
from pydantic import BaseModel, ValidationError
from pypdf import PdfReader
from tenacity import retry, retry_if_exception_type

# Define standard values
STANDARD_TEXT_MODELS = [
    "gpt-4-turbo",
    "gpt-3.5-turbo",
    "gpt-4o-2024-08-06",
    "gpt-4o",
    "gpt-4o-mini-2024-07-18",
    "gpt-4o-mini",
    "ollama/llama3.1:latest",
]

STANDARD_VOICES = [
    "fr-FR-DeniseNeural",
    "fr-FR-HenriNeural",
    "fr-FR-AlainNeural",
    "fr-FR-JacquelineNeural",
    "fr-FR-JeromeNeural",
    "fr-FR-YvesNeural",
]

class DialogueItem(BaseModel):
    text: str
    speaker: Literal["speaker-1", "speaker-2"]

class Dialogue(BaseModel):
    scratchpad: str
    dialogue: List[DialogueItem]

async def get_audio_async(text: str, voice: str) -> bytes:
    communicate = Communicate(text, voice)
    audio_data = b""
    async for chunk in communicate.stream():
        if chunk["type"] == "audio":
            audio_data += chunk["data"]
    return audio_data

def clean_and_parse_output(text):
    # Essayez de trouver un JSON valide dans le texte
    json_match = re.search(r'\{.*\}', text, re.DOTALL)
    if json_match:
        try:
            return json.loads(json_match.group())
        except json.JSONDecodeError:
            pass
    
    # Si aucun JSON valide n'est trouvé, essayez de construire un dictionnaire à partir du texte
    dialogue = []
    scratchpad = ""
    current_speaker = None
    for line in text.split('\n'):
        if line.startswith("speaker-1:") or line.startswith("speaker-2:"):
            current_speaker = line.split(':')[0]
            dialogue.append({"speaker": current_speaker, "text": line.split(':', 1)[1].strip()})
        elif current_speaker and line.strip():
            dialogue[-1]["text"] += " " + line.strip()
        elif not dialogue:
            scratchpad += line + "\n"
    
    return {"scratchpad": scratchpad.strip(), "dialogue": dialogue}

def get_audio(text: str, voice: str) -> bytes:
    return asyncio.run(get_audio_async(text, voice))

def conditional_llm(model, api_base=None, api_key=None):
    def decorator(func):
        if api_base:
            return llm(model=model, api_base=api_base)(func)
        else:
            return llm(model=model, api_key=api_key)(func)
    return decorator

def generate_audio(
    files: list,
    openai_api_key: str = None,
    text_model: str = "gpt-4-turbo",
    speaker_1_voice: str = "fr-FR-DeniseNeural",
    speaker_2_voice: str = "fr-FR-HenriNeural",
    api_base: str = None,
    intro_instructions: str = '',
    text_instructions: str = '',
    scratch_pad_instructions: str = '',
    prelude_dialog: str = '',
    podcast_dialog_instructions: str = '',
    edited_transcript: str = None,
    user_feedback: str = None,
    original_text: str = None,
) -> tuple:
    # Validate API Key
    if not os.getenv("OPENAI_API_KEY") and not openai_api_key:
        raise gr.Error("OpenAI API key is required")

    combined_text = original_text or ""

    if not combined_text:
        for file in files:
            with Path(file).open("rb") as f:
                reader = PdfReader(f)
                text = "\n\n".join([page.extract_text() for page in reader.pages if page.extract_text()])
                combined_text += text + "\n\n"

    # import logging
    # logging.basicConfig(level=logging.DEBUG)

    @retry(retry=retry_if_exception_type(ValidationError))
    @conditional_llm(model=text_model, api_base=api_base, api_key=openai_api_key)
    def generate_dialogue(text: str, intro_instructions: str, text_instructions: str, scratch_pad_instructions: str, 
                        prelude_dialog: str, podcast_dialog_instructions: str,
                        edited_transcript: str = None, user_feedback: str = None, ) -> Dialogue:
        """
        {intro_instructions}
        
        Voici le texte d'entrée original :
        
        <input_text>
        {text}
        </input_text>

        {text_instructions}
        
        <scratchpad>
        {scratch_pad_instructions}
        </scratchpad>
        
        {prelude_dialog}
        
        <podcast_dialogue>
        {podcast_dialog_instructions}
        </podcast_dialogue>
        {edited_transcript}{user_feedback}
        """
        # Le texte généré est nettoyé et analysé ici
        # logging.debug(f"Raw output from model: {text}")
        cleaned_output = clean_and_parse_output(text)
        return Dialogue(**cleaned_output)

    instruction_improve='En vous basant sur le texte original, veuillez générer une version améliorée du dialogue en incorporant les modifications, commentaires et retours.'
    edited_transcript_processed="\nTranscription éditée précédemment générée, avec des modifications et commentaires spécifiques que je veux que vous abordiez soigneusement :\n"+"<edited_transcript>\n"+edited_transcript+"</edited_transcript>" if edited_transcript !="" else ""
    user_feedback_processed="\nRetour global de l'utilisateur :\n\n"+user_feedback if user_feedback !="" else ""

    if edited_transcript_processed.strip()!='' or user_feedback_processed.strip()!='':
        user_feedback_processed="<requested_improvements>"+user_feedback_processed+"\n\n"+instruction_improve+"</requested_improvements>" 

    llm_output = generate_dialogue(
        combined_text,
        intro_instructions=intro_instructions,
        text_instructions=text_instructions,
        scratch_pad_instructions=scratch_pad_instructions,
        prelude_dialog=prelude_dialog,
        podcast_dialog_instructions=podcast_dialog_instructions,
        edited_transcript=edited_transcript_processed,
        user_feedback=user_feedback_processed
    )

    audio = b""
    transcript = ""
    characters = 0

    with cf.ThreadPoolExecutor() as executor:
        futures = []
        for line in llm_output.dialogue:
            transcript_line = f"{line.speaker}: {line.text}"
            voice = speaker_1_voice if line.speaker == "speaker-1" else speaker_2_voice
            future = executor.submit(get_audio, line.text, voice)
            futures.append((future, transcript_line))
            characters += len(line.text)

        for future, transcript_line in futures:
            audio_chunk = future.result()
            audio += audio_chunk
            transcript += transcript_line + "\n\n"

    logger.info(f"Generated {characters} characters of audio")

    temporary_directory = "./gradio_cached_examples/tmp/"
    os.makedirs(temporary_directory, exist_ok=True)

    temporary_file = NamedTemporaryFile(
        dir=temporary_directory,
        delete=False,
        suffix=".wav",
    )
    temporary_file.write(audio)
    temporary_file.close()

    for file in glob.glob(f"{temporary_directory}*.wav"):
        if os.path.isfile(file) and time.time() - os.path.getmtime(file) > 24 * 60 * 60:
            os.remove(file)

    return temporary_file.name, transcript, combined_text

def validate_and_generate_audio(*args):
    files = args[0]
    if not files:
        return None, None, None, "Veuillez télécharger au moins un fichier PDF avant de générer l'audio."
    try:
        audio_file, transcript, original_text = generate_audio(*args)
        return audio_file, transcript, original_text, None
    except Exception as e:
        return None, None, None, str(e)

def edit_and_regenerate(edited_transcript, user_feedback, *args):
    return validate_and_generate_audio(*args)

def process_feedback_and_regenerate(feedback, *args):
    new_args = list(args)
    new_args.append(feedback)
    return validate_and_generate_audio(*new_args)

def read_readme():
    readme_path = Path("README.md")
    if readme_path.exists():
        with open(readme_path, "r") as file:
            content = file.read()
            content = re.sub(r'--.*?--', '', content, flags=re.DOTALL)
            return content
    else:
        return "README.md non trouvé. Veuillez vérifier le dépôt pour plus d'informations."

INSTRUCTION_TEMPLATES = {
    "podcast (French)": {
        "intro": """Votre tâche consiste à transformer le texte d'entrée fourni en un dialogue de podcast vivant, engageant et informatif, dans le style d'une émission de radio française populaire. Le texte d'entrée peut être désordonné ou non structuré, car il peut provenir de diverses sources telles que des fichiers PDF ou des pages web.

Ne vous inquiétez pas des problèmes de formatage ou des informations non pertinentes ; votre objectif est d'extraire les points clés, d'identifier les définitions et les faits intéressants qui pourraient être discutés dans un podcast.

Définissez soigneusement tous les termes utilisés pour un large public francophone.
""",
        "text_instructions": "Tout d'abord, lisez attentivement le texte d'entrée et identifiez les principaux sujets, points clés et faits ou anecdotes intéressants. Réfléchissez à la manière dont vous pourriez présenter ces informations de manière amusante et engageante, adaptée à une présentation de haute qualité pour un public francophone.",
        "scratch_pad": """Réfléchissez à des moyens créatifs de discuter des principaux sujets et points clés que vous avez identifiés dans le texte d'entrée. Envisagez d'utiliser des analogies, des exemples, des techniques de narration ou des scénarios hypothétiques pour rendre le contenu plus accessible et attrayant pour les auditeurs francophones.

Gardez à l'esprit que votre podcast doit être accessible à un large public francophone, donc évitez d'utiliser trop de jargon ou de supposer une connaissance préalable du sujet. Si nécessaire, trouvez des moyens d'expliquer brièvement les concepts complexes en termes simples.

Utilisez votre imagination pour combler les lacunes du texte d'entrée ou pour poser des questions stimulantes qui pourraient être explorées dans le podcast. L'objectif est de créer un dialogue informatif et divertissant, donc n'hésitez pas à faire preuve de créativité dans votre approche.

Définissez clairement tous les termes utilisés et prenez le temps d'expliquer le contexte.

Écrivez ici vos idées de brainstorming et une esquisse générale pour le dialogue du podcast. Assurez-vous de noter les principaux points et enseignements que vous souhaitez réitérer à la fin.

Faites en sorte que ce soit amusant et captivant pour un public francophone.
""",
        "prelude": """Maintenant que vous avez réfléchi à des idées et créé une esquisse générale, il est temps d'écrire le dialogue réel du podcast. Visez un flux naturel et conversationnel entre l'animateur et tout invité. Intégrez les meilleures idées de votre session de brainstorming et assurez-vous d'expliquer tous les sujets complexes de manière compréhensible pour un public francophone.
""",
        "dialog": """Écrivez ici un dialogue de podcast très long, captivant et informatif en français, basé sur les points clés et les idées créatives que vous avez développés lors de la session de brainstorming. Utilisez un ton conversationnel et incluez tout contexte ou explication nécessaire pour rendre le contenu accessible à un public francophone général.

Ne créez jamais de noms fictifs pour les animateurs et les invités, mais rendez cela engageant et immersif pour les auditeurs francophones. N'incluez pas de marqueurs entre crochets comme [Animateur] ou [Invité]. Concevez votre sortie pour être lue à haute voix – elle sera directement convertie en audio.

Faites en sorte que le dialogue soit aussi long et détaillé que possible, tout en restant sur le sujet et en maintenant un flux engageant. Utilisez toute votre capacité de production pour créer l'épisode de podcast le plus long possible, tout en communiquant les informations clés du texte d'entrée de manière divertissante.

À la fin du dialogue, l'animateur et les invités doivent naturellement résumer les principales idées et enseignements de leur discussion. Cela doit découler naturellement de la conversation, en réitérant les points clés de manière informelle et conversationnelle. Évitez de donner l'impression qu'il s'agit d'un récapitulatif évident – l'objectif est de renforcer les idées centrales une dernière fois avant de conclure.

Le podcast doit comporter environ 20 000 mots.
""",
    },
}

def update_instructions(template):
    return (
        INSTRUCTION_TEMPLATES[template]["intro"],
        INSTRUCTION_TEMPLATES[template]["text_instructions"],
        INSTRUCTION_TEMPLATES[template]["scratch_pad"],
        INSTRUCTION_TEMPLATES[template]["prelude"],
        INSTRUCTION_TEMPLATES[template]["dialog"]
    )

with gr.Blocks(title="PDF to Audio (French)", css="""
    #header {
        display: flex;
        align-items: center;
        justify-content: space-between;
        padding: 20px;
        background-color: transparent;
        border-bottom: 1px solid #ddd;
    }
    #title {
        font-size: 24px;
        margin: 0;
    }
    #logo_container {
        width: 200px;
        height: 200px;
        display: flex;
        justify-content: center;
        align-items: center;
    }
    #logo_image {
        max-width: 100%;
        max-height: 100%;
        object-fit: contain;
    }
    #main_container {
        margin-top: 20px;
    }
""") as demo:
    
    with gr.Row(elem_id="header"):
        with gr.Column(scale=4):
            gr.Markdown("# Convertir des PDFs en podcast audio en français\n\nD'abord, téléchargez un ou plusieurs PDFs, sélectionnez les options, puis cliquez sur Générer l'Audio.\n\nVous pouvez également sélectionner diverses options personnalisées et diriger la façon dont le résultat est généré.", elem_id="title")
        with gr.Column(scale=1):
            gr.HTML('''
                <div id="logo_container">
                    <img src="https://huggingface.co/spaces/lamm-mit/PDF2Audio/resolve/main/logo.png" id="logo_image" alt="Logo">
                </div>
            ''')
    
    submit_btn = gr.Button("Générer l'Audio", elem_id="submit_btn")

    with gr.Row(elem_id="main_container"):
        with gr.Column(scale=2):
            files = gr.Files(label="PDFs", file_types=["pdf"], )
            
            openai_api_key = gr.Textbox(
                label="Clé API OpenAI",
                visible=True,
                placeholder="Entrez votre clé API OpenAI ici...",
                type="password"
            )
            text_model = gr.Dropdown(
                label="Modèle de génération de texte",
                choices=STANDARD_TEXT_MODELS,
                value="gpt-4-turbo",
                info="Sélectionnez le modèle pour générer le texte du dialogue.",
            )
            speaker_1_voice = gr.Dropdown(
                label="Voix du Speaker 1",
                choices=STANDARD_VOICES,
                value="fr-FR-DeniseNeural",
                info="Sélectionnez la voix pour le Speaker 1.",
            )
            speaker_2_voice = gr.Dropdown(
                label="Voix du Speaker 2",
                choices=STANDARD_VOICES,
                value="fr-FR-HenriNeural",
                info="Sélectionnez la voix pour le Speaker 2.",
            )
            api_base = gr.Textbox(
                label="Base API personnalisée",
                placeholder="Entrez l'URL de base de l'API personnalisée si vous utilisez un modèle personnalisé/local...",
                info="Si vous utilisez un modèle personnalisé ou local, fournissez l'URL de base de l'API ici, par exemple : http://localhost:8080/v1 pour le serveur REST llama.cpp.",
            )

        with gr.Column(scale=3):
            template_dropdown = gr.Dropdown(
                label="Modèle d'instructions",
                choices=list(INSTRUCTION_TEMPLATES.keys()),
                value="podcast (French)",
                info="Sélectionnez le modèle d'instructions à utiliser. Vous pouvez également modifier n'importe quel champ pour des résultats plus personnalisés.",
            )
            intro_instructions = gr.Textbox(
                label="Instructions d'introduction",
                lines=10,
                value=INSTRUCTION_TEMPLATES["podcast (French)"]["intro"],
                info="Fournissez les instructions d'introduction pour générer le dialogue.",
            )
            text_instructions = gr.Textbox(
                label="Instructions d'analyse de texte standard",
                lines=10,
                placeholder="Entrez les instructions d'analyse de texte...",
                value=INSTRUCTION_TEMPLATES["podcast (French)"]["text_instructions"],
                info="Fournissez les instructions pour analyser les données brutes et le texte.",
            )
            scratch_pad_instructions = gr.Textbox(
                label="Instructions de brouillon",
                lines=15,
                value=INSTRUCTION_TEMPLATES["podcast (French)"]["scratch_pad"],
                info="Fournissez les instructions de brouillon pour réfléchir au contenu de la présentation/du dialogue.",
            )
            prelude_dialog = gr.Textbox(
                label="Prélude du dialogue",
                lines=5,
                value=INSTRUCTION_TEMPLATES["podcast (French)"]["prelude"],
                info="Fournissez les instructions de prélude avant que la présentation/le dialogue ne soit développé.",
            )
            podcast_dialog_instructions = gr.Textbox(
                label="Instructions du dialogue du podcast",
                lines=20,
                value=INSTRUCTION_TEMPLATES["podcast (French)"]["dialog"],
                info="Fournissez les instructions pour générer la présentation ou le dialogue du podcast.",
            )

    audio_output = gr.Audio(label="Audio", format="wav", interactive=False, autoplay=False)
    transcript_output = gr.Textbox(label="Transcription", lines=20, show_copy_button=True)
    original_text_output = gr.Textbox(label="Texte original", lines=10, visible=False)
    error_output = gr.Textbox(visible=False)  # Textbox caché pour stocker le message d'erreur

    use_edited_transcript = gr.Checkbox(label="Utiliser la transcription éditée (cochez si vous voulez apporter des modifications à la transcription générée initialement)", value=False)
    edited_transcript = gr.Textbox(label="Éditez la transcription ici. Par exemple, marquez les modifications dans le texte avec des instructions claires. Ex: '[AJOUTER LA DÉFINITION DE MATERIOMIQUE]'.", lines=20, visible=False,
                                   show_copy_button=True, interactive=False)

    user_feedback = gr.Textbox(label="Fournir des commentaires ou des notes", lines=10)
    regenerate_btn = gr.Button("Régénérer l'audio avec les modifications et les commentaires")

    def update_edit_box(checkbox_value):
        return gr.update(interactive=checkbox_value, lines=20 if checkbox_value else 20, visible=True if checkbox_value else False)

    use_edited_transcript.change(
        fn=update_edit_box,
        inputs=[use_edited_transcript],
        outputs=[edited_transcript]
    )

    template_dropdown.change(
        fn=update_instructions,
        inputs=[template_dropdown],
        outputs=[intro_instructions, text_instructions, scratch_pad_instructions, prelude_dialog, podcast_dialog_instructions]
    )
    
    submit_btn.click(
        fn=validate_and_generate_audio,
        inputs=[
            files, openai_api_key, text_model, 
            speaker_1_voice, speaker_2_voice, api_base,
            intro_instructions, text_instructions, scratch_pad_instructions, 
            prelude_dialog, podcast_dialog_instructions, 
            edited_transcript,
            user_feedback,
        ],
        outputs=[audio_output, transcript_output, original_text_output, error_output]
    ).then(
        fn=lambda audio, transcript, original_text, error: (
            transcript if transcript else "",
            error if error else None
        ),
        inputs=[audio_output, transcript_output, original_text_output, error_output],
        outputs=[edited_transcript, error_output]
    ).then(
        fn=lambda error: gr.Warning(error) if error else None,
        inputs=[error_output],
        outputs=[]
    )

    regenerate_btn.click(
        fn=lambda use_edit, edit, *args: validate_and_generate_audio(
            *args[:12],  # Tous les inputs jusqu'à podcast_dialog_instructions
            edit if use_edit else "",  # Utiliser la transcription éditée si la case est cochée, sinon chaîne vide
            *args[12:]  # user_feedback et original_text_output
        ),
        inputs=[
            use_edited_transcript, edited_transcript,
            files, openai_api_key, text_model, 
            speaker_1_voice, speaker_2_voice, api_base,
            intro_instructions, text_instructions, scratch_pad_instructions, 
            prelude_dialog, podcast_dialog_instructions,
            user_feedback, original_text_output
        ],
        outputs=[audio_output, transcript_output, original_text_output, error_output]
    ).then(
        fn=lambda audio, transcript, original_text, error: (
            transcript if transcript else "",
            error if error else None
        ),
        inputs=[audio_output, transcript_output, original_text_output, error_output],
        outputs=[edited_transcript, error_output]
    ).then(
        fn=lambda error: gr.Warning(error) if error else None,
        inputs=[error_output],
        outputs=[]
    )

    # Ajouter le contenu README en bas
    gr.Markdown("---")  # Ligne horizontale pour séparer l'interface du README
    gr.Markdown(read_readme())
    
# Activer la mise en file d'attente pour de meilleures performances
demo.queue(max_size=20, default_concurrency_limit=32)

# Lancer l'application Gradio
if __name__ == "__main__":
    demo.launch()