File size: 21,469 Bytes
c253059
da7ef42
ccfefd3
984f26b
 
9c39fae
 
0f75c3f
10ad7a5
a08ef55
114b9ec
a08ef55
 
 
 
60b2cb1
c253059
984f26b
c23cd74
ccfefd3
0ab0c95
984f26b
c23cd74
da7ef42
0ab0c95
984f26b
 
ccfefd3
 
10ad7a5
0ab0c95
984f26b
 
 
10ad7a5
0ab0c95
984f26b
 
10ad7a5
984f26b
10ad7a5
ccfefd3
10ad7a5
ccfefd3
9c39fae
a08ef55
 
984f26b
 
 
 
a08ef55
9c39fae
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
984f26b
0f75c3f
a08ef55
984f26b
10ad7a5
ccfefd3
 
984f26b
 
a08ef55
984f26b
0ab0c95
a08ef55
984f26b
a08ef55
 
9c39fae
 
 
 
 
 
 
 
984f26b
 
ccfefd3
9c39fae
 
ccfefd3
0ab0c95
c23cd74
0f75c3f
a08ef55
ccfefd3
a08ef55
 
71ffbd5
ccfefd3
c23cd74
984f26b
 
 
 
c23cd74
984f26b
 
 
 
 
 
 
 
 
a08ef55
984f26b
a08ef55
 
 
 
984f26b
 
 
0ab0c95
984f26b
a08ef55
984f26b
 
 
 
a08ef55
984f26b
 
 
 
 
a08ef55
984f26b
 
 
 
 
 
 
a08ef55
984f26b
 
a08ef55
984f26b
a08ef55
984f26b
 
 
c23cd74
984f26b
 
 
 
 
 
 
 
a08ef55
984f26b
 
0ab0c95
da7ef42
ccfefd3
 
 
10ad7a5
984f26b
a08ef55
10ad7a5
 
984f26b
0ab0c95
ccfefd3
984f26b
 
0ab0c95
a08ef55
984f26b
9c39fae
0ab0c95
10ad7a5
984f26b
10ad7a5
 
 
a08ef55
 
9c39fae
 
 
10ad7a5
c23cd74
 
c96425b
ccfefd3
 
0f75c3f
9c39fae
 
 
 
 
 
ccfefd3
 
984f26b
10ad7a5
60b2cb1
ccfefd3
 
 
 
 
c23cd74
dfc4deb
 
984f26b
 
0f75c3f
984f26b
10ad7a5
 
a08ef55
984f26b
 
a08ef55
10ad7a5
984f26b
 
ccfefd3
 
984f26b
 
 
 
dfc4deb
ccfefd3
 
dfc4deb
a08ef55
 
 
 
 
10ad7a5
984f26b
 
 
a08ef55
984f26b
 
 
 
 
 
a08ef55
984f26b
 
 
 
 
 
 
a08ef55
984f26b
a08ef55
9c39fae
a08ef55
9c39fae
 
a08ef55
 
984f26b
 
 
 
a08ef55
 
984f26b
 
 
 
a08ef55
 
 
 
984f26b
 
 
 
 
 
 
 
 
10ad7a5
a08ef55
984f26b
9c39fae
984f26b
 
 
 
 
a08ef55
984f26b
9c39fae
984f26b
 
 
 
 
 
 
 
 
 
 
a08ef55
984f26b
 
 
ccfefd3
984f26b
a08ef55
dfc4deb
984f26b
 
 
9c39fae
a08ef55
ccfefd3
60b2cb1
a08ef55
 
 
 
9c39fae
a08ef55
 
 
 
9c39fae
a08ef55
 
 
0f75c3f
 
984f26b
 
0f75c3f
 
a08ef55
9c39fae
 
 
 
 
 
 
 
a08ef55
984f26b
a08ef55
984f26b
0f75c3f
984f26b
 
 
ccfefd3
a08ef55
ccfefd3
10ad7a5
c253059
984f26b
ccfefd3
dfc4deb
a08ef55
 
984f26b
 
a08ef55
 
9c39fae
 
 
a08ef55
 
 
 
9c39fae
0f75c3f
984f26b
 
9c39fae
a08ef55
 
 
 
 
 
 
ccfefd3
 
 
 
984f26b
ccfefd3
984f26b
10ad7a5
 
c253059
ccfefd3
a08ef55
ccfefd3
984f26b
 
ccfefd3
 
 
 
9c39fae
ccfefd3
984f26b
0ab0c95
c253059
ccfefd3
a08ef55
 
0f75c3f
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
76
77
78
79
80
81
82
83
84
85
86
87
88
89
90
91
92
93
94
95
96
97
98
99
100
101
102
103
104
105
106
107
108
109
110
111
112
113
114
115
116
117
118
119
120
121
122
123
124
125
126
127
128
129
130
131
132
133
134
135
136
137
138
139
140
141
142
143
144
145
146
147
148
149
150
151
152
153
154
155
156
157
158
159
160
161
162
163
164
165
166
167
168
169
170
171
172
173
174
175
176
177
178
179
180
181
182
183
184
185
186
187
188
189
190
191
192
193
194
195
196
197
198
199
200
201
202
203
204
205
206
207
208
209
210
211
212
213
214
215
216
217
218
219
220
221
222
223
224
225
226
227
228
229
230
231
232
233
234
235
236
237
238
239
240
241
242
243
244
245
246
247
248
249
250
251
252
253
254
255
256
257
258
259
260
261
262
263
264
265
266
267
268
269
270
271
272
273
274
275
276
277
278
279
280
281
282
283
284
285
286
287
288
289
290
291
292
293
294
295
296
297
298
299
300
301
302
303
304
305
306
307
308
309
310
311
312
313
314
315
316
317
318
319
320
321
322
323
324
325
326
327
328
329
330
331
332
333
334
335
336
337
338
339
340
341
342
343
344
345
346
347
348
349
350
351
352
353
354
355
356
357
358
359
360
361
362
363
364
365
366
367
368
369
370
371
372
373
374
375
376
377
378
379
380
381
382
383
384
385
386
387
388
389
390
391
392
393
394
395
396
397
398
399
400
401
402
403
404
405
406
407
408
409
410
411
412
413
414
415
416
417
418
419
420
421
422
423
424
425
426
427
428
429
430
431
432
433
434
435
436
437
438
439
440
441
442
443
444
445
446
import os
import json
import mimetypes
import time
import re # Pour la détection d'URL YouTube
import traceback # Ajout pour afficher les tracebacks complets

from flask import Flask, request, session, jsonify, redirect, url_for, flash, render_template
from dotenv import load_dotenv
# Importe genai et types séparément pour plus de clarté
from google import genai
from google.genai import types # Important pour Part, FileData, SafetySetting etc.
# L'exception StopCandidateException est directement sous genai
# from google.generativeai.types import StopCandidateException # Ne fonctionne pas

import requests
from werkzeug.utils import secure_filename
import markdown # Pour convertir la réponse Markdown en HTML

# --- Configuration Initiale ---

load_dotenv() # Charge les variables depuis .env

app = Flask(__name__)

# Clé secrète FORTEMENT recommandée pour la sécurité des sessions
app.config['SECRET_KEY'] = os.getenv('FLASK_SECRET_KEY', 'une-cle-secrete-tres-difficile-a-deviner')

# Configuration pour les uploads
UPLOAD_FOLDER = 'temp'

# Extensions autorisées (incluant vidéo)
ALLOWED_EXTENSIONS = {'txt', 'pdf', 'png', 'jpg', 'jpeg', 'mp4', 'mov', 'avi', 'mkv', 'webm'}
VIDEO_EXTENSIONS = {'mp4', 'mov', 'avi', 'mkv', 'webm'} # Pour identifier les vidéos
app.config['UPLOAD_FOLDER'] = UPLOAD_FOLDER

# Augmenter la limite pour les vidéos (ex: 100MB) - Ajustez si nécessaire
app.config['MAX_CONTENT_LENGTH'] = 100 * 1024 * 1024

# Crée le dossier temporaire s'il n'existe pas
os.makedirs(UPLOAD_FOLDER, exist_ok=True)
print(f"Dossier d'upload configuré : {os.path.abspath(UPLOAD_FOLDER)}")

# --- Configuration de l'API Gemini ---
# Utilisez les noms de modèles spécifiés
MODEL_FLASH = 'gemini-2.0-flash'
MODEL_PRO = 'gemini-2.5-pro-exp-03-25' # Pro est souvent nécessaire/meilleur pour la vidéo

# Instruction système pour le modèle
SYSTEM_INSTRUCTION = "Tu es un assistant intelligent et amical nommé Mariam. Tu assistes les utilisateurs au mieux de tes capacités, y compris dans l'analyse de texte, d'images et de vidéos (via upload ou lien YouTube). Tu as été créé par Aenir."

# Paramètres de sécurité (structure correcte pour GenerateContentConfig)
SAFETY_SETTINGS_CONFIG = [
    types.SafetySetting(
      category=types.HarmCategory.HARM_CATEGORY_HATE_SPEECH,
      threshold=types.HarmBlockThreshold.BLOCK_LOW_AND_ABOVE,
    ),
    types.SafetySetting(
      category=types.HarmCategory.HARM_CATEGORY_HARASSMENT,
      threshold=types.HarmBlockThreshold.BLOCK_LOW_AND_ABOVE,
    ),
    types.SafetySetting(
      category=types.HarmCategory.HARM_CATEGORY_SEXUALLY_EXPLICIT,
      threshold=types.HarmBlockThreshold.BLOCK_LOW_AND_ABOVE,
    ),
    types.SafetySetting(
      category=types.HarmCategory.HARM_CATEGORY_DANGEROUS_CONTENT,
      threshold=types.HarmBlockThreshold.BLOCK_LOW_AND_ABOVE,
    )
]


GEMINI_CONFIGURED = False
gemini_client = None # Client API

try:
    gemini_api_key = os.getenv("GOOGLE_API_KEY")
    if not gemini_api_key:
        raise ValueError("Clé API GOOGLE_API_KEY manquante dans le fichier .env")

    # Initialise le client
    gemini_client = genai.Client(api_key=gemini_api_key)

    # Vérifie si les modèles requis sont disponibles en utilisant le client
    print("Vérification des modèles Gemini disponibles...")
    available_models_full_names = [m.name for m in gemini_client.models.list()] # Correction: client.models.list()
    required_models_prefixes = [MODEL_FLASH, MODEL_PRO]
    models_found = {req: False for req in required_models_prefixes}
    for available in available_models_full_names:
        for req in required_models_prefixes:
            if available.startswith(f'models/{req}'):
                models_found[req] = True

    if all(models_found.values()):
         print(f"Configuration Gemini effectuée. Modèles requis ({', '.join(required_models_prefixes)}) trouvés.")
         print(f"Instruction Système: {SYSTEM_INSTRUCTION}")
         GEMINI_CONFIGURED = True
    else:
        missing = [req for req, found in models_found.items() if not found]
        raise ValueError(f"Les modèles Gemini requis suivants (ou commençant par) sont manquants : {missing}")


except Exception as e:
    print(f"ERREUR Critique lors de la configuration initiale de Gemini : {e}")
    traceback.print_exc() # Affiche le traceback pour l'erreur d'init
    print("L'application fonctionnera sans les fonctionnalités IA.")
    gemini_client = None
    GEMINI_CONFIGURED = False

# --- Fonctions Utilitaires ---

def get_file_extension(filename):
    """Retourne l'extension du fichier en minuscules, ou None."""
    return filename.rsplit('.', 1)[1].lower() if '.' in filename else None

def allowed_file(filename):
    """Vérifie si l'extension du fichier est dans la liste autorisée."""
    return get_file_extension(filename) in ALLOWED_EXTENSIONS

def is_video_file(filename):
    """Vérifie si l'extension correspond à un type vidéo connu."""
    return get_file_extension(filename) in VIDEO_EXTENSIONS

def is_youtube_url(url):
    """Vérifie si la chaîne ressemble à une URL YouTube valide."""
    if not url: return False
    youtube_regex = re.compile(
        r'(https?://)?(www.)?'
        r'(youtube|youtu|youtube-nocookie).(com|be)/'
        r'(watch?v=|embed/|v/|.+?v=)?'
        r'([^&=%\?]{11})')
    return youtube_regex.match(url) is not None

# --- Fonction d'Upload Vidéo avec Polling ---

def upload_video_with_polling(filepath, mime_type, max_wait_seconds=300, poll_interval=10):
    """Upload une vidéo via client.files.upload et attend son traitement."""
    if not gemini_client:
        raise ConnectionError("Le client Gemini n'est pas initialisé.")

    print(f"Début de l'upload vidéo via client.files: {filepath} ({mime_type})")
    video_file = None
    try:
        video_file = gemini_client.files.upload(path=filepath, mime_type=mime_type)
        print(f"Upload initialisé. Nom du fichier distant: {video_file.name}. Attente du traitement...")

        start_time = time.time()
        while video_file.state == types.FileState.PROCESSING:
            elapsed_time = time.time() - start_time
            if elapsed_time > max_wait_seconds:
                raise TimeoutError(f"Le traitement de la vidéo a dépassé le délai de {max_wait_seconds} secondes.")
            print(f"Vidéo en cours de traitement... (État: {video_file.state.name}, {int(elapsed_time)}s écoulées)")
            time.sleep(poll_interval)
            video_file = gemini_client.files.get(name=video_file.name)

        if video_file.state == types.FileState.FAILED:
            print(f"ERREUR: Le traitement de la vidéo a échoué. État: {video_file.state.name}")
            raise ValueError("Le traitement de la vidéo a échoué côté serveur.")
        if video_file.state == types.FileState.ACTIVE:
            print(f"Traitement vidéo terminé avec succès: {video_file.uri}")
            return video_file
        else:
            print(f"AVERTISSEMENT: État inattendu du fichier vidéo après traitement: {video_file.state.name}")
            raise RuntimeError(f"État inattendu du fichier vidéo: {video_file.state.name}")

    except Exception as e:
        print(f"Erreur lors de l'upload/traitement vidéo via client.files: {e}")
        if video_file and hasattr(video_file, 'name'):
            try:
                gemini_client.files.delete(name=video_file.name)
                print(f"Tentative de nettoyage du fichier distant {video_file.name} après erreur.")
            except Exception as delete_err:
                 print(f"Échec du nettoyage du fichier distant {video_file.name} après erreur: {delete_err}")
        raise

# --- Fonctions de Recherche Web (inchangées - implémentez si nécessaire) ---

def perform_web_search(query):
    serper_api_key = os.getenv("SERPER_API_KEY")
    if not serper_api_key:
        print("AVERTISSEMENT: Clé API SERPER_API_KEY manquante. Recherche web désactivée.")
        return None
    print(f"Recherche Web (simulation) pour : {query}")
    return None

def format_search_results(data):
    if not data: return "Aucun résultat de recherche web pertinent."
    results = ["Résultats Web:"]
    if data.get('organic'):
        for item in data['organic'][:3]:
            results.append(f"- {item.get('title', '')}: {item.get('snippet', '')}")
        return "\n".join(results)
    return "Aucun résultat organique trouvé."

# --- Préparation Historique (Corrigé pour utiliser types.Part) ---

def prepare_gemini_history(chat_history):
    """Convertit l'historique de session pour l'API Gemini (texte seulement)."""
    gemini_history = []
    for message in chat_history:
        role = 'user' if message['role'] == 'user' else 'model'
        raw_text_content = message.get('raw_text', '')
        if raw_text_content:
            # Correction: Créer un objet Part pour le texte
            text_part_object = types.Part(text=raw_text_content)
            gemini_history.append({'role': role, 'parts': [text_part_object]})
    return gemini_history

# --- Routes Flask ---

@app.route('/')
def root():
    """Sert la page HTML principale."""
    try:
        return render_template('index.html')
    except Exception as e:
        print(f"Erreur lors du rendu du template index.html: {e}")
        return "Erreur: Impossible de charger la page principale. Vérifiez que 'templates/index.html' existe.", 500

@app.route('/api/history', methods=['GET'])
def get_history():
    """Fournit l'historique de chat (formaté pour affichage) en JSON."""
    if 'chat_history' not in session:
        session['chat_history'] = []
    display_history = [
        {'role': msg.get('role', 'unknown'), 'text': msg.get('text', '')}
        for msg in session.get('chat_history', [])
    ]
    return jsonify({'success': True, 'history': display_history})

@app.route('/api/chat', methods=['POST'])
def chat_api():
    """Gère les requêtes de chat (texte, fichier/vidéo uploadé, URL YouTube)."""
    if not GEMINI_CONFIGURED or not gemini_client:
        print("API ERREUR: Tentative d'appel à /api/chat sans configuration Gemini valide.")
        return jsonify({'success': False, 'error': "Le service IA n'est pas configuré correctement."}), 503

    prompt = request.form.get('prompt', '').strip()
    youtube_url = request.form.get('youtube_url', '').strip()
    use_web_search = request.form.get('web_search', 'false').lower() == 'true'
    use_advanced = request.form.get('advanced_reasoning', 'false').lower() == 'true'
    file = request.files.get('file')

    if not file and not youtube_url and not prompt:
        return jsonify({'success': False, 'error': 'Veuillez fournir un message, un fichier/vidéo ou un lien YouTube.'}), 400

    print(f"\n--- Nouvelle requête /api/chat ---")
    print(f"  Prompt: '{prompt[:50]}...'")
    print(f"  Fichier: {file.filename if file else 'Non'}")
    print(f"  URL YouTube: {youtube_url if youtube_url else 'Non'}")
    print(f"  Web Search: {use_web_search}, Advanced: {use_advanced}")

    if 'chat_history' not in session:
        session['chat_history'] = []

    uploaded_media_part = None
    uploaded_filename_for_display = None
    filepath_to_delete = None
    is_media_request = False
    media_type = None

    try:
        if file and file.filename != '':
            is_media_request = True
            media_type = 'file'
            uploaded_filename_for_display = secure_filename(file.filename)
            if not allowed_file(uploaded_filename_for_display):
                raise ValueError(f"Type de fichier non autorisé: {uploaded_filename_for_display}")

            filepath = os.path.join(app.config['UPLOAD_FOLDER'], uploaded_filename_for_display)
            file.save(filepath)
            filepath_to_delete = filepath
            print(f"  Fichier '{uploaded_filename_for_display}' sauvegardé -> '{filepath}'")
            mime_type = mimetypes.guess_type(filepath)[0] or 'application/octet-stream'

            if is_video_file(uploaded_filename_for_display):
                media_type = 'video'
                print("  Traitement VIDÉO Uploadée (avec polling)...")
                processed_media_file = upload_video_with_polling(filepath, mime_type)
                uploaded_media_part = types.Part(file_data=processed_media_file)
            else:
                print("  Traitement FICHIER standard via client.files...")
                processed_media_file = gemini_client.files.upload(path=filepath, mime_type=mime_type)
                time.sleep(2) # Attente simplifiée
                processed_media_file = gemini_client.files.get(name=processed_media_file.name)
                if processed_media_file.state != types.FileState.ACTIVE:
                     print(f"AVERTISSEMENT: Fichier non-vidéo '{processed_media_file.name}' n'est pas ACTIF ({processed_media_file.state.name}).")
                uploaded_media_part = types.Part(file_data=processed_media_file)
            print(f"  Part Média ({media_type}) créé: {processed_media_file.uri}")

        elif youtube_url:
             if not is_youtube_url(youtube_url):
                 print(f"  AVERTISSEMENT: '{youtube_url}' n'est pas un lien YouTube valide.")
                 media_type = 'text'
             else:
                is_media_request = True
                media_type = 'youtube'
                print("  Traitement LIEN YouTube...")
                uploaded_filename_for_display = youtube_url
                youtube_uri = youtube_url
                uploaded_media_part = types.Part(
                    file_data=types.FileData(file_uri=youtube_uri, mime_type="video/mp4")
                )
                print(f"  Part YouTube créé pour: {youtube_uri}")
                if not prompt:
                    prompt = "Décris ou analyse le contenu de cette vidéo YouTube."
                    print(f"  Prompt par défaut ajouté pour YouTube: '{prompt}'")

        elif prompt:
            media_type = 'text'
            print("  Traitement PROMPT texte seul.")
        else:
            raise ValueError("Aucune entrée valide fournie.")

        display_user_text = prompt
        if media_type == 'file' or media_type == 'video':
            display_user_text = f"[{uploaded_filename_for_display}]" + (f" {prompt}" if prompt else "")
        elif media_type == 'youtube':
             display_user_text = f"[YouTube]" + (f" {prompt}" if prompt else "") + f"\n{uploaded_filename_for_display}"

        user_history_entry = {'role': 'user', 'text': display_user_text, 'raw_text': prompt}
        session['chat_history'].append(user_history_entry)
        session.modified = True

        current_gemini_parts = []
        if uploaded_media_part:
            current_gemini_parts.append(uploaded_media_part)

        final_prompt_for_gemini = prompt
        if use_web_search and prompt and media_type == 'text':
            print("  Activation Recherche Web...")
            search_data = perform_web_search(prompt)
            if search_data:
                formatted_results = format_search_results(search_data)
                final_prompt_for_gemini = f"""Basé sur la question suivante et les informations web ci-dessous, fournis une réponse complète.\n\nQuestion Originale:\n"{prompt}"\n\nInformations Web Pertinentes:\n--- DEBUT RESULTATS WEB ---\n{formatted_results}\n--- FIN RESULTATS WEB ---\n\nRéponse:"""
                print("  Prompt enrichi avec les résultats web.")
            else:
                print("  Aucun résultat de recherche web trouvé ou pertinent.")

        if final_prompt_for_gemini:
             current_gemini_parts.append(types.Part(text=final_prompt_for_gemini)) # Correction: Toujours Part

        if not current_gemini_parts:
             raise ValueError("Impossible de traiter la requête : contenu vide.")

        gemini_history = prepare_gemini_history(session['chat_history'][:-1])
        # Structure correcte pour contents (liste de dictionnaires role/parts)
        contents_for_gemini = gemini_history + [{'role': 'user', 'parts': current_gemini_parts}]

        selected_model_api_name = f'models/{MODEL_PRO}' if is_media_request or use_advanced else f'models/{MODEL_FLASH}'
        print(f"  Modèle sélectionné pour l'API: {selected_model_api_name}")

        generation_config = types.GenerationConfig() # Config vide par défaut, ajouter des params si besoin

        # Correction: Appel via client.models.generate_content
        print(f"  Envoi de la requête à {selected_model_api_name} ({len(contents_for_gemini)} messages/tours)...")
        response = gemini_client.models.generate_content(
            model=selected_model_api_name, # Utilise 'model'
            contents=contents_for_gemini,
            generation_config=generation_config,
            safety_settings=SAFETY_SETTINGS_CONFIG,
            system_instruction=types.Content(parts=[types.Part(text=SYSTEM_INSTRUCTION)], role="system")
        )

        response_text_raw = ""
        response_html = ""
        try:
             response_text_raw = response.text
        except ValueError as ve:
            print(f"  ERREUR: La réponse de Gemini a été bloquée (ValueError): {ve}")
            try:
                print(f"  Détails du blocage (Prompt Feedback): {response.prompt_feedback}")
                block_reason = response.prompt_feedback.block_reason_message or "Raison non spécifiée"
                response_text_raw = f"Désolé, ma réponse a été bloquée car elle pourrait enfreindre les règles de sécurité ({block_reason})."
            except Exception as feedback_err:
                print(f"  Impossible de récupérer les détails du blocage: {feedback_err}")
                response_text_raw = "Désolé, ma réponse a été bloquée car elle pourrait enfreindre les règles de sécurité."
        except Exception as resp_err:
             print(f"  ERREUR inattendue lors de l'accès à response.text : {resp_err}")
             print(f"  Réponse brute complète : {response}")
             response_text_raw = "Désolé, une erreur interne s'est produite lors de la réception de la réponse."

        print(f"  Réponse reçue (début): '{response_text_raw[:100]}...'")
        response_html = markdown.markdown(response_text_raw, extensions=['fenced_code', 'tables', 'nl2br'])
        print("  Réponse convertie en HTML.")

        assistant_history_entry = {'role': 'assistant', 'text': response_html, 'raw_text': response_text_raw}
        session['chat_history'].append(assistant_history_entry)
        session.modified = True

        print("  Envoi de la réponse HTML au client.")
        return jsonify({'success': True, 'message': response_html})

    # Correction: Utiliser genai.StopCandidateException
    except (TimeoutError, ValueError, ConnectionError, FileNotFoundError, genai.StopCandidateException) as e:
        error_message = f"Erreur lors du traitement de la requête: {e}"
        print(f"ERREUR (Traitement/Appel API): {error_message}")
        # Correction: Utiliser genai.StopCandidateException pour la vérification
        if isinstance(e, genai.StopCandidateException):
            error_message = "La génération a été stoppée, probablement à cause du contenu."
            print(f"  StopCandidateException: {e}")

        if session.get('chat_history') and session['chat_history'][-1]['role'] == 'user':
            session['chat_history'].pop()
            session.modified = True
            print("  Dernier message utilisateur retiré de l'historique après erreur.")
        return jsonify({'success': False, 'error': error_message}), 500

    except Exception as e:
        error_message = f"Une erreur interne inattendue est survenue: {e}"
        print(f"ERREUR CRITIQUE INATTENDUE: {error_message}")
        traceback.print_exc() # Correction: Utilise traceback pour détails
        if session.get('chat_history') and session['chat_history'][-1]['role'] == 'user':
            session['chat_history'].pop()
            session.modified = True
            print("  Dernier message utilisateur retiré de l'historique après erreur inattendue.")
        return jsonify({'success': False, 'error': "Une erreur interne inattendue est survenue."}), 500

    finally:
        if filepath_to_delete and os.path.exists(filepath_to_delete):
            try:
                os.remove(filepath_to_delete)
                print(f"  Fichier temporaire '{filepath_to_delete}' supprimé avec succès.")
            except OSError as e:
                print(f"  ERREUR lors de la suppression du fichier temporaire '{filepath_to_delete}': {e}")

@app.route('/clear', methods=['POST'])
def clear_chat():
    """Efface l'historique de chat dans la session."""
    session.pop('chat_history', None)
    print("API: Historique de chat effacé via /clear.")
    is_ajax = request.headers.get('X-Requested-With') == 'XMLHttpRequest' or \
              'application/json' in request.headers.get('Accept', '')
    if is_ajax:
         return jsonify({'success': True, 'message': 'Historique effacé.'})
    else:
        flash("Conversation effacée.", "info")
        return redirect(url_for('root'))

# --- Démarrage de l'application Flask ---

if __name__ == '__main__':
    print("Démarrage du serveur Flask...")
    port = int(os.environ.get('PORT', 7860))
    # Mettre debug=False pour la production
    app.run(debug=True, host='0.0.0.0', port=port)