import os import json import mimetypes from flask import Flask, request, session, jsonify, redirect, url_for, flash, render_template # Ajout de render_template au cas où from dotenv import load_dotenv import google.generativeai as genai import requests from werkzeug.utils import secure_filename import markdown # Pour convertir la réponse en HTML # --- Configuration Initiale --- load_dotenv() app = Flask(__name__) # Clé secrète FORTEMENT recommandée pour les sessions app.config['SECRET_KEY'] = os.getenv('FLASK_SECRET_KEY', 'dev-secret-key-replace-in-prod') # Configuration pour les uploads UPLOAD_FOLDER = 'temp' ALLOWED_EXTENSIONS = {'txt', 'pdf', 'png', 'jpg', 'jpeg'} # Extensions autorisées app.config['UPLOAD_FOLDER'] = UPLOAD_FOLDER app.config['MAX_CONTENT_LENGTH'] = 25 * 1024 * 1024 # Limite de taille (ex: 25MB) # Créer le dossier temp s'il n'existe pas os.makedirs(UPLOAD_FOLDER, exist_ok=True) print(f"Dossier d'upload configuré : {os.path.abspath(UPLOAD_FOLDER)}") # --- Configuration de l'API Gemini --- model = None # Initialiser à None try: gemini_api_key = os.getenv("GOOGLE_API_KEY") if not gemini_api_key: print("ERREUR: Clé API GOOGLE_API_KEY manquante dans le fichier .env") else: genai.configure(api_key=gemini_api_key) safety_settings = [ {"category": "HARM_CATEGORY_HARASSMENT", "threshold": "BLOCK_NONE"}, {"category": "HARM_CATEGORY_HATE_SPEECH", "threshold": "BLOCK_NONE"}, {"category": "HARM_CATEGORY_SEXUALLY_EXPLICIT", "threshold": "BLOCK_NONE"}, {"category": "HARM_CATEGORY_DANGEROUS_CONTENT", "threshold": "BLOCK_NONE"}, ] # Utiliser un modèle stable comme gemini-1.5-flash model = genai.GenerativeModel( 'gemini-1.5-flash-latest', safety_settings=safety_settings, system_instruction="Tu es un assistant intelligent et amical nommé Mariam. Tu assistes les utilisateurs au mieux de tes capacités. Tu as été créé par Aenir." ) print("Modèle Gemini (gemini-1.5-flash-latest) chargé avec succès.") except Exception as e: print(f"ERREUR Critique lors de la configuration de Gemini : {e}") print("L'application fonctionnera sans les fonctionnalités IA.") # --- Fonctions Utilitaires --- def allowed_file(filename): """Vérifie si l'extension du fichier est autorisée.""" return '.' in filename and \ filename.rsplit('.', 1)[1].lower() in ALLOWED_EXTENSIONS def perform_web_search(query): """Effectue une recherche web via l'API Serper.""" serper_api_key = os.getenv("SERPER_API_KEY") if not serper_api_key: print("AVERTISSEMENT: Clé API SERPER_API_KEY manquante. Recherche web désactivée.") return None search_url = "https://google.serper.dev/search" headers = { 'X-API-KEY': serper_api_key, 'Content-Type': 'application/json' } payload = json.dumps({"q": query, "gl": "fr", "hl": "fr"}) # Ajout localisation FR try: print(f"Recherche Serper pour: '{query}'") response = requests.post(search_url, headers=headers, data=payload, timeout=10) response.raise_for_status() # Lève une exception pour les erreurs HTTP (4xx, 5xx) data = response.json() print("Résultats de recherche Serper obtenus.") # print(json.dumps(data, indent=2)) # Décommenter pour voir les résultats bruts return data except requests.exceptions.Timeout: print("Erreur lors de la recherche web : Timeout") return None except requests.exceptions.RequestException as e: print(f"Erreur lors de la recherche web : {e}") # Essayer de lire le corps de la réponse d'erreur si possible try: error_details = e.response.json() print(f"Détails de l'erreur Serper: {error_details}") except: pass # Ignorer si le corps n'est pas JSON ou n'existe pas return None except json.JSONDecodeError as e: print(f"Erreur lors du décodage de la réponse JSON de Serper : {e}") print(f"Réponse reçue (texte brut) : {response.text}") return None def format_search_results(data): """Met en forme les résultats de recherche (format Markdown).""" if not data: return "Aucun résultat de recherche web trouvé pertinent." results = [] # Réponse directe (Answer Box) if data.get('answerBox'): ab = data['answerBox'] title = ab.get('title', '') snippet = ab.get('snippet') or ab.get('answer', '') if snippet: results.append(f"**Réponse rapide : {title}**\n{snippet}\n") # Knowledge Graph if data.get('knowledgeGraph'): kg = data['knowledgeGraph'] title = kg.get('title', '') type = kg.get('type', '') description = kg.get('description', '') if title and description: results.append(f"**{title} ({type})**\n{description}\n") if kg.get('attributes'): for attr, value in kg['attributes'].items(): results.append(f"- {attr}: {value}") # Résultats organiques if data.get('organic'): results.append("**Pages web pertinentes :**") for i, item in enumerate(data['organic'][:3], 1): # Top 3 title = item.get('title', 'Sans titre') link = item.get('link', '#') snippet = item.get('snippet', 'Pas de description.') results.append(f"{i}. **[{title}]({link})**\n {snippet}\n") # People Also Ask if data.get('peopleAlsoAsk'): results.append("**Questions liées :**") for i, item in enumerate(data['peopleAlsoAsk'][:2], 1): # Top 2 results.append(f"- {item.get('question', '')}") if not results: return "Aucun résultat structuré trouvé dans la recherche web." return "\n".join(results) def prepare_gemini_history(chat_history): """Convertit l'historique stocké en session au format attendu par Gemini API.""" gemini_history = [] for message in chat_history: role = 'user' if message['role'] == 'user' else 'model' # Utiliser le 'raw_text' stocké pour Gemini text_part = message.get('raw_text', '') # Fallback au cas où parts = [text_part] # NOTE: La gestion des fichiers des tours PRÉCÉDENTS n'est pas gérée ici. # L'API generate_content se concentre généralement sur le fichier du tour ACTUEL. # Si une référence de fichier passée était nécessaire, il faudrait la stocker # et la ré-attacher ici (potentiellement plus complexe). gemini_history.append({'role': role, 'parts': parts}) return gemini_history # --- Routes Flask --- @app.route('/') def root(): """Route racine simple, confirme que le serveur est actif.""" # On pourrait aussi servir index.html ici si on le met dans 'templates' # return render_template('index.html') return "Serveur Mariam AI (Flask) est en cours d'exécution. Ouvrez index.html." @app.route('/api/history', methods=['GET']) def get_history(): """Fournit l'historique de chat stocké en session au format JSON.""" if 'chat_history' not in session: session['chat_history'] = [] # Préparer l'historique pour l'affichage (contient déjà le HTML pour l'assistant) display_history = [ {'role': msg.get('role', 'unknown'), 'text': msg.get('text', '')} for msg in session.get('chat_history', []) ] print(f"API: Récupération de l'historique ({len(display_history)} messages)") return jsonify({'success': True, 'history': display_history}) @app.route('/api/chat', methods=['POST']) def chat_api(): """Gère les nouvelles requêtes de chat via AJAX.""" if not model: print("API ERREUR: Tentative d'appel à /api/chat sans modèle Gemini chargé.") return jsonify({'success': False, 'error': "Le service IA n'est pas disponible."}), 503 # Service Unavailable # Récupération des données du formulaire prompt = request.form.get('prompt', '').strip() use_web_search_str = request.form.get('web_search', 'false') # 'true' ou 'false' use_web_search = use_web_search_str.lower() == 'true' file = request.files.get('file') # Validation simple if not prompt and not file: return jsonify({'success': False, 'error': 'Veuillez fournir un message ou un fichier.'}), 400 print(f"\n--- Nouvelle requête /api/chat ---") print(f"Prompt reçu: '{prompt[:50]}...'") print(f"Recherche Web activée: {use_web_search}") print(f"Fichier reçu: {file.filename if file else 'Aucun'}") # Initialiser l'historique de session si nécessaire if 'chat_history' not in session: session['chat_history'] = [] uploaded_gemini_file = None # L'objet fichier retourné par genai.upload_file uploaded_filename = None # Juste le nom du fichier pour référence/affichage filepath_to_delete = None # Chemin du fichier local à supprimer après traitement # --- Gestion de l'upload de fichier --- if file and file.filename != '': if allowed_file(file.filename): try: filename = secure_filename(file.filename) filepath = os.path.join(app.config['UPLOAD_FOLDER'], filename) file.save(filepath) filepath_to_delete = filepath # Marquer pour suppression uploaded_filename = filename print(f"Fichier '{filename}' sauvegardé temporairement dans '{filepath}'") # Détecter le MimeType pour Gemini mime_type = mimetypes.guess_type(filepath)[0] if not mime_type: mime_type = 'application/octet-stream' # Fallback print(f"AVERTISSEMENT: Impossible de deviner le MimeType pour '{filename}', utilisation de '{mime_type}'.") # Uploader vers Google AI (peut prendre du temps) print(f"Upload du fichier vers Google AI (MimeType: {mime_type})...") uploaded_gemini_file = genai.upload_file(path=filepath, mime_type=mime_type) print(f"Fichier '{uploaded_gemini_file.name}' uploadé avec succès vers Google AI.") except Exception as e: print(f"ERREUR Critique lors du traitement/upload du fichier '{filename}': {e}") # Supprimer le fichier local même en cas d'erreur d'upload Gemini if filepath_to_delete and os.path.exists(filepath_to_delete): try: os.remove(filepath_to_delete) print(f"Fichier temporaire '{filepath_to_delete}' supprimé après erreur.") except OSError as del_e: print(f"Erreur lors de la suppression du fichier temporaire après erreur: {del_e}") # Renvoyer une erreur claire au client return jsonify({'success': False, 'error': f"Erreur lors du traitement du fichier: {e}"}), 500 else: print(f"ERREUR: Type de fichier non autorisé: {file.filename}") return jsonify({'success': False, 'error': f"Type de fichier non autorisé. Extensions permises: {', '.join(ALLOWED_EXTENSIONS)}"}), 400 # --- Préparation du message utilisateur pour l'historique et Gemini --- # Texte brut pour Gemini (et pour l'historique interne) raw_user_text = prompt # Texte pour l'affichage dans l'interface (peut inclure le nom de fichier) display_user_text = f"[{uploaded_filename}] {prompt}" if uploaded_filename and prompt else (prompt or f"[{uploaded_filename}]") # Ajout à l'historique de session user_history_entry = { 'role': 'user', 'text': display_user_text, # Pour get_history et potentiellement debug 'raw_text': raw_user_text, # Pour l'envoi à Gemini via prepare_gemini_history # On ne stocke PAS l'objet 'uploaded_gemini_file' dans la session } session['chat_history'].append(user_history_entry) session.modified = True # Indiquer que la session a été modifiée # --- Préparation des 'parts' pour l'appel Gemini ACTUEL --- current_gemini_parts = [] if uploaded_gemini_file: current_gemini_parts.append(uploaded_gemini_file) # L'objet fichier uploadé final_prompt_for_gemini = raw_user_text # Commencer avec le texte brut # --- Recherche Web (si activée et si un prompt textuel existe) --- if use_web_search and raw_user_text: print("Activation de la recherche web...") search_data = perform_web_search(raw_user_text) if search_data: formatted_results = format_search_results(search_data) # Construire un prompt enrichi pour Gemini final_prompt_for_gemini = f"""Voici la question originale de l'utilisateur: "{raw_user_text}" J'ai effectué une recherche web et voici les informations pertinentes trouvées: --- DEBUT RESULTATS WEB --- {formatted_results} --- FIN RESULTATS WEB --- En te basant sur ces informations ET sur ta connaissance générale, fournis une réponse complète et bien structurée à la question originale de l'utilisateur.""" print("Prompt enrichi avec les résultats de recherche web.") else: print("Aucun résultat de recherche web pertinent trouvé ou erreur, utilisation du prompt original.") # final_prompt_for_gemini reste raw_user_text # Ajouter le texte (potentiellement enrichi) aux parts pour Gemini current_gemini_parts.append(final_prompt_for_gemini) # --- Appel à l'API Gemini --- try: # Préparer l'historique des messages PRÉCÉDENTS gemini_history = prepare_gemini_history(session['chat_history'][:-1]) # Exclut le message actuel print(f"Préparation de l'appel Gemini avec {len(gemini_history)} messages d'historique.") # Construire le contenu complet pour l'appel contents_for_gemini = gemini_history + [{'role': 'user', 'parts': current_gemini_parts}] # Appel API print("Envoi de la requête à Gemini...") # Utilisation de generate_content en mode non-streamé response = model.generate_content(contents_for_gemini) # print(response) # Décommenter pour voir la réponse brute de l'API # Extraire le texte de la réponse response_text_raw = response.text print(f"Réponse reçue de Gemini (brute, début): '{response_text_raw[:100]}...'") # Convertir la réponse Markdown en HTML pour l'affichage response_html = markdown.markdown(response_text_raw, extensions=['fenced_code', 'tables', 'nl2br']) print("Réponse convertie en HTML.") # Ajouter la réponse de l'assistant à l'historique de session assistant_history_entry = { 'role': 'assistant', 'text': response_html, # HTML pour l'affichage via get_history 'raw_text': response_text_raw # Texte brut pour les futurs appels Gemini } session['chat_history'].append(assistant_history_entry) session.modified = True # Renvoyer la réponse HTML au frontend print("Envoi de la réponse HTML au client.") return jsonify({'success': True, 'message': response_html}) except Exception as e: print(f"ERREUR Critique lors de l'appel à Gemini ou du traitement de la réponse : {e}") # En cas d'erreur, retirer le dernier message utilisateur de l'historique # pour éviter les boucles d'erreur si le message lui-même pose problème. session['chat_history'].pop() session.modified = True print("Le dernier message utilisateur a été retiré de l'historique suite à l'erreur.") # Renvoyer une erreur générique mais informative return jsonify({'success': False, 'error': f"Une erreur interne est survenue lors de la génération de la réponse. Détails: {e}"}), 500 finally: # --- Nettoyage du fichier temporaire --- if filepath_to_delete and os.path.exists(filepath_to_delete): try: os.remove(filepath_to_delete) print(f"Fichier temporaire '{filepath_to_delete}' supprimé avec succès.") except OSError as e: print(f"ERREUR lors de la suppression du fichier temporaire '{filepath_to_delete}': {e}") @app.route('/clear', methods=['POST']) def clear_chat(): """Efface l'historique de chat dans la session.""" session.pop('chat_history', None) session.pop('web_search', None) # Réinitialiser aussi le toggle web si besoin print("API: Historique de chat effacé via /clear.") # Adapter la réponse selon si c'est une requête AJAX (fetch) ou une soumission classique # Vérification si la requête vient probablement de fetch (simple) is_ajax = 'XMLHttpRequest' == request.headers.get('X-Requested-With') or \ request.headers.get('Accept') == 'application/json' if is_ajax: return jsonify({'success': True, 'message': 'Historique effacé.'}) else: # Comportement pour une soumission de formulaire classique (si jamais utilisé) flash("Conversation effacée.", "info") return redirect(url_for('root')) # Redirige vers la racine # --- Démarrage de l'application --- if __name__ == '__main__': print("Démarrage du serveur Flask...") # Utiliser host='0.0.0.0' pour rendre accessible sur le réseau local # debug=True est pratique pour le développement, mais à désactiver en production ! # Changer le port si nécessaire (ex: 5000, 5001, 8080) app.run(debug=True, host='0.0.0.0', port=5001)