Update app.py
Browse files
app.py
CHANGED
@@ -1,440 +1,304 @@
|
|
1 |
-
from flask import Flask, render_template, request, jsonify, session
|
2 |
-
import google.generativeai as genai
|
3 |
import os
|
4 |
-
from dotenv import load_dotenv
|
5 |
-
import http.client
|
6 |
import json
|
|
|
|
|
|
|
|
|
7 |
from werkzeug.utils import secure_filename
|
8 |
-
import
|
9 |
-
from PIL import Image # Required for checking image files if needed, or directly by genai
|
10 |
-
import traceback # For detailed error logging
|
11 |
-
|
12 |
-
# --- Configuration ---
|
13 |
-
load_dotenv() # Charge les variables depuis le fichier .env
|
14 |
|
15 |
-
|
16 |
-
GEMINI_API_KEY = os.getenv("GOOGLE_API_KEY")
|
17 |
-
SERPER_API_KEY = "9b90a274d9e704ff5b21c0367f9ae1161779b573" # Clé pour la recherche web (optionnelle)
|
18 |
-
FLASK_SECRET_KEY = os.getenv("FLASK_SECRET_KEY")
|
19 |
-
# Validation critique des clés au démarrage
|
20 |
|
21 |
-
# Configure Flask App
|
22 |
app = Flask(__name__)
|
23 |
-
|
24 |
-
app.config['
|
25 |
-
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
26 |
|
27 |
-
|
28 |
-
|
|
|
|
|
|
|
|
|
29 |
|
30 |
-
# Configure Google AI
|
31 |
-
try:
|
32 |
-
genai.configure(api_key=GEMINI_API_KEY)
|
33 |
-
except Exception as e:
|
34 |
-
raise RuntimeError(f"Échec de la configuration de l'API Google AI: {e}. Vérifiez votre GEMINI_API_KEY.")
|
35 |
-
|
36 |
-
|
37 |
-
# Paramètres de Sécurité Gemini (Ajustez si nécessaire)
|
38 |
-
safety_settings = [
|
39 |
-
{"category": "HARM_CATEGORY_HARASSMENT", "threshold": "BLOCK_MEDIUM_AND_ABOVE"},
|
40 |
-
{"category": "HARM_CATEGORY_HATE_SPEECH", "threshold": "BLOCK_MEDIUM_AND_ABOVE"},
|
41 |
-
{"category": "HARM_CATEGORY_SEXUALLY_EXPLICIT", "threshold": "BLOCK_MEDIUM_AND_ABOVE"},
|
42 |
-
{"category": "HARM_CATEGORY_DANGEROUS_CONTENT", "threshold": "BLOCK_MEDIUM_AND_ABOVE"},
|
43 |
-
]
|
44 |
-
|
45 |
-
# Configuration de la Génération Gemini
|
46 |
-
generation_config = {
|
47 |
-
"temperature": 0.7,
|
48 |
-
"top_p": 0.95,
|
49 |
-
"top_k": 64,
|
50 |
-
"max_output_tokens": 8192,
|
51 |
-
"response_mime_type": "text/plain", # Demande une réponse texte simple
|
52 |
-
}
|
53 |
-
|
54 |
-
# Prompt Système (Instructions pour l'IA)
|
55 |
-
SYSTEM_PROMPT = """
|
56 |
-
Vous êtes Mariam, une assistante IA conversationnelle polyvalente conçue par Youssouf.
|
57 |
-
Votre objectif est d'aider les utilisateurs de manière informative, créative et engageante.
|
58 |
-
Répondez en français. Soyez concise mais complète.
|
59 |
-
Si l'utilisateur télécharge des fichiers, prenez-les en compte dans votre réponse si pertinent pour la question posée.
|
60 |
-
Si la recherche web est activée et que des résultats sont fournis via le prompt, utilisez-les pour enrichir votre réponse en citant brièvement les points clés trouvés.
|
61 |
-
Formattez vos réponses en Markdown lorsque cela améliore la lisibilité (listes, blocs de code, gras, italique, etc.).
|
62 |
-
Ne mentionnez pas explicitement les "Résultats de recherche web" dans votre réponse finale à moins que ce ne soit naturel dans le contexte. Intégrez l'information trouvée.
|
63 |
-
"""
|
64 |
-
|
65 |
-
# Initialisation du Modèle Gemini
|
66 |
-
try:
|
67 |
model = genai.GenerativeModel(
|
68 |
-
|
|
|
69 |
safety_settings=safety_settings,
|
70 |
-
|
71 |
-
|
|
|
72 |
)
|
73 |
-
print("Modèle Gemini
|
74 |
except Exception as e:
|
75 |
-
|
76 |
-
|
77 |
|
78 |
-
#
|
79 |
-
chat_sessions = {}
|
80 |
-
|
81 |
-
# Extensions de fichiers autorisées pour l'upload
|
82 |
-
ALLOWED_EXTENSIONS = {
|
83 |
-
'txt', 'pdf', 'png', 'jpg', 'jpeg', 'gif', 'webp', # Texte et Images
|
84 |
-
'heic', 'heif', # Formats d'image Apple
|
85 |
-
'mp3', 'wav', 'ogg', 'flac', # Audio
|
86 |
-
'mp4', 'mov', 'avi', 'mkv', 'webm' # Vidéo
|
87 |
-
}
|
88 |
|
89 |
def allowed_file(filename):
|
90 |
-
"""Vérifie si l'extension du fichier est autorisée."""
|
91 |
return '.' in filename and \
|
92 |
filename.rsplit('.', 1)[1].lower() in ALLOWED_EXTENSIONS
|
93 |
|
94 |
-
# --- Fonctions Utilitaires ---
|
95 |
-
|
96 |
-
def get_chat_session(session_id):
|
97 |
-
"""Récupère ou crée une session de chat Gemini pour l'ID de session Flask donné."""
|
98 |
-
if session_id not in chat_sessions:
|
99 |
-
print(f"Création d'une nouvelle session de chat Gemini pour Flask session ID: {session_id}")
|
100 |
-
# L'historique est géré dynamiquement lors de l'envoi des messages
|
101 |
-
chat_sessions[session_id] = model.start_chat(history=[])
|
102 |
-
return chat_sessions[session_id]
|
103 |
-
|
104 |
def perform_web_search(query):
|
105 |
-
"""Effectue une recherche web via l'API Serper.
|
106 |
-
|
107 |
-
|
108 |
-
|
109 |
-
|
110 |
-
|
111 |
-
# Payload pour la recherche en français
|
112 |
-
payload = json.dumps({"q": query, "gl": "fr", "hl": "fr"})
|
113 |
headers = {
|
114 |
-
'X-API-KEY':
|
115 |
'Content-Type': 'application/json'
|
116 |
}
|
|
|
117 |
try:
|
118 |
-
|
119 |
-
|
120 |
-
|
121 |
-
|
122 |
-
|
123 |
-
|
124 |
-
|
125 |
-
|
126 |
-
|
127 |
-
|
128 |
-
|
129 |
-
|
130 |
-
|
131 |
-
|
132 |
-
|
133 |
-
|
134 |
-
|
135 |
-
|
136 |
-
|
137 |
-
|
138 |
-
|
139 |
-
print(f"Erreur inattendue lors de la recherche web: {e}")
|
140 |
-
traceback.print_exc()
|
141 |
-
return {"error": f"Exception lors de la recherche web: {str(e)}"}
|
142 |
-
finally:
|
143 |
-
conn.close()
|
144 |
-
|
145 |
-
def format_search_results_for_prompt(data):
|
146 |
-
"""Formate les résultats de recherche de manière concise pour les injecter dans le prompt de l'IA."""
|
147 |
-
if not data or data.get("searchParameters", {}).get("q") is None:
|
148 |
-
# Si data est vide ou ne semble pas être une réponse valide
|
149 |
-
print("Formatage recherche: Données invalides ou vides reçues.")
|
150 |
-
return "La recherche web n'a pas retourné de résultats exploitables."
|
151 |
-
if "error" in data:
|
152 |
-
print(f"Formatage recherche: Erreur détectée dans les données - {data['error']}")
|
153 |
-
return f"Note : La recherche web a rencontré une erreur ({data['error']})."
|
154 |
-
|
155 |
-
results = []
|
156 |
-
query = data.get("searchParameters", {}).get("q", "Terme inconnu")
|
157 |
-
results.append(f"Résultats de recherche web pour '{query}':")
|
158 |
-
|
159 |
-
# Boîte de réponse / Knowledge Graph (si présents)
|
160 |
-
if 'answerBox' in data:
|
161 |
-
ab = data['answerBox']
|
162 |
-
answer = ab.get('answer') or ab.get('snippet') or ab.get('title')
|
163 |
-
if answer:
|
164 |
-
results.append(f"- Réponse directe trouvée : {answer}")
|
165 |
-
elif 'knowledgeGraph' in data:
|
166 |
kg = data['knowledgeGraph']
|
167 |
-
|
168 |
-
|
169 |
-
|
170 |
-
|
171 |
-
|
172 |
-
|
173 |
-
results.append("- Résultats principaux :")
|
174 |
-
for i, item in enumerate(data['organic'][:3], 1): # Limite aux 3 premiers
|
175 |
-
title = item.get('title', 'Sans titre')
|
176 |
-
snippet = item.get('snippet', 'Pas de description')
|
177 |
-
link = item.get('link', '#')
|
178 |
-
results.append(f" {i}. {title}: {snippet} (Source: {link})")
|
179 |
-
elif not results: # Si ni answerbox/KG ni organic n'ont donné qqch
|
180 |
-
return f"Aucun résultat de recherche web pertinent trouvé pour '{query}'."
|
181 |
|
|
|
|
|
|
|
|
|
182 |
|
183 |
-
print(f"Formatage recherche: {len(results)-1} éléments formatés pour le prompt.")
|
184 |
-
return "\n".join(results)
|
185 |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
186 |
|
187 |
# --- Routes Flask ---
|
188 |
|
189 |
-
@app.route('/')
|
190 |
-
def
|
191 |
-
"""Affiche
|
192 |
-
|
193 |
-
|
194 |
-
|
195 |
-
session['
|
196 |
-
|
197 |
-
|
198 |
-
|
199 |
-
|
200 |
-
|
201 |
-
|
202 |
-
|
203 |
-
|
204 |
-
|
205 |
-
|
206 |
-
# Récupère les messages de la session pour les passer au template
|
207 |
-
messages_for_template = session.get('messages', [])
|
208 |
-
return render_template('index.html', messages=messages_for_template)
|
209 |
-
|
210 |
-
@app.route('/send_message', methods=['POST'])
|
211 |
-
def send_message():
|
212 |
-
"""Gère l'envoi d'un message à l'IA et retourne sa réponse."""
|
213 |
-
# Vérifie si la session utilisateur est valide
|
214 |
-
if 'session_id' not in session:
|
215 |
-
print("Erreur send_message: ID de session manquant.")
|
216 |
-
return jsonify({'error': 'Session expirée ou invalide. Veuillez rafraîchir la page.'}), 400
|
217 |
-
|
218 |
-
session_id = session['session_id']
|
219 |
-
print(f"\n--- Requête /send_message reçue (Session: {session_id}) ---")
|
220 |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
221 |
try:
|
222 |
-
|
223 |
-
|
224 |
-
web_search_enabled = data.get('web_search', False)
|
225 |
-
|
226 |
-
# Vérifie si le message est vide (sauf si des fichiers sont attachés)
|
227 |
-
uploaded_files = session.get('uploaded_files_gemini', [])
|
228 |
-
if not user_message_text and not uploaded_files:
|
229 |
-
print("Avertissement send_message: Message vide et aucun fichier attaché.")
|
230 |
-
return jsonify({'error': 'Veuillez entrer un message ou joindre un fichier.'}), 400
|
231 |
-
|
232 |
-
# Récupère ou crée la session de chat Gemini associée
|
233 |
-
chat_gemini = get_chat_session(session_id)
|
234 |
-
|
235 |
-
# --- Préparation du contenu pour Gemini ---
|
236 |
-
prompt_parts = [] # Liste pour contenir texte, fichiers, résultats web
|
237 |
-
|
238 |
-
# 1. Ajouter les fichiers uploadés (depuis la session)
|
239 |
-
# On utilise directement les objets File retournés par genai.upload_file
|
240 |
-
if uploaded_files:
|
241 |
-
prompt_parts.extend(uploaded_files) # Ajoute les objets File à la liste
|
242 |
-
file_names = [f.display_name for f in uploaded_files] # Noms pour log
|
243 |
-
print(f"Ajout au prompt des fichiers Gemini: {', '.join(file_names)}")
|
244 |
-
# Vider la liste des fichiers après les avoir ajoutés au prompt de CE message
|
245 |
-
# Permet d'associer les fichiers au message en cours uniquement
|
246 |
-
session['uploaded_files_gemini'] = []
|
247 |
-
session.modified = True
|
248 |
-
print("Liste des fichiers uploadés vidée pour le prochain message.")
|
249 |
-
|
250 |
-
|
251 |
-
# 2. Ajouter les résultats de recherche web (si activé et clé API dispo)
|
252 |
-
search_prompt_text = "" # Texte à ajouter au prompt textuel
|
253 |
-
if web_search_enabled and SERPER_API_KEY:
|
254 |
-
print(f"Recherche web activée pour: '{user_message_text}'")
|
255 |
-
web_results_data = perform_web_search(user_message_text)
|
256 |
-
if web_results_data:
|
257 |
-
formatted_results = format_search_results_for_prompt(web_results_data)
|
258 |
-
search_prompt_text = f"\n\n--- Informations issues de la recherche web ---\n{formatted_results}\n--- Fin des informations de recherche ---\n"
|
259 |
-
print("Résultats de recherche formatés ajoutés au contexte.")
|
260 |
-
else:
|
261 |
-
search_prompt_text = "\n\n(Note: La recherche web a été tentée mais n'a pas retourné de résultats ou a échoué.)\n"
|
262 |
-
print("Aucun résultat de recherche web ou échec.")
|
263 |
-
|
264 |
-
|
265 |
-
# 3. Ajouter le message texte de l'utilisateur (incluant le contexte de recherche si existant)
|
266 |
-
final_user_text = user_message_text + search_prompt_text
|
267 |
-
prompt_parts.append(final_user_text) # Ajoute le texte (potentiellement enrichi)
|
268 |
-
print(f"Texte final envoyé à Gemini:\n{final_user_text[:500]}...") # Log tronqué
|
269 |
-
|
270 |
-
# --- Envoi à l'API Gemini ---
|
271 |
-
print(f"Envoi de {len(prompt_parts)} partie(s) à l'API Gemini...")
|
272 |
-
ai_response_text = ""
|
273 |
-
try:
|
274 |
-
# Envoie la liste complète des parties (fichiers + texte)
|
275 |
-
response = chat_gemini.send_message(prompt_parts)
|
276 |
-
ai_response_text = response.text # Récupère le texte de la réponse
|
277 |
-
print("Réponse reçue de Gemini.")
|
278 |
-
|
279 |
-
# Vérifier si la réponse a été bloquée par les filtres de sécurité
|
280 |
-
if response.prompt_feedback.block_reason:
|
281 |
-
block_reason = response.prompt_feedback.block_reason
|
282 |
-
print(f"AVERTISSEMENT: Réponse bloquée par Gemini. Raison: {block_reason}")
|
283 |
-
ai_response_text = f"⚠️ Ma réponse a été bloquée en raison des filtres de sécurité (Raison: {block_reason}). Veuillez reformuler votre demande."
|
284 |
-
|
285 |
-
except Exception as e:
|
286 |
-
print(f"ERREUR lors de l'appel à Gemini API: {e}")
|
287 |
-
traceback.print_exc() # Log détaillé de l'erreur serveur
|
288 |
-
# Essaye de donner une erreur plus spécifique si possible
|
289 |
-
error_details = str(e)
|
290 |
-
ai_response_text = f"❌ Désolé, une erreur est survenue lors de la communication avec l'IA. Détails techniques: {error_details}"
|
291 |
-
|
292 |
-
|
293 |
-
# --- Mise à jour de l'historique de session Flask (pour l'affichage) ---
|
294 |
-
# Stocke le message *original* de l'utilisateur et la réponse de l'IA
|
295 |
-
current_messages = session.get('messages', [])
|
296 |
-
# !! Ne pas stocker le prompt enrichi dans l'historique affiché !!
|
297 |
-
current_messages.append({'role': 'user', 'content': user_message_text}) # Message original
|
298 |
-
current_messages.append({'role': 'assistant', 'content': ai_response_text}) # Réponse IA
|
299 |
-
session['messages'] = current_messages
|
300 |
session.modified = True
|
301 |
-
print("Historique de session Flask mis à jour.")
|
302 |
|
303 |
-
#
|
304 |
-
|
305 |
-
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
306 |
|
307 |
except Exception as e:
|
308 |
-
print(f"
|
309 |
-
|
310 |
-
|
311 |
-
|
312 |
-
|
313 |
-
|
314 |
-
|
315 |
-
|
316 |
-
|
317 |
-
|
318 |
-
|
319 |
-
|
320 |
-
|
321 |
-
|
322 |
-
|
323 |
-
|
324 |
-
|
325 |
-
|
326 |
-
|
327 |
-
file = request.files['file']
|
328 |
-
if file.filename == '':
|
329 |
-
print("Erreur upload: Nom de fichier vide.")
|
330 |
-
return jsonify({'error': 'Aucun fichier sélectionné.'}), 400
|
331 |
-
|
332 |
-
if file and allowed_file(file.filename):
|
333 |
-
filename = secure_filename(file.filename)
|
334 |
-
# Crée un chemin de sauvegarde temporaire unique (évite écrasement si même nom)
|
335 |
-
temp_filename = f"{session_id}_{uuid.uuid4().hex}_{filename}"
|
336 |
-
save_path = os.path.join(app.config['UPLOAD_FOLDER'], temp_filename)
|
337 |
-
|
338 |
-
try:
|
339 |
-
print(f"Sauvegarde du fichier '{filename}' vers '{save_path}'...")
|
340 |
-
file.save(save_path)
|
341 |
-
print(f"Fichier sauvegardé localement.")
|
342 |
-
|
343 |
-
# Uploader le fichier vers Google AI Studio (API Gemini)
|
344 |
-
print(f"Upload de '{filename}' vers Google AI Studio...")
|
345 |
-
# display_name est optionnel mais utile pour le débogage ou l'affichage
|
346 |
-
gemini_file_object = genai.upload_file(path=save_path, display_name=filename)
|
347 |
-
print(f"Fichier uploadé vers Gemini. Référence obtenue: {gemini_file_object.name}") # L'objet a un attribut 'name'
|
348 |
-
|
349 |
-
# Stocker l'objet File retourné par Gemini dans la session Flask
|
350 |
-
# C'est cet objet qui sera utilisé directement dans send_message
|
351 |
-
current_uploads = session.get('uploaded_files_gemini', [])
|
352 |
-
current_uploads.append(gemini_file_object)
|
353 |
-
session['uploaded_files_gemini'] = current_uploads
|
354 |
-
session.modified = True
|
355 |
-
print(f"Objet Fichier Gemini ajouté à la session Flask (Total: {len(current_uploads)}).")
|
356 |
-
|
357 |
-
# Supprimer le fichier local temporaire après l'upload réussi vers Gemini
|
358 |
-
try:
|
359 |
-
os.remove(save_path)
|
360 |
-
print(f"Fichier local temporaire '{save_path}' supprimé.")
|
361 |
-
except OSError as e:
|
362 |
-
print(f"AVERTISSEMENT: Échec de la suppression du fichier local '{save_path}': {e}")
|
363 |
-
|
364 |
-
print(f"--- Fin Requête /upload (Session: {session_id}) - Succès ---")
|
365 |
-
return jsonify({'success': True, 'filename': filename}) # Renvoie le nom original pour l'UI
|
366 |
-
|
367 |
-
except Exception as e:
|
368 |
-
print(f"ERREUR lors de l'upload ou du traitement Gemini: {e}")
|
369 |
-
traceback.print_exc()
|
370 |
-
# Nettoyer le fichier local s'il existe encore en cas d'erreur
|
371 |
-
if os.path.exists(save_path):
|
372 |
-
try:
|
373 |
-
os.remove(save_path)
|
374 |
-
print(f"Nettoyage: Fichier local '{save_path}' supprimé après erreur.")
|
375 |
-
except OSError as rm_err:
|
376 |
-
print(f"Erreur lors du nettoyage du fichier '{save_path}': {rm_err}")
|
377 |
-
print(f"--- Fin Requête /upload (Session: {session_id}) - Échec ---")
|
378 |
-
return jsonify({'error': f'Échec de l\'upload ou du traitement du fichier: {str(e)}'}), 500
|
379 |
-
else:
|
380 |
-
print(f"Erreur upload: Type de fichier non autorisé - '{file.filename}'")
|
381 |
-
return jsonify({'error': 'Type de fichier non autorisé.'}), 400
|
382 |
-
|
383 |
-
@app.route('/clear_chat', methods=['POST'])
|
384 |
def clear_chat():
|
385 |
-
"""Efface l'historique de
|
386 |
-
|
387 |
-
|
388 |
-
|
389 |
-
|
390 |
-
|
391 |
-
|
392 |
-
|
393 |
-
# 1. Effacer la session de chat Gemini en mémoire (si elle existe)
|
394 |
-
if session_id in chat_sessions:
|
395 |
-
del chat_sessions[session_id]
|
396 |
-
print(f"Session de chat Gemini pour {session_id} effacée de la mémoire.")
|
397 |
-
|
398 |
-
# 2. Effacer les données pertinentes de la session Flask
|
399 |
-
session['messages'] = []
|
400 |
-
files_to_delete = session.get('uploaded_files_gemini', [])
|
401 |
-
session['uploaded_files_gemini'] = []
|
402 |
-
session.modified = True
|
403 |
-
print("Historique des messages et références de fichiers effacés de la session Flask.")
|
404 |
-
|
405 |
-
# 3. (Optionnel mais recommandé) Supprimer les fichiers uploadés correspondants depuis Google AI Studio
|
406 |
-
# Cela nécessite de stocker les 'name' (IDs) des fichiers Gemini et d'appeler genai.delete_file()
|
407 |
-
# Pour l'instant, on efface juste la référence dans la session Flask.
|
408 |
-
# L'API delete_file est importante pour gérer l'espace de stockage Gemini.
|
409 |
-
if files_to_delete:
|
410 |
-
print(f"Tentative de suppression de {len(files_to_delete)} fichier(s) sur Google AI Studio...")
|
411 |
-
for file_obj in files_to_delete:
|
412 |
-
try:
|
413 |
-
print(f" Suppression de {file_obj.display_name} (ID: {file_obj.name})...")
|
414 |
-
genai.delete_file(file_obj.name)
|
415 |
-
print(f" Fichier {file_obj.name} supprimé de Google AI.")
|
416 |
-
except Exception as e:
|
417 |
-
print(f" ERREUR lors de la suppression du fichier {file_obj.name} de Google AI: {e}")
|
418 |
-
# Continuer même si un fichier ne peut être supprimé
|
419 |
-
|
420 |
-
|
421 |
-
print(f"--- Fin Requête /clear_chat (Session: {session_id}) ---")
|
422 |
-
return jsonify({'success': True})
|
423 |
-
|
424 |
-
|
425 |
-
# --- Démarrage de l'Application ---
|
426 |
if __name__ == '__main__':
|
427 |
-
#
|
428 |
-
#
|
429 |
-
|
430 |
-
print(" Démarrage du serveur Flask Assistant IA ")
|
431 |
-
print("="*40)
|
432 |
-
print("Vérifiez que votre fichier .env contient :")
|
433 |
-
print(" - GEMINI_API_KEY=VOTRE_CLE_GEMINI")
|
434 |
-
print(" - FLASK_SECRET_KEY=VOTRE_CLE_SECRET_FLASK")
|
435 |
-
print(" - SERPER_API_KEY=VOTRE_CLE_SERPER (Optionnel, pour recherche web)")
|
436 |
-
print("-"*40)
|
437 |
-
# Utiliser host='0.0.0.0' pour rendre accessible sur le réseau local
|
438 |
-
# debug=True active le rechargement automatique et le débogueur (NE PAS UTILISER EN PRODUCTION)
|
439 |
-
# Utiliser Gunicorn ou un autre serveur WSGI pour la production
|
440 |
-
app.run(debug=True, host='0.0.0.0', port=5000)
|
|
|
|
|
|
|
1 |
import os
|
|
|
|
|
2 |
import json
|
3 |
+
from flask import Flask, render_template, request, session, redirect, url_for, flash
|
4 |
+
from dotenv import load_dotenv
|
5 |
+
import google.generativeai as genai
|
6 |
+
import requests # Pour Serper API
|
7 |
from werkzeug.utils import secure_filename
|
8 |
+
import mimetypes # Pour vérifier le type de fichier
|
|
|
|
|
|
|
|
|
|
|
9 |
|
10 |
+
load_dotenv()
|
|
|
|
|
|
|
|
|
11 |
|
|
|
12 |
app = Flask(__name__)
|
13 |
+
# Très important pour utiliser les sessions Flask !
|
14 |
+
app.config['SECRET_KEY'] = os.getenv('FLASK_SECRET_KEY', 'une-clé-secrète-par-défaut-pour-dev')
|
15 |
+
# Configuration pour les uploads
|
16 |
+
UPLOAD_FOLDER = 'temp'
|
17 |
+
ALLOWED_EXTENSIONS = {'txt', 'pdf', 'png', 'jpg', 'jpeg'} # Extensions autorisées
|
18 |
+
app.config['UPLOAD_FOLDER'] = UPLOAD_FOLDER
|
19 |
+
app.config['MAX_CONTENT_LENGTH'] = 16 * 1024 * 1024 # Limite de taille (ex: 16MB)
|
20 |
+
|
21 |
+
# Créer le dossier temp s'il n'existe pas
|
22 |
+
os.makedirs(UPLOAD_FOLDER, exist_ok=True)
|
23 |
+
|
24 |
+
# Configuration de l'API Gemini
|
25 |
+
try:
|
26 |
+
genai.configure(api_key=os.getenv("GOOGLE_API_KEY"))
|
27 |
|
28 |
+
safety_settings = [
|
29 |
+
{"category": "HARM_CATEGORY_HARASSMENT", "threshold": "BLOCK_NONE"},
|
30 |
+
{"category": "HARM_CATEGORY_HATE_SPEECH", "threshold": "BLOCK_NONE"},
|
31 |
+
{"category": "HARM_CATEGORY_SEXUALLY_EXPLICIT", "threshold": "BLOCK_NONE"},
|
32 |
+
{"category": "HARM_CATEGORY_DANGEROUS_CONTENT", "threshold": "BLOCK_NONE"},
|
33 |
+
]
|
34 |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
35 |
model = genai.GenerativeModel(
|
36 |
+
'gemini-1.5-flash', # Utiliser un modèle stable recommandé si 'gemini-2.0-flash-exp' cause problème
|
37 |
+
# 'gemini-1.5-pro-latest', # Alternative plus puissante
|
38 |
safety_settings=safety_settings,
|
39 |
+
system_instruction="Tu es un assistant intelligent. ton but est d'assister au mieux que tu peux. tu as été créé par Aenir et tu t'appelles Mariam"
|
40 |
+
# Note: 'tools' n'est pas directement utilisé ici comme dans Streamlit,
|
41 |
+
# la logique de recherche web est gérée manuellement.
|
42 |
)
|
43 |
+
print("Modèle Gemini chargé.")
|
44 |
except Exception as e:
|
45 |
+
print(f"Erreur lors de la configuration de Gemini : {e}")
|
46 |
+
model = None # Empêche l'app de crasher si l'API key est mauvaise
|
47 |
|
48 |
+
# --- Fonctions Utilitaires ---
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
49 |
|
50 |
def allowed_file(filename):
|
|
|
51 |
return '.' in filename and \
|
52 |
filename.rsplit('.', 1)[1].lower() in ALLOWED_EXTENSIONS
|
53 |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
54 |
def perform_web_search(query):
|
55 |
+
"""Effectue une recherche web via l'API Serper."""
|
56 |
+
conn_key = "9b90a274d9e704ff5b21c0367f9ae1161779b573"
|
57 |
+
if not conn_key:
|
58 |
+
print("Clé API SERPER manquante dans .env")
|
59 |
+
return None
|
60 |
+
search_url = "https://google.serper.dev/search"
|
|
|
|
|
61 |
headers = {
|
62 |
+
'X-API-KEY': conn_key,
|
63 |
'Content-Type': 'application/json'
|
64 |
}
|
65 |
+
payload = json.dumps({"q": query})
|
66 |
try:
|
67 |
+
response = requests.post(search_url, headers=headers, data=payload, timeout=10)
|
68 |
+
response.raise_for_status() # Lève une exception pour les codes d'erreur HTTP
|
69 |
+
data = response.json()
|
70 |
+
print("Résultats de recherche obtenus.")
|
71 |
+
return data
|
72 |
+
except requests.exceptions.RequestException as e:
|
73 |
+
print(f"Erreur lors de la recherche web : {e}")
|
74 |
+
return None
|
75 |
+
except json.JSONDecodeError as e:
|
76 |
+
print(f"Erreur lors du décodage de la réponse JSON de Serper : {e}")
|
77 |
+
print(f"Réponse reçue : {response.text}")
|
78 |
+
return None
|
79 |
+
|
80 |
+
def format_search_results(data):
|
81 |
+
"""Met en forme les résultats de recherche pour le prompt Gemini."""
|
82 |
+
if not data:
|
83 |
+
return "Aucun résultat de recherche trouvé."
|
84 |
+
|
85 |
+
result = "Résultats de recherche web :\n"
|
86 |
+
|
87 |
+
if 'knowledgeGraph' in data:
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
88 |
kg = data['knowledgeGraph']
|
89 |
+
result += f"\n## Graphe de connaissances :\n"
|
90 |
+
result += f"### {kg.get('title', '')} ({kg.get('type', '')})\n"
|
91 |
+
result += f"{kg.get('description', '')}\n"
|
92 |
+
if 'attributes' in kg:
|
93 |
+
for attr, value in kg['attributes'].items():
|
94 |
+
result += f"- {attr}: {value}\n"
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
95 |
|
96 |
+
if 'answerBox' in data:
|
97 |
+
ab = data['answerBox']
|
98 |
+
result += f"\n## Réponse directe :\n"
|
99 |
+
result += f"{ab.get('title','')}\n{ab.get('snippet') or ab.get('answer','')}\n"
|
100 |
|
|
|
|
|
101 |
|
102 |
+
if 'organic' in data and data['organic']:
|
103 |
+
result += "\n## Résultats principaux :\n"
|
104 |
+
for i, item in enumerate(data['organic'][:3], 1): # Limite aux 3 premiers
|
105 |
+
result += f"{i}. **{item.get('title', 'N/A')}**\n"
|
106 |
+
result += f" {item.get('snippet', 'N/A')}\n"
|
107 |
+
result += f" Lien : {item.get('link', '#')}\n\n"
|
108 |
+
|
109 |
+
if 'peopleAlsoAsk' in data and data['peopleAlsoAsk']:
|
110 |
+
result += "## Questions fréquentes :\n"
|
111 |
+
for i, item in enumerate(data['peopleAlsoAsk'][:2], 1): # Limite aux 2 premières
|
112 |
+
result += f"{i}. **{item.get('question', 'N/A')}**\n"
|
113 |
+
# result += f" {item.get('snippet', 'N/A')}\n\n" # Le snippet est souvent redondant
|
114 |
+
|
115 |
+
return result
|
116 |
+
|
117 |
+
def prepare_gemini_history(chat_history):
|
118 |
+
"""Convertit l'historique stocké en session au format attendu par Gemini API."""
|
119 |
+
gemini_history = []
|
120 |
+
for message in chat_history:
|
121 |
+
role = 'user' if message['role'] == 'user' else 'model'
|
122 |
+
parts = [message['text']]
|
123 |
+
if message.get('gemini_file'): # Ajoute la référence au fichier si présente
|
124 |
+
parts.insert(0, message['gemini_file']) # Met le fichier avant le texte
|
125 |
+
gemini_history.append({'role': role, 'parts': parts})
|
126 |
+
return gemini_history
|
127 |
|
128 |
# --- Routes Flask ---
|
129 |
|
130 |
+
@app.route('/', methods=['GET'])
|
131 |
+
def index():
|
132 |
+
"""Affiche la page principale du chat."""
|
133 |
+
if 'chat_history' not in session:
|
134 |
+
session['chat_history'] = [] # Initialise l'historique
|
135 |
+
if 'web_search' not in session:
|
136 |
+
session['web_search'] = False # Initialise l'état de la recherche web
|
137 |
+
|
138 |
+
return render_template(
|
139 |
+
'index.html',
|
140 |
+
chat_history=session['chat_history'],
|
141 |
+
web_search_active=session['web_search'],
|
142 |
+
error=session.pop('error', None), # Récupère et supprime l'erreur s'il y en a une
|
143 |
+
processing_message=session.pop('processing', False) # Indicateur de traitement
|
144 |
+
)
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
145 |
|
146 |
+
@app.route('/chat', methods=['POST'])
|
147 |
+
def chat():
|
148 |
+
"""Gère la soumission du formulaire de chat."""
|
149 |
+
if not model:
|
150 |
+
session['error'] = "Le modèle Gemini n'a pas pu être chargé. Vérifiez la clé API et la configuration."
|
151 |
+
return redirect(url_for('index'))
|
152 |
+
|
153 |
+
prompt = request.form.get('prompt', '').strip()
|
154 |
+
# Met à jour l'état de la recherche web depuis la checkbox
|
155 |
+
session['web_search'] = 'web_search' in request.form
|
156 |
+
file = request.files.get('file')
|
157 |
+
uploaded_gemini_file = None
|
158 |
+
user_message_content = {'role': 'user', 'text': prompt}
|
159 |
+
|
160 |
+
if not prompt and not file:
|
161 |
+
session['error'] = "Veuillez entrer un message ou uploader un fichier."
|
162 |
+
return redirect(url_for('index'))
|
163 |
+
|
164 |
+
# --- Gestion de l'upload de fichier ---
|
165 |
+
if file and file.filename != '':
|
166 |
+
if allowed_file(file.filename):
|
167 |
+
try:
|
168 |
+
# Sécurise le nom du fichier et détermine le chemin complet
|
169 |
+
filename = secure_filename(file.filename)
|
170 |
+
filepath = os.path.join(app.config['UPLOAD_FOLDER'], filename)
|
171 |
+
file.save(filepath)
|
172 |
+
print(f"Fichier sauvegardé temporairement : {filepath}")
|
173 |
+
|
174 |
+
# Essayer d'uploader vers Gemini
|
175 |
+
print("Upload vers Gemini en cours...")
|
176 |
+
# Détecter le mime type pour l'upload Gemini
|
177 |
+
mime_type = mimetypes.guess_type(filepath)[0]
|
178 |
+
if not mime_type:
|
179 |
+
# Fallback si la détection échoue
|
180 |
+
mime_type = 'application/octet-stream'
|
181 |
+
print(f"Impossible de deviner le mime_type pour {filename}, utilisation de {mime_type}")
|
182 |
+
|
183 |
+
gemini_file_obj = genai.upload_file(path=filepath, mime_type=mime_type)
|
184 |
+
uploaded_gemini_file = gemini_file_obj # Garder l'objet fichier pour l'API
|
185 |
+
user_message_content['gemini_file'] = uploaded_gemini_file # Stocke la référence pour l'historique Gemini
|
186 |
+
user_message_content['text'] = f"[Fichier: {filename}]\n\n{prompt}" # Modifie le texte affiché
|
187 |
+
print(f"Fichier {filename} uploadé avec succès vers Gemini. MimeType: {mime_type}")
|
188 |
+
|
189 |
+
# Optionnel: Supprimer le fichier local après upload vers Gemini
|
190 |
+
# try:
|
191 |
+
# os.remove(filepath)
|
192 |
+
# print(f"Fichier temporaire {filepath} supprimé.")
|
193 |
+
# except OSError as e:
|
194 |
+
# print(f"Erreur lors de la suppression du fichier temporaire {filepath}: {e}")
|
195 |
+
|
196 |
+
|
197 |
+
except Exception as e:
|
198 |
+
print(f"Erreur lors du traitement ou de l'upload du fichier : {e}")
|
199 |
+
session['error'] = f"Erreur lors du traitement du fichier : {e}"
|
200 |
+
# Ne pas bloquer si l'upload échoue, on peut continuer sans le fichier
|
201 |
+
# return redirect(url_for('index')) # Décommentez si l'upload doit être bloquant
|
202 |
+
else:
|
203 |
+
session['error'] = "Type de fichier non autorisé."
|
204 |
+
return redirect(url_for('index'))
|
205 |
+
elif file and file.filename == '':
|
206 |
+
# Si un champ fichier existe mais est vide, on l'ignore simplement
|
207 |
+
pass
|
208 |
+
|
209 |
+
# --- Ajout du message utilisateur à l'historique de session ---
|
210 |
+
if prompt or uploaded_gemini_file: # N'ajoute que s'il y a du contenu
|
211 |
+
# Version simplifiée pour l'affichage HTML (sans l'objet gemini_file)
|
212 |
+
display_history_message = {'role': 'user', 'text': user_message_content['text']}
|
213 |
+
session['chat_history'].append(display_history_message)
|
214 |
+
session.modified = True # Important car on modifie une liste dans la session
|
215 |
+
|
216 |
+
# --- Préparation et Envoi à Gemini ---
|
217 |
try:
|
218 |
+
# Indiquer qu'un traitement est en cours
|
219 |
+
session['processing'] = True
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
220 |
session.modified = True
|
|
|
221 |
|
222 |
+
# Construire le prompt final (avec recherche web si activée)
|
223 |
+
final_prompt_parts = []
|
224 |
+
if uploaded_gemini_file:
|
225 |
+
final_prompt_parts.append(uploaded_gemini_file)
|
226 |
+
|
227 |
+
current_prompt_text = prompt
|
228 |
+
|
229 |
+
# Effectuer la recherche web si activée ET si un prompt textuel existe
|
230 |
+
if session['web_search'] and prompt:
|
231 |
+
print("Recherche web activée pour le prompt:", prompt)
|
232 |
+
# Afficher l'indicateur de recherche
|
233 |
+
# Note: dans Flask simple, l'indicateur ne sera visible qu'APRES le rechargement.
|
234 |
+
# Pour un affichage dynamique, il faudrait JS/AJAX.
|
235 |
+
# On peut passer une variable au template pour l'afficher avant la réponse.
|
236 |
+
session['processing_web_search'] = True # Indicateur spécifique
|
237 |
+
session.modified = True
|
238 |
+
|
239 |
+
web_results = perform_web_search(prompt)
|
240 |
+
if web_results:
|
241 |
+
formatted_results = format_search_results(web_results)
|
242 |
+
current_prompt_text = f"Question originale: {prompt}\n\n{formatted_results}\n\nBasé sur ces informations et ta connaissance générale, réponds à la question originale."
|
243 |
+
print("Prompt modifié avec les résultats de recherche.")
|
244 |
+
else:
|
245 |
+
print("Aucun résultat de recherche web obtenu ou erreur.")
|
246 |
+
# On continue avec le prompt original
|
247 |
+
|
248 |
+
final_prompt_parts.append(current_prompt_text)
|
249 |
+
|
250 |
+
# Préparer l'historique complet pour Gemini
|
251 |
+
gemini_history = prepare_gemini_history(session['chat_history'][:-1]) # Exclut le dernier message utilisateur (qui est dans final_prompt_parts)
|
252 |
+
|
253 |
+
print(f"\n--- Envoi à Gemini ---")
|
254 |
+
print(f"Historique envoyé: {len(gemini_history)} messages")
|
255 |
+
print(f"Parties du prompt actuel: {len(final_prompt_parts)}")
|
256 |
+
# print(f"Prompt textuel final: {current_prompt_text[:200]}...") # Afficher début du prompt
|
257 |
+
# print("----------------------\n")
|
258 |
+
|
259 |
+
# Appel à Gemini API
|
260 |
+
# Utiliser generate_content qui prend l'historique + le nouveau message
|
261 |
+
full_conversation = gemini_history + [{'role': 'user', 'parts': final_prompt_parts}]
|
262 |
+
response = model.generate_content(full_conversation)
|
263 |
+
|
264 |
+
# --- Traitement de la réponse ---
|
265 |
+
response_text = response.text
|
266 |
+
print(f"\n--- Réponse de Gemini ---")
|
267 |
+
print(response_text[:500] + ('...' if len(response_text) > 500 else ''))
|
268 |
+
# print("-------------------------\n")
|
269 |
+
|
270 |
+
# Ajout de la réponse à l'historique de session
|
271 |
+
session['chat_history'].append({'role': 'assistant', 'text': response_text})
|
272 |
+
session.modified = True
|
273 |
|
274 |
except Exception as e:
|
275 |
+
print(f"Erreur lors de l'appel à Gemini : {e}")
|
276 |
+
session['error'] = f"Une erreur s'est produite lors de la communication avec l'IA : {e}"
|
277 |
+
# Si une erreur survient, on retire le message utilisateur qui a causé l'erreur
|
278 |
+
# pour éviter de le renvoyer indéfiniment.
|
279 |
+
if session['chat_history'] and session['chat_history'][-1]['role'] == 'user':
|
280 |
+
session['chat_history'].pop()
|
281 |
+
session.modified = True
|
282 |
+
|
283 |
+
finally:
|
284 |
+
# Indiquer que le traitement est terminé
|
285 |
+
session['processing'] = False
|
286 |
+
session.pop('processing_web_search', None) # Nettoyer l'indicateur de recherche
|
287 |
+
session.modified = True
|
288 |
+
|
289 |
+
|
290 |
+
return redirect(url_for('index')) # Redirige vers la page principale pour afficher le nouvel état
|
291 |
+
|
292 |
+
@app.route('/clear', methods=['POST'])
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
293 |
def clear_chat():
|
294 |
+
"""Efface l'historique de la conversation."""
|
295 |
+
session.pop('chat_history', None) # Supprime l'historique de la session
|
296 |
+
session.pop('web_search', None) # Réinitialise aussi le toggle web
|
297 |
+
print("Historique de chat effacé.")
|
298 |
+
return redirect(url_for('index')) # Redirige vers la page d'accueil
|
299 |
+
|
300 |
+
# --- Démarrage de l'application ---
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
301 |
if __name__ == '__main__':
|
302 |
+
# Utiliser host='0.0.0.0' pour rendre l'app accessible sur le réseau local
|
303 |
+
# Debug=True est utile pour le développement, mais à désactiver en production
|
304 |
+
app.run(debug=True, host='0.0.0.0', port=5001)
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|