Chatm / app.py
Docfile's picture
Update app.py
a08ef55 verified
raw
history blame
21.5 kB
import os
import json
import mimetypes
import time
import re # Pour la détection d'URL YouTube
import traceback # Ajout pour afficher les tracebacks complets
from flask import Flask, request, session, jsonify, redirect, url_for, flash, render_template
from dotenv import load_dotenv
# Importe genai et types séparément pour plus de clarté
from google import genai
from google.genai import types # Important pour Part, FileData, SafetySetting etc.
# L'exception StopCandidateException est directement sous genai
# from google.generativeai.types import StopCandidateException # Ne fonctionne pas
import requests
from werkzeug.utils import secure_filename
import markdown # Pour convertir la réponse Markdown en HTML
# --- Configuration Initiale ---
load_dotenv() # Charge les variables depuis .env
app = Flask(__name__)
# Clé secrète FORTEMENT recommandée pour la sécurité des sessions
app.config['SECRET_KEY'] = os.getenv('FLASK_SECRET_KEY', 'une-cle-secrete-tres-difficile-a-deviner')
# Configuration pour les uploads
UPLOAD_FOLDER = 'temp'
# Extensions autorisées (incluant vidéo)
ALLOWED_EXTENSIONS = {'txt', 'pdf', 'png', 'jpg', 'jpeg', 'mp4', 'mov', 'avi', 'mkv', 'webm'}
VIDEO_EXTENSIONS = {'mp4', 'mov', 'avi', 'mkv', 'webm'} # Pour identifier les vidéos
app.config['UPLOAD_FOLDER'] = UPLOAD_FOLDER
# Augmenter la limite pour les vidéos (ex: 100MB) - Ajustez si nécessaire
app.config['MAX_CONTENT_LENGTH'] = 100 * 1024 * 1024
# Crée le dossier temporaire s'il n'existe pas
os.makedirs(UPLOAD_FOLDER, exist_ok=True)
print(f"Dossier d'upload configuré : {os.path.abspath(UPLOAD_FOLDER)}")
# --- Configuration de l'API Gemini ---
# Utilisez les noms de modèles spécifiés
MODEL_FLASH = 'gemini-2.0-flash'
MODEL_PRO = 'gemini-2.5-pro-exp-03-25' # Pro est souvent nécessaire/meilleur pour la vidéo
# Instruction système pour le modèle
SYSTEM_INSTRUCTION = "Tu es un assistant intelligent et amical nommé Mariam. Tu assistes les utilisateurs au mieux de tes capacités, y compris dans l'analyse de texte, d'images et de vidéos (via upload ou lien YouTube). Tu as été créé par Aenir."
# Paramètres de sécurité (structure correcte pour GenerateContentConfig)
SAFETY_SETTINGS_CONFIG = [
types.SafetySetting(
category=types.HarmCategory.HARM_CATEGORY_HATE_SPEECH,
threshold=types.HarmBlockThreshold.BLOCK_LOW_AND_ABOVE,
),
types.SafetySetting(
category=types.HarmCategory.HARM_CATEGORY_HARASSMENT,
threshold=types.HarmBlockThreshold.BLOCK_LOW_AND_ABOVE,
),
types.SafetySetting(
category=types.HarmCategory.HARM_CATEGORY_SEXUALLY_EXPLICIT,
threshold=types.HarmBlockThreshold.BLOCK_LOW_AND_ABOVE,
),
types.SafetySetting(
category=types.HarmCategory.HARM_CATEGORY_DANGEROUS_CONTENT,
threshold=types.HarmBlockThreshold.BLOCK_LOW_AND_ABOVE,
)
]
GEMINI_CONFIGURED = False
gemini_client = None # Client API
try:
gemini_api_key = os.getenv("GOOGLE_API_KEY")
if not gemini_api_key:
raise ValueError("Clé API GOOGLE_API_KEY manquante dans le fichier .env")
# Initialise le client
gemini_client = genai.Client(api_key=gemini_api_key)
# Vérifie si les modèles requis sont disponibles en utilisant le client
print("Vérification des modèles Gemini disponibles...")
available_models_full_names = [m.name for m in gemini_client.models.list()] # Correction: client.models.list()
required_models_prefixes = [MODEL_FLASH, MODEL_PRO]
models_found = {req: False for req in required_models_prefixes}
for available in available_models_full_names:
for req in required_models_prefixes:
if available.startswith(f'models/{req}'):
models_found[req] = True
if all(models_found.values()):
print(f"Configuration Gemini effectuée. Modèles requis ({', '.join(required_models_prefixes)}) trouvés.")
print(f"Instruction Système: {SYSTEM_INSTRUCTION}")
GEMINI_CONFIGURED = True
else:
missing = [req for req, found in models_found.items() if not found]
raise ValueError(f"Les modèles Gemini requis suivants (ou commençant par) sont manquants : {missing}")
except Exception as e:
print(f"ERREUR Critique lors de la configuration initiale de Gemini : {e}")
traceback.print_exc() # Affiche le traceback pour l'erreur d'init
print("L'application fonctionnera sans les fonctionnalités IA.")
gemini_client = None
GEMINI_CONFIGURED = False
# --- Fonctions Utilitaires ---
def get_file_extension(filename):
"""Retourne l'extension du fichier en minuscules, ou None."""
return filename.rsplit('.', 1)[1].lower() if '.' in filename else None
def allowed_file(filename):
"""Vérifie si l'extension du fichier est dans la liste autorisée."""
return get_file_extension(filename) in ALLOWED_EXTENSIONS
def is_video_file(filename):
"""Vérifie si l'extension correspond à un type vidéo connu."""
return get_file_extension(filename) in VIDEO_EXTENSIONS
def is_youtube_url(url):
"""Vérifie si la chaîne ressemble à une URL YouTube valide."""
if not url: return False
youtube_regex = re.compile(
r'(https?://)?(www.)?'
r'(youtube|youtu|youtube-nocookie).(com|be)/'
r'(watch?v=|embed/|v/|.+?v=)?'
r'([^&=%\?]{11})')
return youtube_regex.match(url) is not None
# --- Fonction d'Upload Vidéo avec Polling ---
def upload_video_with_polling(filepath, mime_type, max_wait_seconds=300, poll_interval=10):
"""Upload une vidéo via client.files.upload et attend son traitement."""
if not gemini_client:
raise ConnectionError("Le client Gemini n'est pas initialisé.")
print(f"Début de l'upload vidéo via client.files: {filepath} ({mime_type})")
video_file = None
try:
video_file = gemini_client.files.upload(path=filepath, mime_type=mime_type)
print(f"Upload initialisé. Nom du fichier distant: {video_file.name}. Attente du traitement...")
start_time = time.time()
while video_file.state == types.FileState.PROCESSING:
elapsed_time = time.time() - start_time
if elapsed_time > max_wait_seconds:
raise TimeoutError(f"Le traitement de la vidéo a dépassé le délai de {max_wait_seconds} secondes.")
print(f"Vidéo en cours de traitement... (État: {video_file.state.name}, {int(elapsed_time)}s écoulées)")
time.sleep(poll_interval)
video_file = gemini_client.files.get(name=video_file.name)
if video_file.state == types.FileState.FAILED:
print(f"ERREUR: Le traitement de la vidéo a échoué. État: {video_file.state.name}")
raise ValueError("Le traitement de la vidéo a échoué côté serveur.")
if video_file.state == types.FileState.ACTIVE:
print(f"Traitement vidéo terminé avec succès: {video_file.uri}")
return video_file
else:
print(f"AVERTISSEMENT: État inattendu du fichier vidéo après traitement: {video_file.state.name}")
raise RuntimeError(f"État inattendu du fichier vidéo: {video_file.state.name}")
except Exception as e:
print(f"Erreur lors de l'upload/traitement vidéo via client.files: {e}")
if video_file and hasattr(video_file, 'name'):
try:
gemini_client.files.delete(name=video_file.name)
print(f"Tentative de nettoyage du fichier distant {video_file.name} après erreur.")
except Exception as delete_err:
print(f"Échec du nettoyage du fichier distant {video_file.name} après erreur: {delete_err}")
raise
# --- Fonctions de Recherche Web (inchangées - implémentez si nécessaire) ---
def perform_web_search(query):
serper_api_key = os.getenv("SERPER_API_KEY")
if not serper_api_key:
print("AVERTISSEMENT: Clé API SERPER_API_KEY manquante. Recherche web désactivée.")
return None
print(f"Recherche Web (simulation) pour : {query}")
return None
def format_search_results(data):
if not data: return "Aucun résultat de recherche web pertinent."
results = ["Résultats Web:"]
if data.get('organic'):
for item in data['organic'][:3]:
results.append(f"- {item.get('title', '')}: {item.get('snippet', '')}")
return "\n".join(results)
return "Aucun résultat organique trouvé."
# --- Préparation Historique (Corrigé pour utiliser types.Part) ---
def prepare_gemini_history(chat_history):
"""Convertit l'historique de session pour l'API Gemini (texte seulement)."""
gemini_history = []
for message in chat_history:
role = 'user' if message['role'] == 'user' else 'model'
raw_text_content = message.get('raw_text', '')
if raw_text_content:
# Correction: Créer un objet Part pour le texte
text_part_object = types.Part(text=raw_text_content)
gemini_history.append({'role': role, 'parts': [text_part_object]})
return gemini_history
# --- Routes Flask ---
@app.route('/')
def root():
"""Sert la page HTML principale."""
try:
return render_template('index.html')
except Exception as e:
print(f"Erreur lors du rendu du template index.html: {e}")
return "Erreur: Impossible de charger la page principale. Vérifiez que 'templates/index.html' existe.", 500
@app.route('/api/history', methods=['GET'])
def get_history():
"""Fournit l'historique de chat (formaté pour affichage) en JSON."""
if 'chat_history' not in session:
session['chat_history'] = []
display_history = [
{'role': msg.get('role', 'unknown'), 'text': msg.get('text', '')}
for msg in session.get('chat_history', [])
]
return jsonify({'success': True, 'history': display_history})
@app.route('/api/chat', methods=['POST'])
def chat_api():
"""Gère les requêtes de chat (texte, fichier/vidéo uploadé, URL YouTube)."""
if not GEMINI_CONFIGURED or not gemini_client:
print("API ERREUR: Tentative d'appel à /api/chat sans configuration Gemini valide.")
return jsonify({'success': False, 'error': "Le service IA n'est pas configuré correctement."}), 503
prompt = request.form.get('prompt', '').strip()
youtube_url = request.form.get('youtube_url', '').strip()
use_web_search = request.form.get('web_search', 'false').lower() == 'true'
use_advanced = request.form.get('advanced_reasoning', 'false').lower() == 'true'
file = request.files.get('file')
if not file and not youtube_url and not prompt:
return jsonify({'success': False, 'error': 'Veuillez fournir un message, un fichier/vidéo ou un lien YouTube.'}), 400
print(f"\n--- Nouvelle requête /api/chat ---")
print(f" Prompt: '{prompt[:50]}...'")
print(f" Fichier: {file.filename if file else 'Non'}")
print(f" URL YouTube: {youtube_url if youtube_url else 'Non'}")
print(f" Web Search: {use_web_search}, Advanced: {use_advanced}")
if 'chat_history' not in session:
session['chat_history'] = []
uploaded_media_part = None
uploaded_filename_for_display = None
filepath_to_delete = None
is_media_request = False
media_type = None
try:
if file and file.filename != '':
is_media_request = True
media_type = 'file'
uploaded_filename_for_display = secure_filename(file.filename)
if not allowed_file(uploaded_filename_for_display):
raise ValueError(f"Type de fichier non autorisé: {uploaded_filename_for_display}")
filepath = os.path.join(app.config['UPLOAD_FOLDER'], uploaded_filename_for_display)
file.save(filepath)
filepath_to_delete = filepath
print(f" Fichier '{uploaded_filename_for_display}' sauvegardé -> '{filepath}'")
mime_type = mimetypes.guess_type(filepath)[0] or 'application/octet-stream'
if is_video_file(uploaded_filename_for_display):
media_type = 'video'
print(" Traitement VIDÉO Uploadée (avec polling)...")
processed_media_file = upload_video_with_polling(filepath, mime_type)
uploaded_media_part = types.Part(file_data=processed_media_file)
else:
print(" Traitement FICHIER standard via client.files...")
processed_media_file = gemini_client.files.upload(path=filepath, mime_type=mime_type)
time.sleep(2) # Attente simplifiée
processed_media_file = gemini_client.files.get(name=processed_media_file.name)
if processed_media_file.state != types.FileState.ACTIVE:
print(f"AVERTISSEMENT: Fichier non-vidéo '{processed_media_file.name}' n'est pas ACTIF ({processed_media_file.state.name}).")
uploaded_media_part = types.Part(file_data=processed_media_file)
print(f" Part Média ({media_type}) créé: {processed_media_file.uri}")
elif youtube_url:
if not is_youtube_url(youtube_url):
print(f" AVERTISSEMENT: '{youtube_url}' n'est pas un lien YouTube valide.")
media_type = 'text'
else:
is_media_request = True
media_type = 'youtube'
print(" Traitement LIEN YouTube...")
uploaded_filename_for_display = youtube_url
youtube_uri = youtube_url
uploaded_media_part = types.Part(
file_data=types.FileData(file_uri=youtube_uri, mime_type="video/mp4")
)
print(f" Part YouTube créé pour: {youtube_uri}")
if not prompt:
prompt = "Décris ou analyse le contenu de cette vidéo YouTube."
print(f" Prompt par défaut ajouté pour YouTube: '{prompt}'")
elif prompt:
media_type = 'text'
print(" Traitement PROMPT texte seul.")
else:
raise ValueError("Aucune entrée valide fournie.")
display_user_text = prompt
if media_type == 'file' or media_type == 'video':
display_user_text = f"[{uploaded_filename_for_display}]" + (f" {prompt}" if prompt else "")
elif media_type == 'youtube':
display_user_text = f"[YouTube]" + (f" {prompt}" if prompt else "") + f"\n{uploaded_filename_for_display}"
user_history_entry = {'role': 'user', 'text': display_user_text, 'raw_text': prompt}
session['chat_history'].append(user_history_entry)
session.modified = True
current_gemini_parts = []
if uploaded_media_part:
current_gemini_parts.append(uploaded_media_part)
final_prompt_for_gemini = prompt
if use_web_search and prompt and media_type == 'text':
print(" Activation Recherche Web...")
search_data = perform_web_search(prompt)
if search_data:
formatted_results = format_search_results(search_data)
final_prompt_for_gemini = f"""Basé sur la question suivante et les informations web ci-dessous, fournis une réponse complète.\n\nQuestion Originale:\n"{prompt}"\n\nInformations Web Pertinentes:\n--- DEBUT RESULTATS WEB ---\n{formatted_results}\n--- FIN RESULTATS WEB ---\n\nRéponse:"""
print(" Prompt enrichi avec les résultats web.")
else:
print(" Aucun résultat de recherche web trouvé ou pertinent.")
if final_prompt_for_gemini:
current_gemini_parts.append(types.Part(text=final_prompt_for_gemini)) # Correction: Toujours Part
if not current_gemini_parts:
raise ValueError("Impossible de traiter la requête : contenu vide.")
gemini_history = prepare_gemini_history(session['chat_history'][:-1])
# Structure correcte pour contents (liste de dictionnaires role/parts)
contents_for_gemini = gemini_history + [{'role': 'user', 'parts': current_gemini_parts}]
selected_model_api_name = f'models/{MODEL_PRO}' if is_media_request or use_advanced else f'models/{MODEL_FLASH}'
print(f" Modèle sélectionné pour l'API: {selected_model_api_name}")
generation_config = types.GenerationConfig() # Config vide par défaut, ajouter des params si besoin
# Correction: Appel via client.models.generate_content
print(f" Envoi de la requête à {selected_model_api_name} ({len(contents_for_gemini)} messages/tours)...")
response = gemini_client.models.generate_content(
model=selected_model_api_name, # Utilise 'model'
contents=contents_for_gemini,
generation_config=generation_config,
safety_settings=SAFETY_SETTINGS_CONFIG,
system_instruction=types.Content(parts=[types.Part(text=SYSTEM_INSTRUCTION)], role="system")
)
response_text_raw = ""
response_html = ""
try:
response_text_raw = response.text
except ValueError as ve:
print(f" ERREUR: La réponse de Gemini a été bloquée (ValueError): {ve}")
try:
print(f" Détails du blocage (Prompt Feedback): {response.prompt_feedback}")
block_reason = response.prompt_feedback.block_reason_message or "Raison non spécifiée"
response_text_raw = f"Désolé, ma réponse a été bloquée car elle pourrait enfreindre les règles de sécurité ({block_reason})."
except Exception as feedback_err:
print(f" Impossible de récupérer les détails du blocage: {feedback_err}")
response_text_raw = "Désolé, ma réponse a été bloquée car elle pourrait enfreindre les règles de sécurité."
except Exception as resp_err:
print(f" ERREUR inattendue lors de l'accès à response.text : {resp_err}")
print(f" Réponse brute complète : {response}")
response_text_raw = "Désolé, une erreur interne s'est produite lors de la réception de la réponse."
print(f" Réponse reçue (début): '{response_text_raw[:100]}...'")
response_html = markdown.markdown(response_text_raw, extensions=['fenced_code', 'tables', 'nl2br'])
print(" Réponse convertie en HTML.")
assistant_history_entry = {'role': 'assistant', 'text': response_html, 'raw_text': response_text_raw}
session['chat_history'].append(assistant_history_entry)
session.modified = True
print(" Envoi de la réponse HTML au client.")
return jsonify({'success': True, 'message': response_html})
# Correction: Utiliser genai.StopCandidateException
except (TimeoutError, ValueError, ConnectionError, FileNotFoundError, genai.StopCandidateException) as e:
error_message = f"Erreur lors du traitement de la requête: {e}"
print(f"ERREUR (Traitement/Appel API): {error_message}")
# Correction: Utiliser genai.StopCandidateException pour la vérification
if isinstance(e, genai.StopCandidateException):
error_message = "La génération a été stoppée, probablement à cause du contenu."
print(f" StopCandidateException: {e}")
if session.get('chat_history') and session['chat_history'][-1]['role'] == 'user':
session['chat_history'].pop()
session.modified = True
print(" Dernier message utilisateur retiré de l'historique après erreur.")
return jsonify({'success': False, 'error': error_message}), 500
except Exception as e:
error_message = f"Une erreur interne inattendue est survenue: {e}"
print(f"ERREUR CRITIQUE INATTENDUE: {error_message}")
traceback.print_exc() # Correction: Utilise traceback pour détails
if session.get('chat_history') and session['chat_history'][-1]['role'] == 'user':
session['chat_history'].pop()
session.modified = True
print(" Dernier message utilisateur retiré de l'historique après erreur inattendue.")
return jsonify({'success': False, 'error': "Une erreur interne inattendue est survenue."}), 500
finally:
if filepath_to_delete and os.path.exists(filepath_to_delete):
try:
os.remove(filepath_to_delete)
print(f" Fichier temporaire '{filepath_to_delete}' supprimé avec succès.")
except OSError as e:
print(f" ERREUR lors de la suppression du fichier temporaire '{filepath_to_delete}': {e}")
@app.route('/clear', methods=['POST'])
def clear_chat():
"""Efface l'historique de chat dans la session."""
session.pop('chat_history', None)
print("API: Historique de chat effacé via /clear.")
is_ajax = request.headers.get('X-Requested-With') == 'XMLHttpRequest' or \
'application/json' in request.headers.get('Accept', '')
if is_ajax:
return jsonify({'success': True, 'message': 'Historique effacé.'})
else:
flash("Conversation effacée.", "info")
return redirect(url_for('root'))
# --- Démarrage de l'application Flask ---
if __name__ == '__main__':
print("Démarrage du serveur Flask...")
port = int(os.environ.get('PORT', 7860))
# Mettre debug=False pour la production
app.run(debug=True, host='0.0.0.0', port=port)