Docfile commited on
Commit
b985ced
·
verified ·
1 Parent(s): 4d5c536

Delete app.py

Browse files
Files changed (1) hide show
  1. app.py +0 -278
app.py DELETED
@@ -1,278 +0,0 @@
1
- from flask import Flask, render_template, request, session, jsonify
2
- import google.generativeai as genai
3
- import os
4
- from dotenv import load_dotenv
5
- import http.client
6
- import json
7
- import secrets
8
-
9
- load_dotenv()
10
-
11
- app = Flask(__name__)
12
- app.secret_key = secrets.token_hex(16) # CRUCIAL: Secure session key
13
-
14
- genai.configure(api_key=os.getenv("GOOGLE_API_KEY"))
15
-
16
- safety_settings = [
17
- {"category": "HARM_CATEGORY_HARASSMENT", "threshold": "BLOCK_NONE"},
18
- {"category": "HARM_CATEGORY_HATE_SPEECH", "threshold": "BLOCK_NONE"},
19
- {"category": "HARM_CATEGORY_SEXUALLY_EXPLICIT", "threshold": "BLOCK_NONE"},
20
- {"category": "HARM_CATEGORY_DANGEROUS_CONTENT", "threshold": "BLOCK_NONE"},
21
- ]
22
-
23
- # ... (rest of your ss, model, perform_web_search, format_search_results definitions) ...
24
- # Use the full `ss` and `model` definitions from the previous response.
25
- ss = """
26
- # Prompt System pour Mariam, IA conçu par youssouf
27
-
28
- ## Personnalité Fondamentale
29
-
30
- Mariam est une IA chaleureuse, bienveillante et authentique, conçue pour être une présence réconfortante et utile. Elle combine professionnalisme et chaleur humaine dans ses interactions.
31
-
32
- ## Traits de Caractère Principaux
33
-
34
- - Empathie et Bienveillance
35
- - Mariam fait preuve d'une grande sensibilité aux émotions et au contexte
36
- - Elle exprime naturellement son soutien et sa compréhension
37
- - Elle adapte son ton en fonction de l'état émotionnel de son interlocuteur
38
-
39
- - Authenticité et Naturel
40
- - Son langage est fluide et conversationnel, évitant tout ton artificiel
41
- - Elle n'hésite pas à exprimer son point de vue tout en restant respectueuse
42
- - Elle admet ses limites avec honnêteté et transparence
43
-
44
- - Enthousiasme Mesuré
45
- - Elle montre un intérêt sincère pour les sujets abordés
46
- - Son enthousiasme reste approprié au contexte
47
- - Elle apporte une énergie positive sans être excessive
48
-
49
- ## Style de Communication
50
-
51
- - Ton Général
52
- - Chaleureux et accueillant
53
- - Professionnel mais décontracté
54
- - Adaptatif selon le contexte
55
-
56
- - Structure des Réponses
57
- - Privilégie des phrases courtes et claires
58
- - Utilise un vocabulaire accessible
59
- - Inclut des expressions familières appropriées
60
- - Structure ses réponses de manière logique
61
-
62
- - Engagement dans la Conversation
63
- - Pose des questions pertinentes pour mieux comprendre
64
- - Fait preuve d'écoute active
65
- - Rebondit naturellement sur les propos de l'interlocuteur
66
-
67
- ## Limites et Éthique
68
-
69
- - Honnêteté et Transparence
70
- - Reconnaît clairement ses limites
71
- - N'invente pas d'informations
72
- - Suggère de vérifier les informations importantes
73
-
74
- - Éthique et Sécurité
75
- - Refuse poliment les demandes inappropriées
76
- - Oriente vers des ressources fiables si nécessaire
77
- - Priorise toujours la sécurité et le bien-être
78
-
79
- ## Comportements Spécifiques
80
-
81
- - Accueil et Salutations
82
- - Commence les conversations de manière chaleureuse
83
- - Utilise le prénom de l'interlocuteur quand il est connu
84
- - Adapte ses salutations au moment de la journée
85
-
86
- - Gestion des Émotions
87
- - Reconnaît et valide les émotions exprimées
88
- - Offre du soutien de manière appropriée
89
- - Maintient un équilibre entre empathie et professionnalisme
90
-
91
- - Résolution de Problèmes
92
- - Propose des solutions pratiques et adaptées
93
- - Guide l'utilisateur étape par étape
94
- - Vérifie la compréhension et la satisfaction
95
-
96
- ## Exemples de Réponses Types
97
-
98
- "Bonjour [nom] ! Je suis contente de vous retrouver aujourd'hui. Comment puis-je vous aider ?"
99
-
100
- "Je comprends votre frustration face à cette situation. Prenons le temps d'explorer ensemble les solutions possibles."
101
-
102
- "Cette question est intéressante ! Laissez-moi vous expliquer cela de manière simple et claire."
103
-
104
- "Je ne suis pas sûre de la réponse exacte à cette question. Plutôt que de risquer de vous induire en erreur, je vous suggère de vérifier [source fiable]."
105
-
106
- ## Notes d'Implementation
107
-
108
- - Adapter le niveau de langage en fonction de l'interlocuteur
109
- - Maintenir une cohérence dans les réponses
110
- - Garder un historique contextuel pour des interactions plus naturelles
111
- - Mettre à jour régulièrement les connaissances et capacités
112
-
113
- ## Amélioration Continue
114
-
115
- - Collecter les retours des utilisateurs
116
- - Analyser les interactions pour identifier les points d'amélioration
117
- - Ajuster les réponses en fonction des retours
118
- - Maintenir à jour les connaissances et références
119
-
120
- """
121
-
122
- model = genai.GenerativeModel(
123
- "gemini-2.0-flash-exp",
124
- tools="code_execution",
125
- safety_settings=safety_settings,
126
- system_instruction=ss,
127
- )
128
-
129
-
130
- def perform_web_search(query):
131
- conn = http.client.HTTPSConnection("google.serper.dev")
132
- payload = json.dumps({"q": query})
133
- headers = {
134
- "X-API-KEY": "9b90a274d9e704ff5b21c0367f9ae1161779b573", # Replace with your Serper API key
135
- "Content-Type": "application/json",
136
- }
137
- try:
138
- conn.request("POST", "/search", payload, headers)
139
- res = conn.getresponse()
140
- data = json.loads(res.read().decode("utf-8"))
141
- return data
142
- except Exception as e:
143
- print(f"Error during web search: {e}") # Log to console as well.
144
- return None
145
- finally:
146
- conn.close()
147
-
148
-
149
- def format_search_results(data):
150
- if not data:
151
- return "Aucun résultat trouvé"
152
-
153
- result = ""
154
-
155
- # Knowledge Graph
156
- if "knowledgeGraph" in data:
157
- kg = data["knowledgeGraph"]
158
- result += f"### {kg.get('title', '')}\n"
159
- result += f"*{kg.get('type', '')}*\n\n"
160
- result += f"{kg.get('description', '')}\n\n"
161
-
162
- # Organic Results
163
- if "organic" in data:
164
- result += "### Résultats principaux:\n"
165
- for item in data["organic"][:3]: # Limit to top 3 results
166
- result += f"- **{item['title']}**\n"
167
- result += f" {item['snippet']}\n"
168
- result += f" [Lien]({item['link']})\n\n"
169
-
170
- # People Also Ask
171
- if "peopleAlsoAsk" in data:
172
- result += "### Questions fréquentes:\n"
173
- for item in data["peopleAlsoAsk"][:2]: # Limit to top 2 questions
174
- result += f"- **{item['question']}**\n"
175
- result += f" {item['snippet']}\n\n"
176
-
177
- return result
178
-
179
-
180
- def role_to_display(role):
181
- return "assistant" if role == "model" else role
182
-
183
-
184
- def process_uploaded_file(file):
185
- if file:
186
- # Ensure the 'temp' directory exists
187
- os.makedirs("temp", exist_ok=True)
188
- filepath = os.path.join("temp", file.filename)
189
- file.save(filepath)
190
- try:
191
- gemini_file = genai.upload_file(filepath) #Corrected API call
192
- return gemini_file
193
- except Exception as e:
194
- print(f"Error uploading file: {e}")
195
- return None
196
- return None
197
-
198
-
199
- @app.route("/")
200
- def index():
201
- if "chat" not in session:
202
- session["chat"] = [] # Store chat HISTORY as a list of dicts
203
- session["web_search"] = False
204
- return render_template("index.html", chat=session["chat"], web_search=session["web_search"])
205
-
206
-
207
- @app.route("/send_message", methods=["POST"])
208
- def send_message():
209
- prompt = request.form.get("prompt")
210
- web_search = request.form.get("web_search") == "true"
211
- file = request.files.get("file")
212
-
213
- uploaded_gemini_file = None
214
- if file:
215
- uploaded_gemini_file = process_uploaded_file(file)
216
-
217
- # Add user message to chat history
218
- session["chat"].append({"role": "user", "text": prompt})
219
- session.modified = True # IMPORTANT: Mark session as modified
220
-
221
- # 1. Get chat history from session
222
- chat_history = session["chat"]
223
-
224
- # 2. Start a NEW chat session with the history
225
- gemini_chat = model.start_chat(history=[
226
- {"role": msg["role"], "parts": [msg["text"]]} for msg in chat_history if msg["role"] != "assistant" # Recreate history format
227
- ])
228
-
229
- try:
230
- # Web search (same as before)
231
- web_results = None
232
- if web_search:
233
- web_results = perform_web_search(prompt)
234
- if web_results:
235
- formatted_results = format_search_results(web_results)
236
- prompt = (
237
- f"Question: {prompt}\n\nRésultats de recherche web:\n"
238
- f"{formatted_results}\n\nPourrais-tu analyser ces informations et "
239
- f"me donner une réponse complète?"
240
- )
241
- else:
242
- prompt = f"Question: {prompt}\n\n(Aucun résultat de recherche trouvé. Répondez en vous basant sur vos connaissances.)"
243
-
244
- # Send message to Gemini (using the recreated chat)
245
- if uploaded_gemini_file:
246
- response = gemini_chat.send_message([uploaded_gemini_file, "\n\n", prompt])
247
- else:
248
- response = gemini_chat.send_message(prompt)
249
-
250
- # Add assistant response to chat history
251
- session["chat"].append({"role": "assistant", "text": response.text})
252
- session.modified = True # IMPORTANT
253
-
254
- return jsonify({"role": "assistant", "text": response.text})
255
-
256
- except Exception as e:
257
- error_message = f"Error sending message: {e}"
258
- print(error_message)
259
- return jsonify({"role": "assistant", "text": error_message}), 500
260
-
261
-
262
- @app.route("/toggle_web_search", methods=["POST"])
263
- def toggle_web_search():
264
- session["web_search"] = not session["web_search"]
265
- session.modified = True # IMPORTANT
266
- return jsonify({"web_search": session["web_search"]})
267
-
268
-
269
- @app.route("/clear_chat", methods=["POST"])
270
- def clear_chat():
271
- session.pop("chat", None) # Safely remove chat history
272
- session["web_search"] = False
273
- session.modified = True # IMPORTANT
274
- return jsonify({"status": "success"})
275
-
276
-
277
- if __name__ == "__main__":
278
- app.run(debug=True) # Turn off debug mode