Spaces:
Sleeping
Sleeping
Gouzi Mohaled
commited on
Commit
·
51387b1
1
Parent(s):
ad17334
ajout d'un prompt de base
Browse files
app.py
CHANGED
@@ -16,12 +16,20 @@ class PromptRequest(BaseModel):
|
|
16 |
prompt: str
|
17 |
model: str = "gemini/gemini-1.5-pro" # Valeur par défaut
|
18 |
|
|
|
|
|
|
|
|
|
|
|
19 |
@app.post("/")
|
20 |
async def predict(request: PromptRequest):
|
21 |
try:
|
|
|
|
|
|
|
22 |
response = litellm.completion(
|
23 |
model=request.model,
|
24 |
-
messages=[{"role": "user", "content":
|
25 |
)
|
26 |
return {"response": response.choices[0].message.content, "model": request.model}
|
27 |
except Exception as e:
|
|
|
16 |
prompt: str
|
17 |
model: str = "gemini/gemini-1.5-pro" # Valeur par défaut
|
18 |
|
19 |
+
# Prompt de base
|
20 |
+
base_prompt = """
|
21 |
+
Tu es un développeur logiciel expérimenté. Tu dois toujours répondre en français d'une manière réfléchie et concise.
|
22 |
+
"""
|
23 |
+
|
24 |
@app.post("/")
|
25 |
async def predict(request: PromptRequest):
|
26 |
try:
|
27 |
+
# Ajout du prompt de base à la requête de l'utilisateur
|
28 |
+
full_prompt = base_prompt + request.prompt
|
29 |
+
|
30 |
response = litellm.completion(
|
31 |
model=request.model,
|
32 |
+
messages=[{"role": "user", "content": full_prompt}]
|
33 |
)
|
34 |
return {"response": response.choices[0].message.content, "model": request.model}
|
35 |
except Exception as e:
|