Spaces:
Sleeping
Sleeping
File size: 1,356 Bytes
6de4a00 d044c5c 6de4a00 a825f6c 6de4a00 ad17334 6de4a00 51387b1 d044c5c 6de4a00 a825f6c 51387b1 6de4a00 ad17334 51387b1 a825f6c ad17334 a825f6c ad17334 |
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 |
import os
import litellm
from fastapi import FastAPI, HTTPException, Header, Depends
from pydantic import BaseModel
# Configuration du modèle
model_name = "gemini/gemini-1.5-pro"
api_key = os.environ.get("GEMINI_API_KEY")
# Configuration de LiteLLM
litellm.api_key = api_key
app = FastAPI()
class PromptRequest(BaseModel):
prompt: str
model: str = "gemini/gemini-1.5-pro" # Valeur par défaut
# Prompt de base
base_prompt = """
Tu es un développeur logiciel expérimenté. Tu dois toujours répondre en français d'une manière réfléchie et concise.
"""
# Clé API pour l'authentification
USER_API_KEY = "YOUR_API_KEY" # Remplacez par une clé secrète
async def verify_api_key(x_api_key: str = Header(...)):
if x_api_key != API_KEY:
raise HTTPException(status_code=401, detail="Clé API invalide")
@app.post("/", dependencies=[Depends(verify_api_key)])
async def predict(request: PromptRequest):
try:
# Ajout du prompt de base à la requête de l'utilisateur
full_prompt = base_prompt + request.prompt
response = litellm.completion(
model=request.model,
messages=[{"role": "user", "content": full_prompt}]
)
return {"response": response.choices[0].message.content, "model": request.model}
except Exception as e:
return {"error": str(e)}
|