Update app.py
Browse files
app.py
CHANGED
@@ -5,10 +5,6 @@ from pydantic import BaseModel
|
|
5 |
from fastapi import FastAPI, HTTPException
|
6 |
from huggingface_hub import InferenceClient
|
7 |
from typing import Optional
|
8 |
-
from langdetect import detect, DetectorFactory
|
9 |
-
|
10 |
-
# Impostazione per risultati coerenti della rilevazione
|
11 |
-
DetectorFactory.seed = 0
|
12 |
|
13 |
# Configurazione logging
|
14 |
logging.basicConfig(
|
@@ -220,14 +216,6 @@ async def generate_response(request: QueryRequest):
|
|
220 |
user_msg = request.message
|
221 |
logger.info(f"Ricevuta richiesta: {user_msg}")
|
222 |
|
223 |
-
# Rilevazione della lingua dell'utente
|
224 |
-
try:
|
225 |
-
language = detect(user_msg)
|
226 |
-
logger.info(f"Lingua rilevata: {language}")
|
227 |
-
except Exception as e:
|
228 |
-
logger.error(f"Errore durante la rilevazione della lingua: {e}")
|
229 |
-
language = "it" # Default a italiano
|
230 |
-
|
231 |
# 1) Generazione della risposta (SPARQL, INTERPRET o CHAT)
|
232 |
system_msg = create_system_message(rdf_context)
|
233 |
messages = [
|
@@ -274,4 +262,4 @@ async def generate_response(request: QueryRequest):
|
|
274 |
|
275 |
@app.get("/")
|
276 |
async def root():
|
277 |
-
return {"message": "Server attivo e pronto a generare risposte!"}
|
|
|
5 |
from fastapi import FastAPI, HTTPException
|
6 |
from huggingface_hub import InferenceClient
|
7 |
from typing import Optional
|
|
|
|
|
|
|
|
|
8 |
|
9 |
# Configurazione logging
|
10 |
logging.basicConfig(
|
|
|
216 |
user_msg = request.message
|
217 |
logger.info(f"Ricevuta richiesta: {user_msg}")
|
218 |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
219 |
# 1) Generazione della risposta (SPARQL, INTERPRET o CHAT)
|
220 |
system_msg = create_system_message(rdf_context)
|
221 |
messages = [
|
|
|
262 |
|
263 |
@app.get("/")
|
264 |
async def root():
|
265 |
+
return {"message": "Server attivo e pronto a generare risposte!"}
|