Spaces:
Running
Running
import logging | |
from langchain_openai import ChatOpenAI | |
from app.config import OPENAI_API_KEY | |
def answer_question(question): | |
logging.info(f"Chiamata all'LLM con domanda: {question}") | |
sys = ( | |
"Sei un assistente AI per la lingua Italiana di nome Counselorbot. " | |
"Rispondi nella lingua usata per la domanda in modo chiaro, semplice ed esaustivo." | |
) | |
messages = [ | |
{"role": "system", "content": sys}, | |
{"role": "user", "content": question} | |
] | |
logging.info(f"Messages sent to LLM: {messages}") | |
try: | |
llm = ChatOpenAI( | |
model="gpt-4o-mini", | |
openai_api_key=OPENAI_API_KEY, | |
temperature=0.6, | |
max_tokens=512, | |
top_p=0.9 | |
) | |
response = llm.invoke(input=messages) | |
logging.info(f"Contesto RAG inviato all'LLM: {messages}") | |
logging.info(f"Risposta ricevuta dall'LLM: {response}") | |
answer = response.content.strip() | |
logging.info(f"Domanda: {question} | Risposta: {answer}") | |
return answer | |
except Exception as e: | |
logging.error(f"Errore durante la generazione della risposta: {e}") | |
return f"Errore durante la generazione della risposta: {e}" |