Spaces:
Running
Running
Se mejora la respuestas con rag al apoyarse con rag y no solo usar la informacion de rag
Browse files
app.py
CHANGED
@@ -39,7 +39,11 @@ def chat_no_rag(question):
|
|
39 |
|
40 |
def chat_with_rag(question, context_chunks):
|
41 |
context = "\n".join(context_chunks)
|
42 |
-
prompt =
|
|
|
|
|
|
|
|
|
43 |
response = client.chat.completions.create(
|
44 |
model="gpt-3.5-turbo",
|
45 |
messages=[{"role": "user", "content": prompt}],
|
@@ -52,7 +56,8 @@ def chat_with_rag_enhanced(question, context_chunks):
|
|
52 |
context = "\n".join(context_chunks)
|
53 |
prompt = (
|
54 |
"Eres un experto en historia marcial. "
|
55 |
-
"Usa el siguiente contexto
|
|
|
56 |
f"Contexto:\n{context}\n\n"
|
57 |
f"Pregunta: {question}\nRespuesta:"
|
58 |
)
|
|
|
39 |
|
40 |
def chat_with_rag(question, context_chunks):
|
41 |
context = "\n".join(context_chunks)
|
42 |
+
prompt = (
|
43 |
+
"Usa el siguiente contexto como referencia para responder la pregunta. "
|
44 |
+
"Puedes complementar con tus propios conocimientos si es necesario.\n\n"
|
45 |
+
f"Contexto:\n{context}\n\n"
|
46 |
+
f"Pregunta: {question}\nRespuesta:")
|
47 |
response = client.chat.completions.create(
|
48 |
model="gpt-3.5-turbo",
|
49 |
messages=[{"role": "user", "content": prompt}],
|
|
|
56 |
context = "\n".join(context_chunks)
|
57 |
prompt = (
|
58 |
"Eres un experto en historia marcial. "
|
59 |
+
"Usa el siguiente contexto como referencia para responder la pregunta. "
|
60 |
+
"Puedes complementar con tus propios conocimientos si es necesario.\n\n"
|
61 |
f"Contexto:\n{context}\n\n"
|
62 |
f"Pregunta: {question}\nRespuesta:"
|
63 |
)
|