Spaces:
Sleeping
Sleeping
Update app.py
Browse files
app.py
CHANGED
@@ -65,18 +65,18 @@ def qa(question: str) -> str:
|
|
65 |
docs = vectordb.max_marginal_relevance_search(question,k=1)
|
66 |
|
67 |
|
68 |
-
|
69 |
-
|
70 |
-
|
71 |
-
|
72 |
-
|
73 |
-
|
74 |
-
|
75 |
-
|
76 |
-
|
77 |
-
|
78 |
-
|
79 |
-
|
80 |
#outputs = model.generate(prompt=prompt, temp=0.5, top_k = 40, top_p = 1, max_tokens = max_new_tokens)
|
81 |
return docs[0].page_content #"".join(outputs)
|
82 |
|
|
|
65 |
docs = vectordb.max_marginal_relevance_search(question,k=1)
|
66 |
|
67 |
|
68 |
+
|
69 |
+
# prompt = f"""<s>[INST]
|
70 |
+
# Les informations contextuelles sont ci-dessous.
|
71 |
+
# ---------------------
|
72 |
+
# {docs[0].page_content}
|
73 |
+
# ---------------------
|
74 |
+
# [/INST]
|
75 |
+
# Compte tenu des informations contextuelles et non des connaissances préalables, répondez à la requête. </s>
|
76 |
+
# [INST] Requête: {question} [/INST]
|
77 |
+
# Réponse:
|
78 |
+
# """
|
79 |
+
|
80 |
#outputs = model.generate(prompt=prompt, temp=0.5, top_k = 40, top_p = 1, max_tokens = max_new_tokens)
|
81 |
return docs[0].page_content #"".join(outputs)
|
82 |
|