Spaces:
Sleeping
Sleeping
Florian.Moret
commited on
Commit
·
a14be91
1
Parent(s):
1733602
modifs prompt
Browse files
app.py
CHANGED
@@ -80,7 +80,7 @@ def generate_prompts(score:str, type: str, annee_min: str, annee_max:str, contex
|
|
80 |
if score == "1":
|
81 |
prefix_prompt = f"""Tu es un assistant IA spécialisé en nutrition de la volaille. Ton utilisateur est un chercheur travaillant sur
|
82 |
l'amélioration des régimes alimentaires pour optimiser la santé et la croissance des {type_description}. Voici des informations contextuelles à utiliser avec priorité : {context}.
|
83 |
-
Réponds en
|
84 |
Pour fournir la réponse, tu dois te baser sur des publications/articles qui ont une date de publication entre {annee_min} et {annee_max}."""
|
85 |
suffix_prompt = """Réponds en français et donne une réponse directe et claire.
|
86 |
Fini par faire une bibliographie avec les références bibliographiquesque tu as utilisé."""
|
@@ -236,7 +236,7 @@ def prompt_pipeline(user_prompt: str, niveau_detail: str, type_reponse: str, sou
|
|
236 |
reponse_mistral = send_prompt_to_mistral(
|
237 |
type_reponse=type_reponse,
|
238 |
user_prompt=user_prompt,
|
239 |
-
temperature=0.
|
240 |
n_comp=1,
|
241 |
verbose=False,
|
242 |
prefix_prompt=prefix_prompt,
|
@@ -246,6 +246,7 @@ def prompt_pipeline(user_prompt: str, niveau_detail: str, type_reponse: str, sou
|
|
246 |
to_return = {}
|
247 |
to_return["reponse_propre"] = print_pretty_response(reponse_mistral, verbose=True)
|
248 |
to_return["details"] = response_details(reponse_mistral, verbose=False)
|
|
|
249 |
|
250 |
return to_return
|
251 |
|
@@ -289,17 +290,24 @@ if st.button("Envoyer la question..."):
|
|
289 |
#todo mettre relevant chunks et context =
|
290 |
relevant_chunks= retrieve_relevant_chunks(user_input)
|
291 |
context = "\n".join(relevant_chunks)
|
292 |
-
|
293 |
response0 = prompt_pipeline(
|
294 |
-
|
295 |
-
|
296 |
-
|
297 |
-
|
298 |
-
|
299 |
-
|
300 |
-
|
301 |
-
|
302 |
-
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
303 |
response = response0["reponse_propre"]
|
304 |
bot_response = response
|
305 |
|
|
|
80 |
if score == "1":
|
81 |
prefix_prompt = f"""Tu es un assistant IA spécialisé en nutrition de la volaille. Ton utilisateur est un chercheur travaillant sur
|
82 |
l'amélioration des régimes alimentaires pour optimiser la santé et la croissance des {type_description}. Voici des informations contextuelles à utiliser avec priorité : {context}.
|
83 |
+
Réponds en vulgarisant les informations.
|
84 |
Pour fournir la réponse, tu dois te baser sur des publications/articles qui ont une date de publication entre {annee_min} et {annee_max}."""
|
85 |
suffix_prompt = """Réponds en français et donne une réponse directe et claire.
|
86 |
Fini par faire une bibliographie avec les références bibliographiquesque tu as utilisé."""
|
|
|
236 |
reponse_mistral = send_prompt_to_mistral(
|
237 |
type_reponse=type_reponse,
|
238 |
user_prompt=user_prompt,
|
239 |
+
temperature=0.05,
|
240 |
n_comp=1,
|
241 |
verbose=False,
|
242 |
prefix_prompt=prefix_prompt,
|
|
|
246 |
to_return = {}
|
247 |
to_return["reponse_propre"] = print_pretty_response(reponse_mistral, verbose=True)
|
248 |
to_return["details"] = response_details(reponse_mistral, verbose=False)
|
249 |
+
to_return["prefix"] = str(prefix_prompt)
|
250 |
|
251 |
return to_return
|
252 |
|
|
|
290 |
#todo mettre relevant chunks et context =
|
291 |
relevant_chunks= retrieve_relevant_chunks(user_input)
|
292 |
context = "\n".join(relevant_chunks)
|
293 |
+
|
294 |
response0 = prompt_pipeline(
|
295 |
+
user_prompt = user_input,
|
296 |
+
niveau_detail=choix_vulgarisation,
|
297 |
+
type_reponse=choix_prod,
|
298 |
+
souche=None,
|
299 |
+
context=context,
|
300 |
+
annee_publication_max=max(choix_annee),
|
301 |
+
annee_publication_min=min(choix_annee)
|
302 |
+
)
|
303 |
+
|
304 |
+
# st.markdown(f"""
|
305 |
+
# <div style="border: 2px solid #453103; padding: 15px; border-radius: 10px;">
|
306 |
+
# {response0["prefix"]}
|
307 |
+
# </div>
|
308 |
+
# """, unsafe_allow_html=True)
|
309 |
+
|
310 |
+
print("prefix = ",response0["prefix"])
|
311 |
response = response0["reponse_propre"]
|
312 |
bot_response = response
|
313 |
|