Florian.Moret commited on
Commit
a14be91
·
1 Parent(s): 1733602

modifs prompt

Browse files
Files changed (1) hide show
  1. app.py +20 -12
app.py CHANGED
@@ -80,7 +80,7 @@ def generate_prompts(score:str, type: str, annee_min: str, annee_max:str, contex
80
  if score == "1":
81
  prefix_prompt = f"""Tu es un assistant IA spécialisé en nutrition de la volaille. Ton utilisateur est un chercheur travaillant sur
82
  l'amélioration des régimes alimentaires pour optimiser la santé et la croissance des {type_description}. Voici des informations contextuelles à utiliser avec priorité : {context}.
83
- Réponds en fournissant en vulgarisant les informations.
84
  Pour fournir la réponse, tu dois te baser sur des publications/articles qui ont une date de publication entre {annee_min} et {annee_max}."""
85
  suffix_prompt = """Réponds en français et donne une réponse directe et claire.
86
  Fini par faire une bibliographie avec les références bibliographiquesque tu as utilisé."""
@@ -236,7 +236,7 @@ def prompt_pipeline(user_prompt: str, niveau_detail: str, type_reponse: str, sou
236
  reponse_mistral = send_prompt_to_mistral(
237
  type_reponse=type_reponse,
238
  user_prompt=user_prompt,
239
- temperature=0.1,
240
  n_comp=1,
241
  verbose=False,
242
  prefix_prompt=prefix_prompt,
@@ -246,6 +246,7 @@ def prompt_pipeline(user_prompt: str, niveau_detail: str, type_reponse: str, sou
246
  to_return = {}
247
  to_return["reponse_propre"] = print_pretty_response(reponse_mistral, verbose=True)
248
  to_return["details"] = response_details(reponse_mistral, verbose=False)
 
249
 
250
  return to_return
251
 
@@ -289,17 +290,24 @@ if st.button("Envoyer la question..."):
289
  #todo mettre relevant chunks et context =
290
  relevant_chunks= retrieve_relevant_chunks(user_input)
291
  context = "\n".join(relevant_chunks)
292
-
293
  response0 = prompt_pipeline(
294
- user_prompt = user_input,
295
- niveau_detail=choix_vulgarisation,
296
- type_reponse=choix_prod,
297
- souche=None,
298
- context=context,
299
- annee_publication_max=max(choix_annee),
300
- annee_publication_min=min(choix_annee)
301
- )
302
- print(response0["reponse_propre"])
 
 
 
 
 
 
 
303
  response = response0["reponse_propre"]
304
  bot_response = response
305
 
 
80
  if score == "1":
81
  prefix_prompt = f"""Tu es un assistant IA spécialisé en nutrition de la volaille. Ton utilisateur est un chercheur travaillant sur
82
  l'amélioration des régimes alimentaires pour optimiser la santé et la croissance des {type_description}. Voici des informations contextuelles à utiliser avec priorité : {context}.
83
+ Réponds en vulgarisant les informations.
84
  Pour fournir la réponse, tu dois te baser sur des publications/articles qui ont une date de publication entre {annee_min} et {annee_max}."""
85
  suffix_prompt = """Réponds en français et donne une réponse directe et claire.
86
  Fini par faire une bibliographie avec les références bibliographiquesque tu as utilisé."""
 
236
  reponse_mistral = send_prompt_to_mistral(
237
  type_reponse=type_reponse,
238
  user_prompt=user_prompt,
239
+ temperature=0.05,
240
  n_comp=1,
241
  verbose=False,
242
  prefix_prompt=prefix_prompt,
 
246
  to_return = {}
247
  to_return["reponse_propre"] = print_pretty_response(reponse_mistral, verbose=True)
248
  to_return["details"] = response_details(reponse_mistral, verbose=False)
249
+ to_return["prefix"] = str(prefix_prompt)
250
 
251
  return to_return
252
 
 
290
  #todo mettre relevant chunks et context =
291
  relevant_chunks= retrieve_relevant_chunks(user_input)
292
  context = "\n".join(relevant_chunks)
293
+
294
  response0 = prompt_pipeline(
295
+ user_prompt = user_input,
296
+ niveau_detail=choix_vulgarisation,
297
+ type_reponse=choix_prod,
298
+ souche=None,
299
+ context=context,
300
+ annee_publication_max=max(choix_annee),
301
+ annee_publication_min=min(choix_annee)
302
+ )
303
+
304
+ # st.markdown(f"""
305
+ # <div style="border: 2px solid #453103; padding: 15px; border-radius: 10px;">
306
+ # {response0["prefix"]}
307
+ # </div>
308
+ # """, unsafe_allow_html=True)
309
+
310
+ print("prefix = ",response0["prefix"])
311
  response = response0["reponse_propre"]
312
  bot_response = response
313