kheopss commited on
Commit
c9705de
·
verified ·
1 Parent(s): dc3d0e6

Update app.py

Browse files
Files changed (1) hide show
  1. app.py +4 -2
app.py CHANGED
@@ -234,7 +234,9 @@ def process_final(user_prom, history):
234
  global history_with_docs
235
  documents = further_retrieve(user_prom)
236
  history_with_docs.append((user_prom, documents))
237
- system_p = "Tu es un assistant utile. L'utilisateur va te donner des documents suivi par une question, tu dois trouver la bonne réponse apartir des document fournis .Focalise sur les service et la direction du signataire que l'utilisateur cherche. Tu ne dois pas poser de question en retour.Tu ne dois pas mentionner a l'utilisateur que tu prend tes information apartir des document ni lui donner le numéro du document. Tu t'exprimes dans la même langue que l'utilisateur."
 
 
238
  print("PHASE 03 passing to LLM\n")
239
  sys_p = f"<|im_start|>system \n{system_p}\n<|im_end|>"
240
  prompt_f = ""
@@ -258,7 +260,7 @@ def process_final(user_prom, history):
258
  # prompt_f = user_p + assistant_p + prompt_f
259
  # total_tokens += current_tokens
260
 
261
- prompt_f = f"{sys_p} <|im_start|>user \n Documents: \n {documents}\nQuestion : {user_prom} \n<|im_end|><|im_start|>assistant \n"
262
  gen = llm.stream_complete(formatted=True, prompt=prompt_f)
263
  # print(f"le nombre TOTAL de tokens : {total_tokens}\n")
264
  print("_"*100)
 
234
  global history_with_docs
235
  documents = further_retrieve(user_prom)
236
  history_with_docs.append((user_prom, documents))
237
+ system_p = f"""Tu es un assistant utile. L'utilisateur posera une question et tu devras trouver la réponse dans les documents suivants.Focalise sur les service et la direction du signataire que l'utilisateur cherche. Tu ne dois pas poser de question en retour.Tu ne dois pas mentionner le numéro des documents. Tu t'exprimes dans la même langue que l'utilisateur.,
238
+ DOCUMENTS :
239
+ {documents}"""
240
  print("PHASE 03 passing to LLM\n")
241
  sys_p = f"<|im_start|>system \n{system_p}\n<|im_end|>"
242
  prompt_f = ""
 
260
  # prompt_f = user_p + assistant_p + prompt_f
261
  # total_tokens += current_tokens
262
 
263
+ prompt_f = f"{sys_p} <|im_start|>user\n {user_prom} \n<|im_end|><|im_start|>assistant \n"
264
  gen = llm.stream_complete(formatted=True, prompt=prompt_f)
265
  # print(f"le nombre TOTAL de tokens : {total_tokens}\n")
266
  print("_"*100)