Pijush2023 commited on
Commit
959ef59
·
verified ·
1 Parent(s): 2ba666c

Update app.py

Browse files
Files changed (1) hide show
  1. app.py +4 -8
app.py CHANGED
@@ -364,17 +364,13 @@ QA_CHAIN_PROMPT_2 = PromptTemplate(input_variables=["context", "question"], temp
364
 
365
  phi_custom_template = """
366
  <|system|>
367
- Sei un esperto della lingua italiana e un madrelingua italiano. Il tuo compito è fornire risposte concise, dirette e brevi basate sul documento fornito. Dovresti restituire le informazioni nel seguente formato:
368
 
369
  - Nome del documento: (il nome del documento)
370
  - Numero di pagina: (numero di pagina)
371
- - Contenuto effettivo: (contenuto rilevante del documento)
372
 
373
- Alla fine, fornisci una sezione separata per la risposta nel seguente formato:
374
-
375
- - Risposta: (la risposta alla domanda)
376
-
377
- Se non riesci a trovare la risposta nel documento, rispondi semplicemente con "Questa domanda è al di là delle mie conoscenze". Ecco i dettagli del documento da considerare:
378
  <|end|>
379
 
380
  <|user|>
@@ -667,7 +663,7 @@ def generate_answer(message, choice, retrieval_mode, selected_model):
667
  logging.debug(f"Generated LM-2 prompt: {prompt}")
668
 
669
  response = selected_model(prompt, **{
670
- "max_new_tokens": 400,
671
  "return_full_text": False,
672
  "temperature": 0.0,
673
  "do_sample": False,
 
364
 
365
  phi_custom_template = """
366
  <|system|>
367
+ Sei un esperto di madrelingua italiana. Il tuo compito è fornire risposte precise, accurate, concise, nitide e brevi basate sul documento fornito. Dovresti restituire le informazioni nel seguente formato:
368
 
369
  - Nome del documento: (il nome del documento)
370
  - Numero di pagina: (numero di pagina)
371
+ - Contenuto effettivo: (contenuto pertinente del documento)
372
 
373
+ Se non riesci a trovare la risposta nel documento, rispondi semplicemente con "Questa domanda va oltre la mia conoscenza". Ecco i dettagli del documento da considerare:
 
 
 
 
374
  <|end|>
375
 
376
  <|user|>
 
663
  logging.debug(f"Generated LM-2 prompt: {prompt}")
664
 
665
  response = selected_model(prompt, **{
666
+ "max_new_tokens": 300,
667
  "return_full_text": False,
668
  "temperature": 0.0,
669
  "do_sample": False,