vitorandrade commited on
Commit
794683e
·
verified ·
1 Parent(s): a56b79b

Update app.py

Browse files
Files changed (1) hide show
  1. app.py +4 -4
app.py CHANGED
@@ -14,8 +14,7 @@ tokenizer = AutoTokenizer.from_pretrained(base_model)
14
  model = AutoModelForCausalLM.from_pretrained(base_model)
15
  model = PeftModel.from_pretrained(model, model_peft)
16
 
17
- # Adicione uma mensagem de confirmação
18
- print("Modelo PEFT vsvasconcelos/Phi-2_PT_QA_2_v3 carregado com sucesso!")
19
 
20
  # Define a função para gerar respostas
21
  def generate_response(model, tokenizer, prompt, max_length=512, num_return_sequences=1):
@@ -42,11 +41,12 @@ def generate_response(model, tokenizer, prompt, max_length=512, num_return_seque
42
  # Define a função para responder às perguntas
43
  def answer_question(context, question):
44
  if context:
45
- prompt = f"Context: {context}\nQuestion: {question}"
46
  else:
47
- prompt = f"Question: {question}"
48
  return generate_response(model, tokenizer, prompt)
49
 
 
50
  # Cria a interface Gradio
51
  iface = gr.Interface(
52
  fn=answer_question,
 
14
  model = AutoModelForCausalLM.from_pretrained(base_model)
15
  model = PeftModel.from_pretrained(model, model_peft)
16
 
17
+
 
18
 
19
  # Define a função para gerar respostas
20
  def generate_response(model, tokenizer, prompt, max_length=512, num_return_sequences=1):
 
41
  # Define a função para responder às perguntas
42
  def answer_question(context, question):
43
  if context:
44
+ prompt = f"Com base no contexto fornecido, responda a questão de forma sucinta.\nContexto:\n{context}\nQuestão:\n{question}\n### Resposta:"
45
  else:
46
+ prompt = f"Questão:\n{question}\n### Resposta:"
47
  return generate_response(model, tokenizer, prompt)
48
 
49
+
50
  # Cria a interface Gradio
51
  iface = gr.Interface(
52
  fn=answer_question,