Spaces:
Runtime error
Runtime error
Update app.py
Browse files
app.py
CHANGED
@@ -14,8 +14,7 @@ tokenizer = AutoTokenizer.from_pretrained(base_model)
|
|
14 |
model = AutoModelForCausalLM.from_pretrained(base_model)
|
15 |
model = PeftModel.from_pretrained(model, model_peft)
|
16 |
|
17 |
-
|
18 |
-
print("Modelo PEFT vsvasconcelos/Phi-2_PT_QA_2_v3 carregado com sucesso!")
|
19 |
|
20 |
# Define a função para gerar respostas
|
21 |
def generate_response(model, tokenizer, prompt, max_length=512, num_return_sequences=1):
|
@@ -42,11 +41,12 @@ def generate_response(model, tokenizer, prompt, max_length=512, num_return_seque
|
|
42 |
# Define a função para responder às perguntas
|
43 |
def answer_question(context, question):
|
44 |
if context:
|
45 |
-
prompt = f"
|
46 |
else:
|
47 |
-
prompt = f"
|
48 |
return generate_response(model, tokenizer, prompt)
|
49 |
|
|
|
50 |
# Cria a interface Gradio
|
51 |
iface = gr.Interface(
|
52 |
fn=answer_question,
|
|
|
14 |
model = AutoModelForCausalLM.from_pretrained(base_model)
|
15 |
model = PeftModel.from_pretrained(model, model_peft)
|
16 |
|
17 |
+
|
|
|
18 |
|
19 |
# Define a função para gerar respostas
|
20 |
def generate_response(model, tokenizer, prompt, max_length=512, num_return_sequences=1):
|
|
|
41 |
# Define a função para responder às perguntas
|
42 |
def answer_question(context, question):
|
43 |
if context:
|
44 |
+
prompt = f"Com base no contexto fornecido, responda a questão de forma sucinta.\nContexto:\n{context}\nQuestão:\n{question}\n### Resposta:"
|
45 |
else:
|
46 |
+
prompt = f"Questão:\n{question}\n### Resposta:"
|
47 |
return generate_response(model, tokenizer, prompt)
|
48 |
|
49 |
+
|
50 |
# Cria a interface Gradio
|
51 |
iface = gr.Interface(
|
52 |
fn=answer_question,
|