fschwartzer commited on
Commit
a200765
·
verified ·
1 Parent(s): 1ec6af9

Update app.py

Browse files
Files changed (1) hide show
  1. app.py +8 -3
app.py CHANGED
@@ -19,9 +19,14 @@ df = pd.DataFrame(data)
19
  def answer_question_with_gpt(question):
20
  # Supondo que você queira incorporar dados do DataFrame na pergunta
21
  prompt = f"Considerando os dados: {df.to_string(index=False)}. Pergunta: {question} Resposta:"
22
- input_ids = tokenizer.encode(prompt, return_tensors='pt')
23
- max_length = len(input_ids[0]) + 50 # Define um limite máximo razoável para o comprimento da resposta
24
- generated_ids = model.generate(input_ids, max_length=max_length)
 
 
 
 
 
25
  generated_text = tokenizer.decode(generated_ids[0], skip_special_tokens=True)
26
  return generated_text.split("Resposta:")[1] if "Resposta:" in generated_text else generated_text
27
 
 
19
  def answer_question_with_gpt(question):
20
  # Supondo que você queira incorporar dados do DataFrame na pergunta
21
  prompt = f"Considerando os dados: {df.to_string(index=False)}. Pergunta: {question} Resposta:"
22
+ inputs = tokenizer(prompt, return_tensors='pt', padding='max_length', truncation=True, max_length=512)
23
+ attention_mask = inputs['attention_mask']
24
+ input_ids = inputs['input_ids']
25
+
26
+ # Assegurando que o pad_token_id esteja definido corretamente para o modelo GPT-2
27
+ pad_token_id = tokenizer.eos_token_id # GPT-2 usa o mesmo token para EOS e PAD
28
+ generated_ids = model.generate(input_ids, attention_mask=attention_mask, pad_token_id=pad_token_id, max_length=len(input_ids[0]) + 50)
29
+
30
  generated_text = tokenizer.decode(generated_ids[0], skip_special_tokens=True)
31
  return generated_text.split("Resposta:")[1] if "Resposta:" in generated_text else generated_text
32