XA-vito commited on
Commit
caa40b5
·
verified ·
1 Parent(s): bc8cb15

Update app.py

Browse files
Files changed (1) hide show
  1. app.py +9 -8
app.py CHANGED
@@ -100,14 +100,15 @@ def conversar_con_colmena(mensaje):
100
  print(f"🔄 Enviando entrada al modelo: {contexto}") # 👈 Agrega este print para ver el contexto en consola
101
 
102
  with torch.no_grad():
103
- output = model.generate(
104
- **inputs,
105
- max_length=150, # Reduce el tamaño máximo para evitar que se quede colgado
106
- do_sample=True, # Sampling activado para más variabilidad
107
- top_k=50, # Controla la aleatoriedad para evitar salidas vacías
108
- temperature=0.7, # Ajusta la creatividad de la respuesta
109
- pad_token_id=tokenizer.eos_token_id # Evita errores de padding
110
- ) # ✅ Paréntesis correctamente cerrado
 
111
 
112
  # Decodificar la salida del modelo
113
  respuesta = tokenizer.decode(output[0], skip_special_tokens=True).strip()
 
100
  print(f"🔄 Enviando entrada al modelo: {contexto}") # 👈 Agrega este print para ver el contexto en consola
101
 
102
  with torch.no_grad():
103
+ output = model.generate( # ✅ Correctamente indentado
104
+ **inputs,
105
+ max_length=150, # Reduce el tamaño máximo para evitar que se quede colgado
106
+ do_sample=True, # Sampling activado para más variabilidad
107
+ top_k=50, # Controla la aleatoriedad para evitar salidas vacías
108
+ temperature=0.7, # Ajusta la creatividad de la respuesta
109
+ pad_token_id=tokenizer.eos_token_id # Evita errores de padding
110
+ ) # ✅ Paréntesis correctamente cerrado
111
+
112
 
113
  # Decodificar la salida del modelo
114
  respuesta = tokenizer.decode(output[0], skip_special_tokens=True).strip()