Spaces:
Sleeping
Sleeping
Update app.py
Browse files
app.py
CHANGED
@@ -100,14 +100,15 @@ def conversar_con_colmena(mensaje):
|
|
100 |
print(f"🔄 Enviando entrada al modelo: {contexto}") # 👈 Agrega este print para ver el contexto en consola
|
101 |
|
102 |
with torch.no_grad():
|
103 |
-
|
104 |
-
|
105 |
-
|
106 |
-
|
107 |
-
|
108 |
-
|
109 |
-
|
110 |
-
|
|
|
111 |
|
112 |
# Decodificar la salida del modelo
|
113 |
respuesta = tokenizer.decode(output[0], skip_special_tokens=True).strip()
|
|
|
100 |
print(f"🔄 Enviando entrada al modelo: {contexto}") # 👈 Agrega este print para ver el contexto en consola
|
101 |
|
102 |
with torch.no_grad():
|
103 |
+
output = model.generate( # ✅ Correctamente indentado
|
104 |
+
**inputs,
|
105 |
+
max_length=150, # Reduce el tamaño máximo para evitar que se quede colgado
|
106 |
+
do_sample=True, # Sampling activado para más variabilidad
|
107 |
+
top_k=50, # Controla la aleatoriedad para evitar salidas vacías
|
108 |
+
temperature=0.7, # Ajusta la creatividad de la respuesta
|
109 |
+
pad_token_id=tokenizer.eos_token_id # Evita errores de padding
|
110 |
+
) # ✅ Paréntesis correctamente cerrado
|
111 |
+
|
112 |
|
113 |
# Decodificar la salida del modelo
|
114 |
respuesta = tokenizer.decode(output[0], skip_special_tokens=True).strip()
|