XA-vito commited on
Commit
bc8cb15
·
verified ·
1 Parent(s): 66e24ed

Update app.py

Browse files
Files changed (1) hide show
  1. app.py +18 -16
app.py CHANGED
@@ -100,25 +100,27 @@ def conversar_con_colmena(mensaje):
100
  print(f"🔄 Enviando entrada al modelo: {contexto}") # 👈 Agrega este print para ver el contexto en consola
101
 
102
  with torch.no_grad():
103
- output = model.generate(
104
- **inputs,
105
- max_length=150, # Reduce el tamaño máximo para evitar que se quede colgado
106
- do_sample=True, # Sampling activado para más variabilidad
107
- top_k=50, # Controla la aleatoriedad para evitar salidas vacías
108
- temperature=0.7, # Ajusta la creatividad de la respuesta
109
- pad_token_id=tokenizer.eos_token_id # Evita errores de padding
110
- )
111
-
112
-
113
-
114
- respuesta = tokenizer.decode(output[0], skip_special_tokens=True).strip()
115
-
116
- print(f"✅ Respuesta generada por la IA: '{respuesta}'") # 👈 Para ver si está vacío
117
-
118
- if not respuesta:
 
119
  return "🤖 No pude generar una respuesta. Inténtalo de nuevo con otra pregunta."
120
 
121
 
 
122
  iface = gr.Interface(
123
  fn=conversar_con_colmena,
124
  inputs="text",
 
100
  print(f"🔄 Enviando entrada al modelo: {contexto}") # 👈 Agrega este print para ver el contexto en consola
101
 
102
  with torch.no_grad():
103
+ output = model.generate(
104
+ **inputs,
105
+ max_length=150, # Reduce el tamaño máximo para evitar que se quede colgado
106
+ do_sample=True, # Sampling activado para más variabilidad
107
+ top_k=50, # Controla la aleatoriedad para evitar salidas vacías
108
+ temperature=0.7, # Ajusta la creatividad de la respuesta
109
+ pad_token_id=tokenizer.eos_token_id # Evita errores de padding
110
+ ) # ✅ Paréntesis correctamente cerrado
111
+
112
+ # Decodificar la salida del modelo
113
+ respuesta = tokenizer.decode(output[0], skip_special_tokens=True).strip()
114
+
115
+ # Imprimir la respuesta generada para depuración
116
+ print(f"✅ Respuesta generada por la IA: '{respuesta}'") # 👈 Para ver si está vacío
117
+
118
+ # Manejo de respuestas vacías
119
+ if not respuesta:
120
  return "🤖 No pude generar una respuesta. Inténtalo de nuevo con otra pregunta."
121
 
122
 
123
+
124
  iface = gr.Interface(
125
  fn=conversar_con_colmena,
126
  inputs="text",