Update app.py
Browse files
app.py
CHANGED
@@ -3,7 +3,7 @@ import torch
|
|
3 |
from transformers import pipeline
|
4 |
|
5 |
# Título de la app
|
6 |
-
st.title("Generador de Texto
|
7 |
|
8 |
# Cargar modelo en español optimizado
|
9 |
@st.cache_resource
|
@@ -22,7 +22,16 @@ if st.button("Generar Texto"):
|
|
22 |
st.warning("Por favor, ingresa un texto válido.")
|
23 |
else:
|
24 |
with st.spinner("Generando texto..."):
|
25 |
-
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
26 |
response = result[0]['generated_text']
|
27 |
st.subheader("Texto Generado:")
|
28 |
st.write(response)
|
|
|
3 |
from transformers import pipeline
|
4 |
|
5 |
# Título de la app
|
6 |
+
st.title("Generador de Texto Quinta Optimización")
|
7 |
|
8 |
# Cargar modelo en español optimizado
|
9 |
@st.cache_resource
|
|
|
22 |
st.warning("Por favor, ingresa un texto válido.")
|
23 |
else:
|
24 |
with st.spinner("Generando texto..."):
|
25 |
+
result = generator(
|
26 |
+
prompt,
|
27 |
+
max_length=30, # Generación más corta
|
28 |
+
temperature=0.2, # Baja creatividad
|
29 |
+
top_p=0.8, # Sampling basado en probabilidad acumulativa
|
30 |
+
top_k=50, # Limitar a las 50 palabras más probables
|
31 |
+
repetition_penalty=1.3, # Penalizar repeticiones
|
32 |
+
num_return_sequences=1,
|
33 |
+
eos_token_id=50256 # Detener al final de frase
|
34 |
+
)
|
35 |
response = result[0]['generated_text']
|
36 |
st.subheader("Texto Generado:")
|
37 |
st.write(response)
|