Update app.py
Browse files
app.py
CHANGED
@@ -2,28 +2,35 @@ import streamlit as st
|
|
2 |
import torch
|
3 |
from transformers import pipeline
|
4 |
|
5 |
-
# Verificar si PyTorch está disponible
|
6 |
-
st.write(f"PyTorch disponible: {torch.cuda.is_available()}")
|
7 |
-
|
8 |
# Título de la app
|
9 |
-
st.title("Generador de Texto con GPT-2")
|
|
|
|
|
|
|
|
|
|
|
10 |
|
11 |
-
|
12 |
-
st.write("Cargando modelo GPT-2...")
|
13 |
-
generator = pipeline("text-generation", model="gpt2")
|
14 |
|
15 |
-
#
|
|
|
|
|
|
|
|
|
|
|
|
|
16 |
prompt = st.text_area("Escribe un texto para que GPT-2 continúe:")
|
17 |
|
18 |
-
#
|
19 |
if st.button("Generar Texto"):
|
20 |
-
if prompt.strip()
|
21 |
st.warning("Por favor, ingresa un texto válido.")
|
22 |
else:
|
23 |
with st.spinner("Generando texto..."):
|
24 |
-
|
25 |
-
|
26 |
-
|
27 |
-
# Mostrar resultado
|
28 |
st.subheader("Texto Generado:")
|
29 |
-
st.write(
|
|
|
|
|
|
|
|
2 |
import torch
|
3 |
from transformers import pipeline
|
4 |
|
|
|
|
|
|
|
5 |
# Título de la app
|
6 |
+
st.title("Generador de Texto con Hugging Face GPT-2")
|
7 |
+
|
8 |
+
# Inicialización del modelo
|
9 |
+
@st.cache_resource
|
10 |
+
def load_model():
|
11 |
+
return pipeline("text-generation", model="gpt2")
|
12 |
|
13 |
+
generator = load_model()
|
|
|
|
|
14 |
|
15 |
+
# Sidebar para controlar parámetros
|
16 |
+
st.sidebar.header("Configuración del Modelo")
|
17 |
+
max_tokens = st.sidebar.slider("Máximo de tokens", 50, 500, 100, 10)
|
18 |
+
temperature = st.sidebar.slider("Temperatura (Creatividad)", 0.1, 1.0, 0.7, 0.1)
|
19 |
+
|
20 |
+
# Entrada del usuario
|
21 |
+
st.subheader("Entrada")
|
22 |
prompt = st.text_area("Escribe un texto para que GPT-2 continúe:")
|
23 |
|
24 |
+
# Generar respuesta
|
25 |
if st.button("Generar Texto"):
|
26 |
+
if not prompt.strip():
|
27 |
st.warning("Por favor, ingresa un texto válido.")
|
28 |
else:
|
29 |
with st.spinner("Generando texto..."):
|
30 |
+
result = generator(prompt, max_length=max_tokens, temperature=temperature, num_return_sequences=1)
|
31 |
+
response = result[0]['generated_text']
|
|
|
|
|
32 |
st.subheader("Texto Generado:")
|
33 |
+
st.write(response)
|
34 |
+
|
35 |
+
# Mensaje adicional
|
36 |
+
st.info("Modifica los parámetros en la barra lateral para ajustar la generación de texto.")
|