AlejandraFlorezM commited on
Commit
0de57df
·
verified ·
1 Parent(s): f565815

Update app.py

Browse files
Files changed (1) hide show
  1. app.py +22 -15
app.py CHANGED
@@ -2,28 +2,35 @@ import streamlit as st
2
  import torch
3
  from transformers import pipeline
4
 
5
- # Verificar si PyTorch está disponible
6
- st.write(f"PyTorch disponible: {torch.cuda.is_available()}")
7
-
8
  # Título de la app
9
- st.title("Generador de Texto con GPT-2")
 
 
 
 
 
10
 
11
- # Inicializar el modelo de Hugging Face
12
- st.write("Cargando modelo GPT-2...")
13
- generator = pipeline("text-generation", model="gpt2")
14
 
15
- # Input del usuario
 
 
 
 
 
 
16
  prompt = st.text_area("Escribe un texto para que GPT-2 continúe:")
17
 
18
- # Botón para generar texto
19
  if st.button("Generar Texto"):
20
- if prompt.strip() == "":
21
  st.warning("Por favor, ingresa un texto válido.")
22
  else:
23
  with st.spinner("Generando texto..."):
24
- # Generar texto usando GPT-2
25
- output = generator(prompt, max_length=100, num_return_sequences=1)
26
-
27
- # Mostrar resultado
28
  st.subheader("Texto Generado:")
29
- st.write(output[0]["generated_text"])
 
 
 
 
2
  import torch
3
  from transformers import pipeline
4
 
 
 
 
5
  # Título de la app
6
+ st.title("Generador de Texto con Hugging Face GPT-2")
7
+
8
+ # Inicialización del modelo
9
+ @st.cache_resource
10
+ def load_model():
11
+ return pipeline("text-generation", model="gpt2")
12
 
13
+ generator = load_model()
 
 
14
 
15
+ # Sidebar para controlar parámetros
16
+ st.sidebar.header("Configuración del Modelo")
17
+ max_tokens = st.sidebar.slider("Máximo de tokens", 50, 500, 100, 10)
18
+ temperature = st.sidebar.slider("Temperatura (Creatividad)", 0.1, 1.0, 0.7, 0.1)
19
+
20
+ # Entrada del usuario
21
+ st.subheader("Entrada")
22
  prompt = st.text_area("Escribe un texto para que GPT-2 continúe:")
23
 
24
+ # Generar respuesta
25
  if st.button("Generar Texto"):
26
+ if not prompt.strip():
27
  st.warning("Por favor, ingresa un texto válido.")
28
  else:
29
  with st.spinner("Generando texto..."):
30
+ result = generator(prompt, max_length=max_tokens, temperature=temperature, num_return_sequences=1)
31
+ response = result[0]['generated_text']
 
 
32
  st.subheader("Texto Generado:")
33
+ st.write(response)
34
+
35
+ # Mensaje adicional
36
+ st.info("Modifica los parámetros en la barra lateral para ajustar la generación de texto.")