|
import streamlit as st |
|
import torch |
|
from transformers import pipeline |
|
|
|
|
|
st.write(f"PyTorch disponible: {torch.cuda.is_available()}") |
|
|
|
|
|
st.title("Generador de Texto con GPT-2") |
|
|
|
|
|
st.write("Cargando modelo GPT-2...") |
|
generator = pipeline("text-generation", model="gpt2") |
|
|
|
|
|
prompt = st.text_area("Escribe un texto para que GPT-2 continúe:") |
|
|
|
|
|
if st.button("Generar Texto"): |
|
if prompt.strip() == "": |
|
st.warning("Por favor, ingresa un texto válido.") |
|
else: |
|
with st.spinner("Generando texto..."): |
|
|
|
output = generator(prompt, max_length=100, num_return_sequences=1) |
|
|
|
|
|
st.subheader("Texto Generado:") |
|
st.write(output[0]["generated_text"]) |
|
|