Titobsala's picture
modifiquei a estrutura da API
c3a3adb
raw
history blame
1.32 kB
import streamlit as st
from transformers import T5Tokenizer, T5ForConditionalGeneration, pipeline
# Substitua 'seu-nome-de-usuário/nome-do-modelo' pelo caminho correto do seu modelo no Hugging Face Hub
MODEL_NAME = "exo-is/t5-small-60M-esg-keyword"
@st.cache_resource
def load_model():
tokenizer = T5Tokenizer.from_pretrained(MODEL_NAME)
model = T5ForConditionalGeneration.from_pretrained(MODEL_NAME)
return pipeline('text2text-generation', model=model, tokenizer=tokenizer)
st.title('Gerador de Texto T5')
gerador = load_model()
# Entrada do usuário
prompt = st.text_area('Digite o prompt inicial:')
# Configurações de geração
max_length = st.slider('Comprimento máximo do texto gerado:', min_value=10, max_value=500, value=100)
num_return_sequences = st.number_input('Número de sequências a gerar:', min_value=1, max_value=5, value=1)
if st.button('Gerar Texto'):
if prompt:
with st.spinner('Gerando texto...'):
resultados = gerador(prompt, max_length=max_length, num_return_sequences=num_return_sequences)
st.write('Texto(s) gerado(s):')
for i, resultado in enumerate(resultados, 1):
st.write(f"Sequência {i}:")
st.write(resultado['generated_text'])
else:
st.warning('Por favor, digite um prompt inicial.')