interface streamlit
Browse files
app.py
CHANGED
@@ -20,13 +20,10 @@ try:
|
|
20 |
model, tokenizer = load_model()
|
21 |
gerador = pipeline('text2text-generation', model=model, tokenizer=tokenizer)
|
22 |
|
23 |
-
# Interface do usuário
|
24 |
st.write("Este aplicativo gera texto baseado em um prompt inicial usando o modelo T5.")
|
25 |
|
26 |
-
# Entrada de texto
|
27 |
prompt = st.text_area("Digite o prompt inicial:", height=100)
|
28 |
|
29 |
-
# Configurações de geração
|
30 |
col1, col2 = st.columns(2)
|
31 |
with col1:
|
32 |
max_length = st.slider("Comprimento máximo do texto gerado:", min_value=10, max_value=500, value=100)
|
@@ -35,11 +32,17 @@ try:
|
|
35 |
|
36 |
temperature = st.slider("Temperatura (criatividade):", min_value=0.1, max_value=1.0, value=0.7, step=0.1)
|
37 |
|
38 |
-
# Botão para gerar texto
|
39 |
if st.button('Gerar Texto'):
|
40 |
if prompt:
|
41 |
with st.spinner('Gerando texto...'):
|
42 |
-
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
43 |
|
44 |
st.subheader('Texto(s) gerado(s):')
|
45 |
for i, resultado in enumerate(resultados, 1):
|
|
|
20 |
model, tokenizer = load_model()
|
21 |
gerador = pipeline('text2text-generation', model=model, tokenizer=tokenizer)
|
22 |
|
|
|
23 |
st.write("Este aplicativo gera texto baseado em um prompt inicial usando o modelo T5.")
|
24 |
|
|
|
25 |
prompt = st.text_area("Digite o prompt inicial:", height=100)
|
26 |
|
|
|
27 |
col1, col2 = st.columns(2)
|
28 |
with col1:
|
29 |
max_length = st.slider("Comprimento máximo do texto gerado:", min_value=10, max_value=500, value=100)
|
|
|
32 |
|
33 |
temperature = st.slider("Temperatura (criatividade):", min_value=0.1, max_value=1.0, value=0.7, step=0.1)
|
34 |
|
|
|
35 |
if st.button('Gerar Texto'):
|
36 |
if prompt:
|
37 |
with st.spinner('Gerando texto...'):
|
38 |
+
# Usar beam search se num_return_sequences > 1
|
39 |
+
if num_return_sequences > 1:
|
40 |
+
resultados = gerador(prompt, max_length=max_length, num_return_sequences=num_return_sequences,
|
41 |
+
temperature=temperature, num_beams=num_return_sequences,
|
42 |
+
no_repeat_ngram_size=2, early_stopping=True)
|
43 |
+
else:
|
44 |
+
resultados = gerador(prompt, max_length=max_length, num_return_sequences=1,
|
45 |
+
temperature=temperature, do_sample=True)
|
46 |
|
47 |
st.subheader('Texto(s) gerado(s):')
|
48 |
for i, resultado in enumerate(resultados, 1):
|