Titobsala commited on
Commit
9765916
·
1 Parent(s): 97ceee0

interface streamlit

Browse files
Files changed (1) hide show
  1. app.py +8 -5
app.py CHANGED
@@ -20,13 +20,10 @@ try:
20
  model, tokenizer = load_model()
21
  gerador = pipeline('text2text-generation', model=model, tokenizer=tokenizer)
22
 
23
- # Interface do usuário
24
  st.write("Este aplicativo gera texto baseado em um prompt inicial usando o modelo T5.")
25
 
26
- # Entrada de texto
27
  prompt = st.text_area("Digite o prompt inicial:", height=100)
28
 
29
- # Configurações de geração
30
  col1, col2 = st.columns(2)
31
  with col1:
32
  max_length = st.slider("Comprimento máximo do texto gerado:", min_value=10, max_value=500, value=100)
@@ -35,11 +32,17 @@ try:
35
 
36
  temperature = st.slider("Temperatura (criatividade):", min_value=0.1, max_value=1.0, value=0.7, step=0.1)
37
 
38
- # Botão para gerar texto
39
  if st.button('Gerar Texto'):
40
  if prompt:
41
  with st.spinner('Gerando texto...'):
42
- resultados = gerador(prompt, max_length=max_length, num_return_sequences=num_return_sequences, temperature=temperature)
 
 
 
 
 
 
 
43
 
44
  st.subheader('Texto(s) gerado(s):')
45
  for i, resultado in enumerate(resultados, 1):
 
20
  model, tokenizer = load_model()
21
  gerador = pipeline('text2text-generation', model=model, tokenizer=tokenizer)
22
 
 
23
  st.write("Este aplicativo gera texto baseado em um prompt inicial usando o modelo T5.")
24
 
 
25
  prompt = st.text_area("Digite o prompt inicial:", height=100)
26
 
 
27
  col1, col2 = st.columns(2)
28
  with col1:
29
  max_length = st.slider("Comprimento máximo do texto gerado:", min_value=10, max_value=500, value=100)
 
32
 
33
  temperature = st.slider("Temperatura (criatividade):", min_value=0.1, max_value=1.0, value=0.7, step=0.1)
34
 
 
35
  if st.button('Gerar Texto'):
36
  if prompt:
37
  with st.spinner('Gerando texto...'):
38
+ # Usar beam search se num_return_sequences > 1
39
+ if num_return_sequences > 1:
40
+ resultados = gerador(prompt, max_length=max_length, num_return_sequences=num_return_sequences,
41
+ temperature=temperature, num_beams=num_return_sequences,
42
+ no_repeat_ngram_size=2, early_stopping=True)
43
+ else:
44
+ resultados = gerador(prompt, max_length=max_length, num_return_sequences=1,
45
+ temperature=temperature, do_sample=True)
46
 
47
  st.subheader('Texto(s) gerado(s):')
48
  for i, resultado in enumerate(resultados, 1):