Norgan97's picture
test2
a487402
raw
history blame
1.24 kB
import streamlit as st
from pages.models.gptmodel import model
from pages.models.gptmodel import tokenizer
import torch
import transformers
from transformers import GPT2LMHeadModel, GPT2Tokenizer
text = st.text_input('Введите сюда вопрос или предложение для генерации текста')
temp = st.slider('Выберите значения температуры',min_value=1.0, max_value=3.0, step=0.1 )
length = st.slider('Выберите длину последовательности',min_value=1, max_value=200, step=10 )
beams = st.slider('Выберите число генераций',min_value=1, max_value=10, step=1 )
p = st.slider('Выберите значения top_p',min_value=0.5, max_value=0.9, step=0.1 )
if text:
input_ids = tokenizer.encode(text, return_tensors="pt").to('cpu')
model.eval()
with torch.no_grad():
out = model.generate(input_ids,
do_sample=True,
num_beams=beams,
temperature=temp,
top_p=p,
max_length=length,
)
st.write(list(map(tokenizer.decode, out))[0])