Spaces:
Sleeping
Sleeping
File size: 1,240 Bytes
a487402 |
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 |
import streamlit as st
from pages.models.gptmodel import model
from pages.models.gptmodel import tokenizer
import torch
import transformers
from transformers import GPT2LMHeadModel, GPT2Tokenizer
text = st.text_input('Введите сюда вопрос или предложение для генерации текста')
temp = st.slider('Выберите значения температуры',min_value=1.0, max_value=3.0, step=0.1 )
length = st.slider('Выберите длину последовательности',min_value=1, max_value=200, step=10 )
beams = st.slider('Выберите число генераций',min_value=1, max_value=10, step=1 )
p = st.slider('Выберите значения top_p',min_value=0.5, max_value=0.9, step=0.1 )
if text:
input_ids = tokenizer.encode(text, return_tensors="pt").to('cpu')
model.eval()
with torch.no_grad():
out = model.generate(input_ids,
do_sample=True,
num_beams=beams,
temperature=temp,
top_p=p,
max_length=length,
)
st.write(list(map(tokenizer.decode, out))[0]) |