dog-shop-gradio / app.py
victor-chur's picture
Update app.py
ae74abb verified
import gradio as gr
from transformers import AutoModelForCausalLM, AutoTokenizer
# Указываем имя твоей модели на Hugging Face
model_name = "victor-chur/dog-shop-model"
# Загружаем токенизатор и модель
tokenizer = AutoTokenizer.from_pretrained(model_name)
model = AutoModelForCausalLM.from_pretrained(model_name)
# Функция для генерации ответа с настройками для вариативности
def generate_response(prompt):
inputs = tokenizer(prompt, return_tensors="pt")
reply_ids = model.generate(
inputs['input_ids'],
max_length=100,
pad_token_id=tokenizer.eos_token_id,
temperature=0.5,
top_p=0.8,
do_sample=True
)
response = tokenizer.decode(reply_ids[0], skip_special_tokens=True)
return response
# Интерфейс Gradio для тестирования модели
iface = gr.Interface(fn=generate_response, inputs="text", outputs="text", title="Telegram Bot Model")
# Запуск приложения
iface.launch()