Spaces:
Sleeping
Sleeping
import gradio as gr | |
from transformers import AutoModelForCausalLM, AutoTokenizer | |
# Указываем имя твоей модели на Hugging Face | |
model_name = "victor-chur/dog-shop-model" | |
# Загружаем токенизатор и модель | |
tokenizer = AutoTokenizer.from_pretrained(model_name) | |
model = AutoModelForCausalLM.from_pretrained(model_name) | |
# Функция для генерации ответа с настройками для вариативности | |
def generate_response(prompt): | |
inputs = tokenizer(prompt, return_tensors="pt") | |
reply_ids = model.generate( | |
inputs['input_ids'], | |
max_length=100, | |
pad_token_id=tokenizer.eos_token_id, | |
temperature=0.5, | |
top_p=0.8, | |
do_sample=True | |
) | |
response = tokenizer.decode(reply_ids[0], skip_special_tokens=True) | |
return response | |
# Интерфейс Gradio для тестирования модели | |
iface = gr.Interface(fn=generate_response, inputs="text", outputs="text", title="Telegram Bot Model") | |
# Запуск приложения | |
iface.launch() |