Loewolf-Chat / app.py
Loewolf's picture
Update app.py
d163b82
raw
history blame
902 Bytes
import gradio as gr
from transformers import GPT2LMHeadModel, GPT2Tokenizer
import torch
# Initialisierung des Modells und des Tokenizers
tokenizer = GPT2Tokenizer.from_pretrained("Loewolf/GPT_1")
model = GPT2LMHeadModel.from_pretrained("Loewolf/GPT_1")
def generate_text(prompt):
inputs = tokenizer.encode(prompt, return_tensors="pt")
outputs = model.generate(inputs, max_length=50, num_return_sequences=1)
text = tokenizer.decode(outputs[0], skip_special_tokens=True)
return text
# Erstellung des Chatbot-Interface mit dem Titel "Löwolf Chat"
iface = gr.Interface(
fn=generate_text,
inputs=gr.Textbox(label="Schreibe hier...", placeholder="Stelle deine Frage..."),
outputs="text",
title="Löwolf Chat",
description="Willkommen beim Löwolf Chat. Stelle deine Fragen und erhalte Antworten vom KI-Chatbot."
)
# Starten des Chatbot-Interfaces
iface.launch()