dsfdfsghgf commited on
Commit
b416179
·
verified ·
1 Parent(s): 81ee8f8

Update app.py

Browse files
Files changed (1) hide show
  1. app.py +14 -26
app.py CHANGED
@@ -1,32 +1,20 @@
1
- import subprocess
2
- subprocess.check_call(["pip", "install", "transformers", "torch"])
3
-
4
  import gradio as gr
5
- from transformers import AutoModelForCausalLM, AutoTokenizer
6
-
7
- from huggingface_hub import login
8
 
9
- # Authentifizierungscode einfügen
10
- login("hh")
11
 
12
- # Laden des Modells und des Tokenizers
13
- model_name = "Qwen/Qwen2.5-Math"
14
- tokenizer = AutoTokenizer.from_pretrained(model_name)
15
- model = AutoModelForCausalLM.from_pretrained(model_name)
16
 
17
- # Gradio-Interface für Math-Lösungen
18
- def solve_math(input_text):
19
- inputs = tokenizer(input_text, return_tensors="pt")
20
- outputs = model.generate(inputs["input_ids"])
21
- return tokenizer.decode(outputs[0])
22
 
23
- # Gradio App erstellen
24
- iface = gr.Interface(
25
- fn=solve_math,
26
- inputs="text",
27
- outputs="text",
28
- title="SmartMath_AI",
29
- description=" Ein KI-gestütztes Tool, das komplexe mathematische Berechnungen durchführt und intuitive Erklärungen liefert."
30
- )
31
 
32
- iface.launch()
 
 
1
+ import os
 
 
2
  import gradio as gr
3
+ from transformers import pipeline
 
 
4
 
5
+ # Stelle sicher, dass das Hugging Face Token aus den Secrets abgerufen wird
6
+ hf_token = os.getenv('HF_TOKEN') # Holen des Tokens aus den Secrets
7
 
8
+ # Verwende das Token, wenn du das Modell von Hugging Face laden möchtest
9
+ generator = pipeline('text-generation', model='huggingface/qwen2.5', use_auth_token=hf_token)
 
 
10
 
11
+ def generate_text(prompt):
12
+ """Generiert Text basierend auf der Eingabeaufforderung."""
13
+ result = generator(prompt, max_length=200)
14
+ return result[0]['generated_text']
 
15
 
16
+ # Gradio UI
17
+ interface = gr.Interface(fn=generate_text, inputs="text", outputs="text", title="Qwen 2.5 Math Modell")
 
 
 
 
 
 
18
 
19
+ # Starten des Gradio Interfaces
20
+ interface.launch()