Spaces:
Sleeping
Sleeping
Update app.py
Browse files
app.py
CHANGED
@@ -1,9 +1,10 @@
|
|
1 |
import gradio as gr
|
2 |
from transformers import AutoModelForCausalLM, AutoTokenizer
|
3 |
|
|
|
4 |
# Chemin vers le dossier contenant les fichiers du modèle (.bin, tokenizer)
|
5 |
MODEL_PATH = "TOOTLE/Gemma_instruct_model_gguf" # Remplace par le chemin réel de ton modèle
|
6 |
-
|
7 |
# Charger le modèle avec quantization pour économiser de la mémoire (par exemple, FP16)
|
8 |
model = AutoModelForCausalLM.from_pretrained(MODEL_PATH, torch_dtype="float16", device_map="auto")
|
9 |
tokenizer = AutoTokenizer.from_pretrained(MODEL_PATH)
|
@@ -12,7 +13,7 @@ tokenizer = AutoTokenizer.from_pretrained(MODEL_PATH)
|
|
12 |
def chatbot_response(prompt):
|
13 |
# Encoder l'entrée
|
14 |
print(prompt)
|
15 |
-
inputs = tokenizer(prompt, return_tensors="pt", truncation=True, padding=True)
|
16 |
print(input)
|
17 |
# Générer la réponse avec le modèle
|
18 |
outputs = model.generate(inputs["input_ids"], max_new_tokens=128)
|
|
|
1 |
import gradio as gr
|
2 |
from transformers import AutoModelForCausalLM, AutoTokenizer
|
3 |
|
4 |
+
|
5 |
# Chemin vers le dossier contenant les fichiers du modèle (.bin, tokenizer)
|
6 |
MODEL_PATH = "TOOTLE/Gemma_instruct_model_gguf" # Remplace par le chemin réel de ton modèle
|
7 |
+
alpaca_prompt = """Below is an instruction that describes a task, paired with an input that provides further context. Write a response that appropriately completes the request."""
|
8 |
# Charger le modèle avec quantization pour économiser de la mémoire (par exemple, FP16)
|
9 |
model = AutoModelForCausalLM.from_pretrained(MODEL_PATH, torch_dtype="float16", device_map="auto")
|
10 |
tokenizer = AutoTokenizer.from_pretrained(MODEL_PATH)
|
|
|
13 |
def chatbot_response(prompt):
|
14 |
# Encoder l'entrée
|
15 |
print(prompt)
|
16 |
+
inputs = tokenizer(prompt+alpaca_prompt, return_tensors="pt", truncation=True, padding=True)
|
17 |
print(input)
|
18 |
# Générer la réponse avec le modèle
|
19 |
outputs = model.generate(inputs["input_ids"], max_new_tokens=128)
|