TOOTLE commited on
Commit
ae7afef
·
verified ·
1 Parent(s): 4d300d0

Update app.py

Browse files
Files changed (1) hide show
  1. app.py +3 -2
app.py CHANGED
@@ -1,9 +1,10 @@
1
  import gradio as gr
2
  from transformers import AutoModelForCausalLM, AutoTokenizer
3
 
 
4
  # Chemin vers le dossier contenant les fichiers du modèle (.bin, tokenizer)
5
  MODEL_PATH = "TOOTLE/Gemma_instruct_model_gguf" # Remplace par le chemin réel de ton modèle
6
-
7
  # Charger le modèle avec quantization pour économiser de la mémoire (par exemple, FP16)
8
  model = AutoModelForCausalLM.from_pretrained(MODEL_PATH, torch_dtype="float16", device_map="auto")
9
  tokenizer = AutoTokenizer.from_pretrained(MODEL_PATH)
@@ -12,7 +13,7 @@ tokenizer = AutoTokenizer.from_pretrained(MODEL_PATH)
12
  def chatbot_response(prompt):
13
  # Encoder l'entrée
14
  print(prompt)
15
- inputs = tokenizer(prompt, return_tensors="pt", truncation=True, padding=True)
16
  print(input)
17
  # Générer la réponse avec le modèle
18
  outputs = model.generate(inputs["input_ids"], max_new_tokens=128)
 
1
  import gradio as gr
2
  from transformers import AutoModelForCausalLM, AutoTokenizer
3
 
4
+
5
  # Chemin vers le dossier contenant les fichiers du modèle (.bin, tokenizer)
6
  MODEL_PATH = "TOOTLE/Gemma_instruct_model_gguf" # Remplace par le chemin réel de ton modèle
7
+ alpaca_prompt = """Below is an instruction that describes a task, paired with an input that provides further context. Write a response that appropriately completes the request."""
8
  # Charger le modèle avec quantization pour économiser de la mémoire (par exemple, FP16)
9
  model = AutoModelForCausalLM.from_pretrained(MODEL_PATH, torch_dtype="float16", device_map="auto")
10
  tokenizer = AutoTokenizer.from_pretrained(MODEL_PATH)
 
13
  def chatbot_response(prompt):
14
  # Encoder l'entrée
15
  print(prompt)
16
+ inputs = tokenizer(prompt+alpaca_prompt, return_tensors="pt", truncation=True, padding=True)
17
  print(input)
18
  # Générer la réponse avec le modèle
19
  outputs = model.generate(inputs["input_ids"], max_new_tokens=128)