nmarafo commited on
Commit
ad41af2
verified
1 Parent(s): 5155d78

Update app.py

Browse files
Files changed (1) hide show
  1. app.py +15 -2
app.py CHANGED
@@ -7,8 +7,21 @@ import os
7
  # Cargar el token de Hugging Face desde los secretos
8
  token = os.environ.get("HF_TOKEN")
9
 
10
- model = AutoModelForCausalLM.from_pretrained("PrunaAI/google-shieldgemma-2b-bnb-4bit-smashed", trust_remote_code=True, device_map='auto')
11
- tokenizer = AutoTokenizer.from_pretrained("google/shieldgemma-2b")
 
 
 
 
 
 
 
 
 
 
 
 
 
12
 
13
  # Funci贸n para generar el prompt dependiendo del idioma seleccionado
14
  def generar_prompt(message, tipo_clasificacion, idioma):
 
7
  # Cargar el token de Hugging Face desde los secretos
8
  token = os.environ.get("HF_TOKEN")
9
 
10
+ model_id = "google/shieldgemma-2b"
11
+
12
+ # use quantization to lower GPU usage
13
+ bnb_config = BitsAndBytesConfig(
14
+ load_in_4bit=True, bnb_4bit_use_double_quant=True, bnb_4bit_quant_type="nf4", bnb_4bit_compute_dtype=torch.bfloat16
15
+ )
16
+
17
+ tokenizer = AutoTokenizer.from_pretrained(model_id,token=token)
18
+ model = AutoModelForCausalLM.from_pretrained(
19
+ model_id,
20
+ torch_dtype=torch.bfloat16,
21
+ device_map="auto",
22
+ quantization_config=bnb_config,
23
+ token=token
24
+ )
25
 
26
  # Funci贸n para generar el prompt dependiendo del idioma seleccionado
27
  def generar_prompt(message, tipo_clasificacion, idioma):