tarekfer8 commited on
Commit
0f9080f
·
verified ·
1 Parent(s): f555d5a

Update djezzy.py

Browse files
Files changed (1) hide show
  1. djezzy.py +9 -2
djezzy.py CHANGED
@@ -29,9 +29,16 @@ model_name = "sentence-transformers/all-MiniLM-L6-v2"
29
  embedding_llm = SentenceTransformerEmbeddings(model_name=model_name)
30
 
31
  from transformers import T5Tokenizer, T5ForConditionalGeneration
32
-
 
 
 
 
 
 
 
33
  tokenizer1 = T5Tokenizer.from_pretrained("google/flan-t5-xl")
34
- model1 = T5ForConditionalGeneration.from_pretrained("google/flan-t5-xl",load_in_8bit=True)
35
  with tempfile.TemporaryDirectory() as temp_dir:
36
  # Chemins des fichiers cibles dans le répertoire temporaire
37
  index_target = os.path.join(temp_dir, 'index.faiss')
 
29
  embedding_llm = SentenceTransformerEmbeddings(model_name=model_name)
30
 
31
  from transformers import T5Tokenizer, T5ForConditionalGeneration
32
+ compute_dtype = getattr(torch, bnb_8bit_compute_dtype)
33
+
34
+ bnb_config =BitsAndBytesConfig(
35
+ load_in_8bit=True, # Activer la quantification 8 bits pour le chargement du modèle
36
+ bnb_8bit_quant_type="...",
37
+ bnb_8bit_compute_dtype="uint8", # Définissez le type de données de calcul sur un entier non signé de 8 bits
38
+ bnb_8bit_use_double_quant=False, # Désactiver la quantification imbriquée (si non applicable)
39
+ )
40
  tokenizer1 = T5Tokenizer.from_pretrained("google/flan-t5-xl")
41
+ model1 = T5ForConditionalGeneration.from_pretrained("google/flan-t5-xl",quantization_config=bnb_config)
42
  with tempfile.TemporaryDirectory() as temp_dir:
43
  # Chemins des fichiers cibles dans le répertoire temporaire
44
  index_target = os.path.join(temp_dir, 'index.faiss')