mrmax14 commited on
Commit
544ff8e
·
1 Parent(s): 511c61e

init commit

Browse files
Files changed (1) hide show
  1. app.py +9 -1
app.py CHANGED
@@ -2,6 +2,7 @@ import os
2
  from transformers import AutoTokenizer, AutoModelForCausalLM
3
  import torch
4
  from transformers import BitsAndBytesConfig
 
5
 
6
  # Завантажуємо токен автентифікації з змінної середовища
7
  hf_token = os.getenv("HF_API_TOKEN")
@@ -21,13 +22,20 @@ bnb_config = BitsAndBytesConfig(
21
  tokenizer = AutoTokenizer.from_pretrained(model_id, use_auth_token=hf_token)
22
  tokenizer.pad_token = tokenizer.eos_token
23
 
 
 
 
24
  # Завантажуємо модель на CPU з використанням автентифікації
25
  model = AutoModelForCausalLM.from_pretrained(
26
  model_id,
27
  device_map="cpu", # Завантажуємо модель на CPU
28
- use_auth_token=hf_token
 
29
  )
30
 
 
 
 
31
  # Тепер ви можете використовувати модель для генерації тексту, наприклад:
32
  input_text = "Hello, how are you?"
33
  inputs = tokenizer(input_text, return_tensors="pt")
 
2
  from transformers import AutoTokenizer, AutoModelForCausalLM
3
  import torch
4
  from transformers import BitsAndBytesConfig
5
+ from accelerate import Accelerator
6
 
7
  # Завантажуємо токен автентифікації з змінної середовища
8
  hf_token = os.getenv("HF_API_TOKEN")
 
22
  tokenizer = AutoTokenizer.from_pretrained(model_id, use_auth_token=hf_token)
23
  tokenizer.pad_token = tokenizer.eos_token
24
 
25
+ # Ініціалізація Accelerator для оптимізації використання пам'яті
26
+ accelerator = Accelerator()
27
+
28
  # Завантажуємо модель на CPU з використанням автентифікації
29
  model = AutoModelForCausalLM.from_pretrained(
30
  model_id,
31
  device_map="cpu", # Завантажуємо модель на CPU
32
+ use_auth_token=hf_token,
33
+ low_cpu_mem_usage=True
34
  )
35
 
36
+ # Переведення моделі на пристрій
37
+ model = accelerator.prepare(model)
38
+
39
  # Тепер ви можете використовувати модель для генерації тексту, наприклад:
40
  input_text = "Hello, how are you?"
41
  inputs = tokenizer(input_text, return_tensors="pt")