mrmax14 commited on
Commit
0dee7a7
·
1 Parent(s): ff6dcdf

init commit

Browse files
Files changed (1) hide show
  1. app.py +3 -20
app.py CHANGED
@@ -1,8 +1,6 @@
1
  import os
2
  from transformers import AutoTokenizer, AutoModelForCausalLM
3
  import torch
4
- from transformers import BitsAndBytesConfig
5
- from accelerate import Accelerator
6
 
7
  # Завантажуємо токен автентифікації з змінної середовища
8
  hf_token = os.getenv("HF_API_TOKEN")
@@ -10,33 +8,18 @@ hf_token = os.getenv("HF_API_TOKEN")
10
  # Ідентифікатор моделі
11
  model_id = "meta-llama/Llama-2-7b-hf"
12
 
13
- # Налаштування для BitsAndBytes
14
- bnb_config = BitsAndBytesConfig(
15
- load_in_4bit=True,
16
- bnb_4bit_use_double_quant=True,
17
- bnb_4bit_quant_type="nf4",
18
- bnb_4bit_compute_dtype=torch.bfloat16
19
- )
20
-
21
  # Завантажуємо токенізатор з Hugging Face
22
  tokenizer = AutoTokenizer.from_pretrained(model_id, use_auth_token=hf_token)
23
  tokenizer.pad_token = tokenizer.eos_token
24
 
25
- # Ініціалізація Accelerator для оптимізації використання пам'яті
26
- accelerator = Accelerator()
27
-
28
  # Завантажуємо модель на CPU з використанням автентифікації
29
  model = AutoModelForCausalLM.from_pretrained(
30
  model_id,
31
- # device_map="cpu", # Пробуйте без цього параметра
32
- use_auth_token=hf_token,
33
- low_cpu_mem_usage=True
34
  )
35
 
36
- # Переведення моделі на пристрій
37
- model = accelerator.prepare(model)
38
-
39
- # Тепер ви можете використовувати модель для генерації тексту, наприклад:
40
  input_text = "Hello, how are you?"
41
  inputs = tokenizer(input_text, return_tensors="pt")
42
  outputs = model.generate(inputs["input_ids"])
 
1
  import os
2
  from transformers import AutoTokenizer, AutoModelForCausalLM
3
  import torch
 
 
4
 
5
  # Завантажуємо токен автентифікації з змінної середовища
6
  hf_token = os.getenv("HF_API_TOKEN")
 
8
  # Ідентифікатор моделі
9
  model_id = "meta-llama/Llama-2-7b-hf"
10
 
 
 
 
 
 
 
 
 
11
  # Завантажуємо токенізатор з Hugging Face
12
  tokenizer = AutoTokenizer.from_pretrained(model_id, use_auth_token=hf_token)
13
  tokenizer.pad_token = tokenizer.eos_token
14
 
 
 
 
15
  # Завантажуємо модель на CPU з використанням автентифікації
16
  model = AutoModelForCausalLM.from_pretrained(
17
  model_id,
18
+ device_map="cpu", # Завантажуємо модель на CPU
19
+ use_auth_token=hf_token
 
20
  )
21
 
22
+ # Тепер ви можете використовувати модель для генерації тексту
 
 
 
23
  input_text = "Hello, how are you?"
24
  inputs = tokenizer(input_text, return_tensors="pt")
25
  outputs = model.generate(inputs["input_ids"])