init commit
Browse files
app.py
CHANGED
@@ -2,6 +2,7 @@ import os
|
|
2 |
from transformers import AutoTokenizer, AutoModelForCausalLM
|
3 |
import torch
|
4 |
from transformers import BitsAndBytesConfig
|
|
|
5 |
|
6 |
# Завантажуємо токен автентифікації з змінної середовища
|
7 |
hf_token = os.getenv("HF_API_TOKEN")
|
@@ -21,13 +22,20 @@ bnb_config = BitsAndBytesConfig(
|
|
21 |
tokenizer = AutoTokenizer.from_pretrained(model_id, use_auth_token=hf_token)
|
22 |
tokenizer.pad_token = tokenizer.eos_token
|
23 |
|
|
|
|
|
|
|
24 |
# Завантажуємо модель на CPU з використанням автентифікації
|
25 |
model = AutoModelForCausalLM.from_pretrained(
|
26 |
model_id,
|
27 |
device_map="cpu", # Завантажуємо модель на CPU
|
28 |
-
use_auth_token=hf_token
|
|
|
29 |
)
|
30 |
|
|
|
|
|
|
|
31 |
# Тепер ви можете використовувати модель для генерації тексту, наприклад:
|
32 |
input_text = "Hello, how are you?"
|
33 |
inputs = tokenizer(input_text, return_tensors="pt")
|
|
|
2 |
from transformers import AutoTokenizer, AutoModelForCausalLM
|
3 |
import torch
|
4 |
from transformers import BitsAndBytesConfig
|
5 |
+
from accelerate import Accelerator
|
6 |
|
7 |
# Завантажуємо токен автентифікації з змінної середовища
|
8 |
hf_token = os.getenv("HF_API_TOKEN")
|
|
|
22 |
tokenizer = AutoTokenizer.from_pretrained(model_id, use_auth_token=hf_token)
|
23 |
tokenizer.pad_token = tokenizer.eos_token
|
24 |
|
25 |
+
# Ініціалізація Accelerator для оптимізації використання пам'яті
|
26 |
+
accelerator = Accelerator()
|
27 |
+
|
28 |
# Завантажуємо модель на CPU з використанням автентифікації
|
29 |
model = AutoModelForCausalLM.from_pretrained(
|
30 |
model_id,
|
31 |
device_map="cpu", # Завантажуємо модель на CPU
|
32 |
+
use_auth_token=hf_token,
|
33 |
+
low_cpu_mem_usage=True
|
34 |
)
|
35 |
|
36 |
+
# Переведення моделі на пристрій
|
37 |
+
model = accelerator.prepare(model)
|
38 |
+
|
39 |
# Тепер ви можете використовувати модель для генерації тексту, наприклад:
|
40 |
input_text = "Hello, how are you?"
|
41 |
inputs = tokenizer(input_text, return_tensors="pt")
|