init commit
Browse files
app.py
CHANGED
@@ -1,14 +1,21 @@
|
|
|
|
1 |
from transformers import AutoModelForCausalLM, AutoTokenizer
|
2 |
|
|
|
|
|
|
|
|
|
|
|
|
|
3 |
model_name = "meta-llama/Llama-2-7b-chat"
|
4 |
|
5 |
# Завантажуємо токенайзер з використанням авторизації
|
6 |
-
tokenizer = AutoTokenizer.from_pretrained(model_name, use_auth_token=
|
7 |
|
8 |
# Завантажуємо модель з використанням авторизації
|
9 |
model = AutoModelForCausalLM.from_pretrained(
|
10 |
model_name,
|
11 |
-
use_auth_token=
|
12 |
torch_dtype=torch.float32, # Використання full precision для CPU
|
13 |
device_map=None # Вимкнення автоматичного розподілу по GPU
|
14 |
)
|
|
|
1 |
+
import os
|
2 |
from transformers import AutoModelForCausalLM, AutoTokenizer
|
3 |
|
4 |
+
# Отримуємо токен із змінної середовища
|
5 |
+
hf_token = os.getenv("HF_API_TOKEN")
|
6 |
+
|
7 |
+
if not hf_token:
|
8 |
+
raise ValueError("HF_API_TOKEN environment variable is not set")
|
9 |
+
|
10 |
model_name = "meta-llama/Llama-2-7b-chat"
|
11 |
|
12 |
# Завантажуємо токенайзер з використанням авторизації
|
13 |
+
tokenizer = AutoTokenizer.from_pretrained(model_name, use_auth_token=hf_token)
|
14 |
|
15 |
# Завантажуємо модель з використанням авторизації
|
16 |
model = AutoModelForCausalLM.from_pretrained(
|
17 |
model_name,
|
18 |
+
use_auth_token=hf_token,
|
19 |
torch_dtype=torch.float32, # Використання full precision для CPU
|
20 |
device_map=None # Вимкнення автоматичного розподілу по GPU
|
21 |
)
|