init commit
Browse files
app.py
CHANGED
@@ -1,6 +1,6 @@
|
|
1 |
-
from transformers import
|
2 |
-
import os
|
3 |
import torch
|
|
|
4 |
|
5 |
# Отримуємо токен із змінної середовища
|
6 |
hf_token = os.getenv("HF_API_TOKEN")
|
@@ -8,17 +8,18 @@ hf_token = os.getenv("HF_API_TOKEN")
|
|
8 |
if not hf_token:
|
9 |
raise ValueError("HF_API_TOKEN environment variable is not set")
|
10 |
|
11 |
-
|
|
|
12 |
|
13 |
-
# Завантажуємо токенізатор
|
14 |
-
tokenizer = LlamaTokenizer.from_pretrained(
|
15 |
|
16 |
-
# Завантажуємо модель
|
17 |
-
model =
|
18 |
-
|
19 |
-
|
20 |
torch_dtype=torch.float32, # Використання full precision для CPU
|
21 |
-
device_map=
|
22 |
)
|
23 |
|
24 |
# Тестове введення
|
|
|
1 |
+
from transformers import LlamaForCausalLM, LlamaTokenizer
|
|
|
2 |
import torch
|
3 |
+
import os
|
4 |
|
5 |
# Отримуємо токен із змінної середовища
|
6 |
hf_token = os.getenv("HF_API_TOKEN")
|
|
|
8 |
if not hf_token:
|
9 |
raise ValueError("HF_API_TOKEN environment variable is not set")
|
10 |
|
11 |
+
# Шлях до файлу моделі
|
12 |
+
model_path = "path_to_downloaded_model/consolidated.00.pth" # Вкажіть правильний шлях
|
13 |
|
14 |
+
# Завантажуємо токенізатор
|
15 |
+
tokenizer = LlamaTokenizer.from_pretrained("meta-llama/Llama-2-7b-chat", token=hf_token)
|
16 |
|
17 |
+
# Завантажуємо модель з файлу
|
18 |
+
model = LlamaForCausalLM.from_pretrained(
|
19 |
+
model_path,
|
20 |
+
config="path_to_model/config.json", # Якщо є конфігураційний файл
|
21 |
torch_dtype=torch.float32, # Використання full precision для CPU
|
22 |
+
device_map="auto" # Для автоматичного розподілу на доступні пристрої
|
23 |
)
|
24 |
|
25 |
# Тестове введення
|