new llama model added
Browse files
app.py
CHANGED
@@ -13,12 +13,12 @@ if not hf_token:
|
|
13 |
# Логін до Hugging Face Hub
|
14 |
login(token=hf_token)
|
15 |
|
16 |
-
# Шлях до репозиторію
|
17 |
repo_path = "meta-llama/Llama-2-7b-chat"
|
18 |
params_path = os.path.join(repo_path, "params.json")
|
19 |
model_weights_path = os.path.join(repo_path, "consolidated.00.pth")
|
20 |
config_path = os.path.join(repo_path, "config.json")
|
21 |
-
tokenizer_path =
|
22 |
|
23 |
# Перевірка чи існує каталог, якщо ні - створення
|
24 |
os.makedirs(repo_path, exist_ok=True)
|
@@ -43,8 +43,8 @@ if not os.path.exists(config_path):
|
|
43 |
json.dump(custom_config, f, indent=4)
|
44 |
print(f"{config_path} created successfully!")
|
45 |
|
46 |
-
# Завантаження токенізатора
|
47 |
-
tokenizer = LlamaTokenizer(
|
48 |
|
49 |
# Завантаження стану моделі
|
50 |
state_dict = torch.load(model_weights_path, map_location=torch.device("cpu"))
|
|
|
13 |
# Логін до Hugging Face Hub
|
14 |
login(token=hf_token)
|
15 |
|
16 |
+
# Шлях до локального репозиторію з моделлю
|
17 |
repo_path = "meta-llama/Llama-2-7b-chat"
|
18 |
params_path = os.path.join(repo_path, "params.json")
|
19 |
model_weights_path = os.path.join(repo_path, "consolidated.00.pth")
|
20 |
config_path = os.path.join(repo_path, "config.json")
|
21 |
+
tokenizer_path = repo_path # Папка, де зберігається `tokenizer.model`
|
22 |
|
23 |
# Перевірка чи існує каталог, якщо ні - створення
|
24 |
os.makedirs(repo_path, exist_ok=True)
|
|
|
43 |
json.dump(custom_config, f, indent=4)
|
44 |
print(f"{config_path} created successfully!")
|
45 |
|
46 |
+
# Завантаження токенізатора
|
47 |
+
tokenizer = LlamaTokenizer.from_pretrained(tokenizer_path)
|
48 |
|
49 |
# Завантаження стану моделі
|
50 |
state_dict = torch.load(model_weights_path, map_location=torch.device("cpu"))
|