new llama model added
Browse files
app.py
CHANGED
@@ -1,7 +1,7 @@
|
|
1 |
import os
|
2 |
import torch
|
3 |
import json
|
4 |
-
from transformers import
|
5 |
import gradio as gr
|
6 |
from huggingface_hub import login
|
7 |
|
@@ -18,7 +18,7 @@ repo_path = "meta-llama/Llama-2-7b-chat"
|
|
18 |
params_path = os.path.join(repo_path, "params.json")
|
19 |
model_weights_path = os.path.join(repo_path, "consolidated.00.pth")
|
20 |
config_path = os.path.join(repo_path, "config.json")
|
21 |
-
tokenizer_path = os.path.join(repo_path) #
|
22 |
|
23 |
# Створюємо директорію для файлів, якщо вона не існує
|
24 |
os.makedirs(repo_path, exist_ok=True)
|
@@ -41,8 +41,8 @@ if not os.path.exists(config_path):
|
|
41 |
json.dump(custom_config, f, indent=4)
|
42 |
print(f"{config_path} created successfully!")
|
43 |
|
44 |
-
# Завантаження токенізатора
|
45 |
-
tokenizer =
|
46 |
|
47 |
# Завантаження стану моделі
|
48 |
state_dict = torch.load(model_weights_path, map_location=torch.device("cpu"))
|
|
|
1 |
import os
|
2 |
import torch
|
3 |
import json
|
4 |
+
from transformers import LlamaTokenizer, AutoModelForCausalLM
|
5 |
import gradio as gr
|
6 |
from huggingface_hub import login
|
7 |
|
|
|
18 |
params_path = os.path.join(repo_path, "params.json")
|
19 |
model_weights_path = os.path.join(repo_path, "consolidated.00.pth")
|
20 |
config_path = os.path.join(repo_path, "config.json")
|
21 |
+
tokenizer_path = os.path.join(repo_path, "tokenizer.model") # Правильний шлях до токенізатора
|
22 |
|
23 |
# Створюємо директорію для файлів, якщо вона не існує
|
24 |
os.makedirs(repo_path, exist_ok=True)
|
|
|
41 |
json.dump(custom_config, f, indent=4)
|
42 |
print(f"{config_path} created successfully!")
|
43 |
|
44 |
+
# Завантаження токенізатора з локального файлу
|
45 |
+
tokenizer = LlamaTokenizer.from_pretrained(tokenizer_path, use_auth_token=hf_token)
|
46 |
|
47 |
# Завантаження стану моделі
|
48 |
state_dict = torch.load(model_weights_path, map_location=torch.device("cpu"))
|