mrmax14 commited on
Commit
a08b37b
·
1 Parent(s): f4eb500

init commit

Browse files
Files changed (1) hide show
  1. app.py +11 -10
app.py CHANGED
@@ -1,6 +1,6 @@
1
- from transformers import AutoModelForCausalLM, LlamaTokenizer
2
- import os
3
  import torch
 
4
 
5
  # Отримуємо токен із змінної середовища
6
  hf_token = os.getenv("HF_API_TOKEN")
@@ -8,17 +8,18 @@ hf_token = os.getenv("HF_API_TOKEN")
8
  if not hf_token:
9
  raise ValueError("HF_API_TOKEN environment variable is not set")
10
 
11
- model_name = "meta-llama/Llama-2-7b-chat"
 
12
 
13
- # Завантажуємо токенізатор Llama
14
- tokenizer = LlamaTokenizer.from_pretrained(model_name, use_auth_token=hf_token)
15
 
16
- # Завантажуємо модель
17
- model = AutoModelForCausalLM.from_pretrained(
18
- model_name,
19
- use_auth_token=hf_token,
20
  torch_dtype=torch.float32, # Використання full precision для CPU
21
- device_map=None # Вимкнення автоматичного розподілу по GPU
22
  )
23
 
24
  # Тестове введення
 
1
+ from transformers import LlamaForCausalLM, LlamaTokenizer
 
2
  import torch
3
+ import os
4
 
5
  # Отримуємо токен із змінної середовища
6
  hf_token = os.getenv("HF_API_TOKEN")
 
8
  if not hf_token:
9
  raise ValueError("HF_API_TOKEN environment variable is not set")
10
 
11
+ # Шлях до файлу моделі
12
+ model_path = "path_to_downloaded_model/consolidated.00.pth" # Вкажіть правильний шлях
13
 
14
+ # Завантажуємо токенізатор
15
+ tokenizer = LlamaTokenizer.from_pretrained("meta-llama/Llama-2-7b-chat", token=hf_token)
16
 
17
+ # Завантажуємо модель з файлу
18
+ model = LlamaForCausalLM.from_pretrained(
19
+ model_path,
20
+ config="path_to_model/config.json", # Якщо є конфігураційний файл
21
  torch_dtype=torch.float32, # Використання full precision для CPU
22
+ device_map="auto" # Для автоматичного розподілу на доступні пристрої
23
  )
24
 
25
  # Тестове введення