mrmax14 commited on
Commit
8046c58
·
1 Parent(s): 8fe07ae

init commit

Browse files
Files changed (1) hide show
  1. app.py +9 -2
app.py CHANGED
@@ -1,14 +1,21 @@
 
1
  from transformers import AutoModelForCausalLM, AutoTokenizer
2
 
 
 
 
 
 
 
3
  model_name = "meta-llama/Llama-2-7b-chat"
4
 
5
  # Завантажуємо токенайзер з використанням авторизації
6
- tokenizer = AutoTokenizer.from_pretrained(model_name, use_auth_token=True)
7
 
8
  # Завантажуємо модель з використанням авторизації
9
  model = AutoModelForCausalLM.from_pretrained(
10
  model_name,
11
- use_auth_token=True,
12
  torch_dtype=torch.float32, # Використання full precision для CPU
13
  device_map=None # Вимкнення автоматичного розподілу по GPU
14
  )
 
1
+ import os
2
  from transformers import AutoModelForCausalLM, AutoTokenizer
3
 
4
+ # Отримуємо токен із змінної середовища
5
+ hf_token = os.getenv("HF_API_TOKEN")
6
+
7
+ if not hf_token:
8
+ raise ValueError("HF_API_TOKEN environment variable is not set")
9
+
10
  model_name = "meta-llama/Llama-2-7b-chat"
11
 
12
  # Завантажуємо токенайзер з використанням авторизації
13
+ tokenizer = AutoTokenizer.from_pretrained(model_name, use_auth_token=hf_token)
14
 
15
  # Завантажуємо модель з використанням авторизації
16
  model = AutoModelForCausalLM.from_pretrained(
17
  model_name,
18
+ use_auth_token=hf_token,
19
  torch_dtype=torch.float32, # Використання full precision для CPU
20
  device_map=None # Вимкнення автоматичного розподілу по GPU
21
  )