mrmax14 commited on
Commit
8fe07ae
·
1 Parent(s): 2c51c74

init commit

Browse files
Files changed (1) hide show
  1. app.py +24 -29
app.py CHANGED
@@ -1,36 +1,31 @@
1
  from transformers import AutoModelForCausalLM, AutoTokenizer
2
- import torch
3
 
4
- def main():
5
- # Завантажуємо токенайзер
6
- model_name = "meta-llama/Llama-2-7b-chat"
7
- print(f"Завантажуємо модель {model_name}...")
8
-
9
- tokenizer = AutoTokenizer.from_pretrained(model_name)
10
 
11
- # Завантажуємо модель
12
- model = AutoModelForCausalLM.from_pretrained(
13
- model_name,
14
- torch_dtype=torch.float32, # Використання full precision для CPU
15
- device_map=None # Вимкнення автоматичного розподілу по GPU
16
- )
17
 
18
- # Тестове введення
19
- input_text = "Hello, how can I assist you today?"
20
- inputs = tokenizer(input_text, return_tensors="pt")
 
 
 
 
21
 
22
- # Генерація тексту
23
- output = model.generate(
24
- inputs["input_ids"],
25
- max_length=50, # Максимальна довжина відповіді
26
- num_return_sequences=1, # Кількість відповідей
27
- do_sample=True, # Випадкове семплування для різноманіття
28
- temperature=0.7 # Регулювання "креативності"
29
- )
30
 
31
- # Декодуємо та виводимо результат
32
- decoded_output = tokenizer.decode(output[0], skip_special_tokens=True)
33
- print(f"\nВідповідь моделі: {decoded_output}")
 
 
 
 
 
34
 
35
- if __name__ == "__main__":
36
- main()
 
 
1
  from transformers import AutoModelForCausalLM, AutoTokenizer
 
2
 
3
+ model_name = "meta-llama/Llama-2-7b-chat"
 
 
 
 
 
4
 
5
+ # Завантажуємо токенайзер з використанням авторизації
6
+ tokenizer = AutoTokenizer.from_pretrained(model_name, use_auth_token=True)
 
 
 
 
7
 
8
+ # Завантажуємо модель з використанням авторизації
9
+ model = AutoModelForCausalLM.from_pretrained(
10
+ model_name,
11
+ use_auth_token=True,
12
+ torch_dtype=torch.float32, # Використання full precision для CPU
13
+ device_map=None # Вимкнення автоматичного розподілу по GPU
14
+ )
15
 
16
+ # Тестове введення
17
+ input_text = "Hello, how can I assist you today?"
18
+ inputs = tokenizer(input_text, return_tensors="pt")
 
 
 
 
 
19
 
20
+ # Генерація тексту
21
+ output = model.generate(
22
+ inputs["input_ids"],
23
+ max_length=50, # Максимальна довжина відповіді
24
+ num_return_sequences=1, # Кількість відповідей
25
+ do_sample=True, # Випадкове семплування для різноманіття
26
+ temperature=0.7 # Регулювання "креативності"
27
+ )
28
 
29
+ # Декодуємо та виводимо результат
30
+ decoded_output = tokenizer.decode(output[0], skip_special_tokens=True)
31
+ print(f"\nВідповідь моделі: {decoded_output}")