Holy-fox commited on
Commit
b3eab2d
1 Parent(s): d31dbbf

Update README.md

Browse files
Files changed (1) hide show
  1. README.md +53 -3
README.md CHANGED
@@ -1,3 +1,53 @@
1
- ---
2
- license: llama3
3
- ---
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ ---
2
+ license: llama3
3
+ ---
4
+
5
+ ## how to use
6
+
7
+ ```python
8
+ import torch
9
+ from transformers import AutoModelForCausalLM, AutoTokenizer
10
+
11
+ DEFAULT_SYSTEM_PROMPT = "あなたは誠実で優秀な日本人のアシスタントです。特に指示が無い場合は、常に日本語で回答してください。"
12
+ text = "優秀なAIとはなんですか? またあなたの考える優秀なAIに重要なポイントを5つ挙げて下さい。"
13
+
14
+ model_name = "DataPilot/Llama3-ArrowSE-8B-v0.1"
15
+
16
+ tokenizer = AutoTokenizer.from_pretrained(model_name)
17
+ model = AutoModelForCausalLM.from_pretrained(
18
+ model_name,
19
+ torch_dtype="auto",
20
+ device_map="auto",
21
+ )
22
+ model.eval()
23
+
24
+ messages = [
25
+ {"role": "system", "content": DEFAULT_SYSTEM_PROMPT},
26
+ {"role": "user", "content": text},
27
+ ]
28
+ prompt = tokenizer.apply_chat_template(
29
+ messages,
30
+ tokenize=False,
31
+ add_generation_prompt=True
32
+ )
33
+ token_ids = tokenizer.encode(
34
+ prompt, add_special_tokens=False, return_tensors="pt"
35
+ )
36
+
37
+ with torch.no_grad():
38
+ output_ids = model.generate(
39
+ token_ids.to(model.device),
40
+ max_new_tokens=1200,
41
+ do_sample=True,
42
+ temperature=0.6,
43
+ top_p=0.9,
44
+ )
45
+ output = tokenizer.decode(
46
+ output_ids.tolist()[0][token_ids.size(1):], skip_special_tokens=True
47
+ )
48
+ print(output)
49
+ ```
50
+
51
+ ## 概要
52
+
53
+ elyza/Llama-3-ELYZA-JP-8Bを元に改良しAItuberに特化させました。 強いけど強くないです。