Holy-fox commited on
Commit
7dff7b9
·
verified ·
1 Parent(s): 640e1cf
Files changed (1) hide show
  1. README.md +64 -3
README.md CHANGED
@@ -1,3 +1,64 @@
1
- ---
2
- license: apache-2.0
3
- ---
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ ---
2
+ license: apache-2.0
3
+ ---
4
+
5
+ ## 概要
6
+
7
+ 当モデルはMistral系のArrowPro-7B-KUJIRAをもとに[databricks-dolly-15k-Nyan-ja](https://huggingface.co/datasets/DataPilot/databricks-dolly-15k-Nyan-ja)を用いてloraファインチューニングを実施したモデルとなります。
8
+
9
+ ## How to use
10
+
11
+ ```python
12
+ import torch
13
+ from transformers import AutoTokenizer, AutoModelForCausalLM
14
+
15
+ tokenizer = AutoTokenizer.from_pretrained("DataPilot/ArrowPro-7B-Nyan")
16
+ model = AutoModelForCausalLM.from_pretrained(
17
+ "DataPilot/ArrowPro-7B-Nyan",
18
+ torch_dtype="auto",
19
+ )
20
+ model.eval()
21
+
22
+ if torch.cuda.is_available():
23
+ model = model.to("cuda")
24
+
25
+ def build_prompt(user_query):
26
+ sys_msg = "あなたは日本語を話す優秀なアシスタントです。回答には必ず日本語で答えてください。"
27
+ template = """[INST] <<SYS>>
28
+ {}
29
+ <</SYS>>
30
+
31
+ {}[/INST]"""
32
+ return template.format(sys_msg,user_query)
33
+
34
+ # Infer with prompt without any additional input
35
+ user_inputs = {
36
+ "user_query": "まどマギで一番かわいいキャラはだれ?",
37
+ }
38
+ prompt = build_prompt(**user_inputs)
39
+
40
+ input_ids = tokenizer.encode(
41
+ prompt,
42
+ add_special_tokens=True,
43
+ return_tensors="pt"
44
+ )
45
+
46
+ tokens = model.generate(
47
+ input_ids.to(device=model.device),
48
+ max_new_tokens=500,
49
+ temperature=1,
50
+ top_p=0.95,
51
+ do_sample=True,
52
+ )
53
+
54
+ out = tokenizer.decode(tokens[0][input_ids.shape[1]:], skip_special_tokens=True).strip()
55
+ print(out)
56
+ ```
57
+
58
+ ## 謝辞
59
+
60
+ このモデルを作成するために計算資源を貸してくれた[witness氏](https://x.com/i_witnessed_it)と[Meta Data Lab](https://x.com/Metadatalab)に感謝を申し上げます
61
+
62
+ ## お願い
63
+
64
+ このモデルを利用する際は他人に迷惑をかけないように最大限留意してください。