File size: 3,442 Bytes
706304d
614996e
706304d
 
11e2e46
706304d
11e2e46
 
 
 
 
 
 
 
bf77b45
11e2e46
 
 
 
 
 
 
 
 
 
 
bf77b45
11e2e46
 
2c67ae3
11e2e46
bf77b45
11e2e46
 
 
 
 
 
 
bf77b45
11e2e46
 
bf77b45
11e2e46
 
 
 
 
 
 
 
 
78c89fe
2c67ae3
78c89fe
2c67ae3
78c89fe
2c67ae3
8df841f
a1a8f50
2c67ae3
a1a8f50
11e2e46
 
f5ffd8f
11e2e46
f1ea8fd
 
11e2e46
 
 
 
f5ffd8f
11e2e46
 
 
 
f5ffd8f
 
11e2e46
 
 
 
 
 
 
 
 
 
f5ffd8f
 
 
11e2e46
 
 
 
 
 
 
 
 
f851ee7
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
76
77
78
79
80
81
82
83
84
85
86
87
88
89
90
91
92
93
94
95
96
97
98
99
100
101
102
103
---
library_name: peft
---

# モデル概要 

[meta-llama/Llama-2-7b-hf](https://huggingface.co/meta-llama/Llama-2-7b-hf)を日本語データ([taka-yayoi/databricks-dolly-15k-ja](https://huggingface.co/datasets/taka-yayoi/databricks-dolly-15k-ja))を用いてインストラクションチューニングしました.

# 使用方法

```python
import torch
from peft import PeftModel
from transformers import AutoModelForCausalLM, AutoTokenizer, BitsAndBytesConfig

# モデルの読み込み
model = AutoModelForCausalLM.from_pretrained(
    "meta-llama/Llama-2-7b-hf",
    quantization_config=BitsAndBytesConfig(
        load_in_4bit=True,
        bnb_4bit_use_double_quant=True,
        bnb_4bit_quant_type="nf4",
        bnb_4bit_compute_dtype=torch.bfloat16
    ),
    device_map={"":0}
)

# トークナイザーの読み込み
tokenizer = AutoTokenizer.from_pretrained(
    "asaoka/Llama-2-7b-hf-qlora-dolly15k-japanese",
)

# LoRAの読み込み
model = PeftModel.from_pretrained(
    model,
    "asaoka/Llama-2-7b-hf-qlora-dolly15k-japanese",
    device_map={"":0}
)
model.eval()

# プロンプトの準備
prompt = "### Instruction: 富士山とは?\n\n### Response: "

# 推論の実行
inputs = tokenizer(prompt, return_tensors="pt").to("cuda:0")
with torch.no_grad():
    outputs = model.generate(**inputs, max_new_tokens=100)
print(tokenizer.decode(outputs[0], skip_special_tokens=True))
```

使用方法は,[「Google Colab で Llama-2-7B のQLoRA ファインチューニングを試す」](https://note.com/npaka/n/na7c631175111#f2af0e53-4ef3-4288-b152-6524f1b940a7)を参照しました.

# トークナイザーの日本語への拡張

### 1. 日本語のトークナイザーを学習

トークナイザーの学習は,[ce-lery/japanese-mistral-300m-base](https://huggingface.co/ce-lery/japanese-mistral-300m-base)を参照しました.

### 2. Llama-2-7b-hfのトークナイザーと日本語のトークナイザーをマージ

トークナイザーのマージは,[「日本語が話せるLlamaモデルをDIYする」](https://qiita.com/Taiyou2000/items/3229d320c252d6de33c7)を参照しました.

# トレーニング方法

- ファインチューニング:インストラクションチューニング + QLoRA(4bitLoRA)
  
トレーニング方法は,[「MetaのLlama 2をDatabricksでQLoRAを使ってファインチューニングしてみる」](https://qiita.com/taka_yayoi/items/a973fa2d08062224d422)を参照しました.

# JGLUEスコア

| タスク | Llama-2-7b-hf | This Model |
|:-|:-|:-|
| jcommonsenseqa-1.1-0.6(acc) | 0.7274 | 0.7060 |

[JGLUEスコア](https://aclanthology.org/2022.lrec-1.317/)は,Stability AI社の[lm-evaluation-harness](https://github.com/Stability-AI/lm-evaluation-harness)を用いて
算出しました.JGLUEスコアの算出に用いたスクリプトを下記に示します.

- Llama-2-7b-hf

```bash
!python main.py \
    --model hf-causal-experimental \
    --model_args pretrained=meta-llama/Llama-2-7b-hf \
    --tasks jcommonsenseqa-1.1-0.6 \
    --num_fewshot 3 \
    --device cuda \
    --output_path ./results.json
```

- This Model


```bash
!python main.py \
    --model hf-causal-experimental \
    --model_args pretrained=meta-llama/Llama-2-7b-hf,peft=asaoka/Llama-2-7b-hf-qlora-dolly15k-japanese \
    --tasks jcommonsenseqa-1.1-0.6 \
    --num_fewshot 3 \
    --device cuda \
    --output_path ./results.json
```