File size: 3,442 Bytes
706304d 614996e 706304d 11e2e46 706304d 11e2e46 bf77b45 11e2e46 bf77b45 11e2e46 2c67ae3 11e2e46 bf77b45 11e2e46 bf77b45 11e2e46 bf77b45 11e2e46 78c89fe 2c67ae3 78c89fe 2c67ae3 78c89fe 2c67ae3 8df841f a1a8f50 2c67ae3 a1a8f50 11e2e46 f5ffd8f 11e2e46 f1ea8fd 11e2e46 f5ffd8f 11e2e46 f5ffd8f 11e2e46 f5ffd8f 11e2e46 f851ee7 |
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75 76 77 78 79 80 81 82 83 84 85 86 87 88 89 90 91 92 93 94 95 96 97 98 99 100 101 102 103 |
---
library_name: peft
---
# モデル概要
[meta-llama/Llama-2-7b-hf](https://huggingface.co/meta-llama/Llama-2-7b-hf)を日本語データ([taka-yayoi/databricks-dolly-15k-ja](https://huggingface.co/datasets/taka-yayoi/databricks-dolly-15k-ja))を用いてインストラクションチューニングしました.
# 使用方法
```python
import torch
from peft import PeftModel
from transformers import AutoModelForCausalLM, AutoTokenizer, BitsAndBytesConfig
# モデルの読み込み
model = AutoModelForCausalLM.from_pretrained(
"meta-llama/Llama-2-7b-hf",
quantization_config=BitsAndBytesConfig(
load_in_4bit=True,
bnb_4bit_use_double_quant=True,
bnb_4bit_quant_type="nf4",
bnb_4bit_compute_dtype=torch.bfloat16
),
device_map={"":0}
)
# トークナイザーの読み込み
tokenizer = AutoTokenizer.from_pretrained(
"asaoka/Llama-2-7b-hf-qlora-dolly15k-japanese",
)
# LoRAの読み込み
model = PeftModel.from_pretrained(
model,
"asaoka/Llama-2-7b-hf-qlora-dolly15k-japanese",
device_map={"":0}
)
model.eval()
# プロンプトの準備
prompt = "### Instruction: 富士山とは?\n\n### Response: "
# 推論の実行
inputs = tokenizer(prompt, return_tensors="pt").to("cuda:0")
with torch.no_grad():
outputs = model.generate(**inputs, max_new_tokens=100)
print(tokenizer.decode(outputs[0], skip_special_tokens=True))
```
使用方法は,[「Google Colab で Llama-2-7B のQLoRA ファインチューニングを試す」](https://note.com/npaka/n/na7c631175111#f2af0e53-4ef3-4288-b152-6524f1b940a7)を参照しました.
# トークナイザーの日本語への拡張
### 1. 日本語のトークナイザーを学習
トークナイザーの学習は,[ce-lery/japanese-mistral-300m-base](https://huggingface.co/ce-lery/japanese-mistral-300m-base)を参照しました.
### 2. Llama-2-7b-hfのトークナイザーと日本語のトークナイザーをマージ
トークナイザーのマージは,[「日本語が話せるLlamaモデルをDIYする」](https://qiita.com/Taiyou2000/items/3229d320c252d6de33c7)を参照しました.
# トレーニング方法
- ファインチューニング:インストラクションチューニング + QLoRA(4bitLoRA)
トレーニング方法は,[「MetaのLlama 2をDatabricksでQLoRAを使ってファインチューニングしてみる」](https://qiita.com/taka_yayoi/items/a973fa2d08062224d422)を参照しました.
# JGLUEスコア
| タスク | Llama-2-7b-hf | This Model |
|:-|:-|:-|
| jcommonsenseqa-1.1-0.6(acc) | 0.7274 | 0.7060 |
[JGLUEスコア](https://aclanthology.org/2022.lrec-1.317/)は,Stability AI社の[lm-evaluation-harness](https://github.com/Stability-AI/lm-evaluation-harness)を用いて
算出しました.JGLUEスコアの算出に用いたスクリプトを下記に示します.
- Llama-2-7b-hf
```bash
!python main.py \
--model hf-causal-experimental \
--model_args pretrained=meta-llama/Llama-2-7b-hf \
--tasks jcommonsenseqa-1.1-0.6 \
--num_fewshot 3 \
--device cuda \
--output_path ./results.json
```
- This Model
```bash
!python main.py \
--model hf-causal-experimental \
--model_args pretrained=meta-llama/Llama-2-7b-hf,peft=asaoka/Llama-2-7b-hf-qlora-dolly15k-japanese \
--tasks jcommonsenseqa-1.1-0.6 \
--num_fewshot 3 \
--device cuda \
--output_path ./results.json
```
|