takaganasu
commited on
Update README.md
Browse files
README.md
CHANGED
@@ -1,3 +1,75 @@
|
|
1 |
-
---
|
2 |
-
license: cc-by-nc-sa-4.0
|
3 |
-
---
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
1 |
+
---
|
2 |
+
license: cc-by-nc-sa-4.0
|
3 |
+
---
|
4 |
+
---
|
5 |
+
|
6 |
+
# README
|
7 |
+
|
8 |
+
このリポジトリには、`llm-jp/llm-jp-3-13b`にLoRAアダプタを適用したモデルでタスク推論を行うコードが含まれます。
|
9 |
+
|
10 |
+
## 概要
|
11 |
+
|
12 |
+
- `inference_code.py`:推論を行うためのサンプルコード。
|
13 |
+
- ベースモデルとLoRAアダプタをHugging Face Hubからロードし、4bit量子化でGPUメモリ負荷を低減しながらタスクを処理します。
|
14 |
+
- `elyza-tasks-100-TV_0.jsonl` のようなタスク定義ファイルから入力を読み込み、モデルによる応答を生成します。
|
15 |
+
- 推論結果は `submission_attempt.jsonl` というファイルにJSON Lines形式で保存します。
|
16 |
+
|
17 |
+
## ベースモデル
|
18 |
+
- [llm-jp/llm-jp-3-13b](https://huggingface.co/llm-jp/llm-jp-3-13b)
|
19 |
+
|
20 |
+
## 使用したデータ
|
21 |
+
|
22 |
+
本LoRAアダプタは以下のデータを用いてSFTを実施しています。
|
23 |
+
|
24 |
+
- [ichikara-instruction データ](https://liat-aip.sakura.ne.jp/wp/llm%e3%81%ae%e3%81%9f%e3%82%81%e3%81%ae%e6%97%a5%e6%9c%ac%e8%aa%9e%e3%82%a4%e3%83%b3%e3%82%b9%e3%83%88%e3%83%a9%e3%82%af%e3%82%b7%e3%83%a7%e3%83%b3%e3%83%87%e3%83%bc%e3%82%bf-%e5%85%ac%e9%96%8b/) (CC-BY-NC-SA)
|
25 |
+
- [ELYZA-tasks-100 データセット](https://huggingface.co/datasets/elyza/ELYZA-tasks-100)
|
26 |
+
|
27 |
+
## ライセンス
|
28 |
+
|
29 |
+
- 本リポジトリで提供されるLoRAアダプタおよび生成物は **CC-BY-NC-SA-4.0** の下で提供されます。
|
30 |
+
- ベースモデルおよび元データセットのライセンスについては、それぞれの提供元で定められた条件に従ってください。
|
31 |
+
|
32 |
+
## ファイル構成例
|
33 |
+
|
34 |
+
- `inference_code.py`:推論コード
|
35 |
+
- `elyza-tasks-100-TV_0.jsonl`:タスク入力用JSONLファイル(事前にアップロード)
|
36 |
+
- `submission_attempt.jsonl`:推論結果出力ファイル(コード実行後に生成)
|
37 |
+
|
38 |
+
## 前提条件
|
39 |
+
|
40 |
+
- Python 3.10 以上(ColabやOmnicampus環境を想定)
|
41 |
+
- Hugging Face Hubへのアクセス可能なトークン(`HF_TOKEN`変数で指定)
|
42 |
+
- 使用するモデル(`base_model_id`)およびLoRAアダプタ(`adapter_repo_id`)へのread権限
|
43 |
+
- 4bit量子化・bfloat16対応のGPU(NVIDIA L4)RAM:24GB ストレージ:200GB を想定
|
44 |
+
|
45 |
+
## 実行手順
|
46 |
+
|
47 |
+
1. `HF_TOKEN`を設定
|
48 |
+
コード冒頭の `HF_TOKEN = "hf_..."` 部分にご自身のHugging Faceトークンを貼り付けてください。
|
49 |
+
トークンは `huggingface-cli login` で取得できます。
|
50 |
+
|
51 |
+
2. `base_model_id` と `adapter_repo_id` の設定
|
52 |
+
- `base_model_id` にベースモデルIDを指定します(例:`llm-jp/llm-jp-3-13b`)。
|
53 |
+
- `adapter_repo_id` にアップロード済みのLoRAアダプタリポジトリIDを指定します。
|
54 |
+
|
55 |
+
3. `elyza-tasks-100-TV_0.jsonl` の用意
|
56 |
+
推論対象となるタスクデータを同一フォルダに配置してください。
|
57 |
+
|
58 |
+
4. コード実行
|
59 |
+
`inference_code.py`を実行します。必要なライブラリがインストールされ、モデルやトークナイザがロードされ、推論が開始されます。
|
60 |
+
|
61 |
+
5. 結果確認
|
62 |
+
実行後、`submission_attempt.jsonl`に推論結果がタスクごとに出力されます。
|
63 |
+
|
64 |
+
## カスタマイズ
|
65 |
+
|
66 |
+
- モデルパラメータ(`max_new_tokens`, `temperature`, `top_p`など)をコード内で変更可能です。
|
67 |
+
- LoRAアダプタを変更したい場合は、`adapter_repo_id`を別のリポジトリに変更します。
|
68 |
+
- 分散学習やDeepSpeedなどの高度な最適化オプションを利用する場合は、`TrainingArguments`や`DPOConfig`がサポートしている範囲で設定可能です。
|
69 |
+
|
70 |
+
## 注意点
|
71 |
+
|
72 |
+
- モデルやLoRAアダプタの使用には対応するライセンスや利用条件に従ってください。
|
73 |
+
- 大規模モデルを扱うため、メモリ不足エラーが発生する場合があります。その場合はバッチサイズやシーケンス長、LoRAパラメータなどを調整してください。
|
74 |
+
|
75 |
+
---
|