Update README.md
Browse files
README.md
CHANGED
@@ -15,4 +15,16 @@ tags:
|
|
15 |
GENIAC 松尾研 LLM開発プロジェクトで開発されたLLMである[weblab-GENIAC/Tanuki-8x8B-dpo-v1.0](https://huggingface.co/weblab-GENIAC/Tanuki-8x8B-dpo-v1.0)のGPTQ 4bit量子化モデルです。
|
16 |
キャリブレーションセットには[izumi-lab/wikipedia-ja-20230720](https://huggingface.co/datasets/izumi-lab/wikipedia-ja-20230720)からランダムサンプリングした1000件を利用しています。
|
17 |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
18 |
モデルに関する詳細については[元モデル](https://huggingface.co/weblab-GENIAC/Tanuki-8x8B-dpo-v1.0)をご確認ください。
|
|
|
15 |
GENIAC 松尾研 LLM開発プロジェクトで開発されたLLMである[weblab-GENIAC/Tanuki-8x8B-dpo-v1.0](https://huggingface.co/weblab-GENIAC/Tanuki-8x8B-dpo-v1.0)のGPTQ 4bit量子化モデルです。
|
16 |
キャリブレーションセットには[izumi-lab/wikipedia-ja-20230720](https://huggingface.co/datasets/izumi-lab/wikipedia-ja-20230720)からランダムサンプリングした1000件を利用しています。
|
17 |
|
18 |
+
## 情報提供
|
19 |
+
この元モデルは独自アーキテクチャを持つモデルであるため、変換のためにAutoGPTQライブラリの一部改変が必要となりました。本モデルの変換に必要な改変を施したAutoGPTQを[こちら](https://github.com/team-hatakeyama-phase2/AutoGPTQ)で公開しています。
|
20 |
+
|
21 |
+
また、同様の理由で本モデルをvLLMを使って推論する際にはvLLMライブラリの一部改変が必要となります。本モデルの推論に必要な改変を施したvLLMを[こちら](https://github.com/team-hatakeyama-phase2/vllm)で公開しています。
|
22 |
+
これを以下のようにソースからビルドし推論に利用してください。
|
23 |
+
|
24 |
+
```bash
|
25 |
+
git clone https://github.com/team-hatakeyama-phase2/vllm.git
|
26 |
+
cd vllm
|
27 |
+
LD_LIBRARY_PATH="" MAX_JOBS=16 pip install -e .
|
28 |
+
```
|
29 |
+
|
30 |
モデルに関する詳細については[元モデル](https://huggingface.co/weblab-GENIAC/Tanuki-8x8B-dpo-v1.0)をご確認ください。
|