Create README.md
Browse files
README.md
ADDED
@@ -0,0 +1,30 @@
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
1 |
+
---
|
2 |
+
base_model: weblab-GENIAC/Tanuki-8x8B-dpo-v1.0
|
3 |
+
datasets:
|
4 |
+
- izumi-lab/wikipedia-ja-20230720
|
5 |
+
language:
|
6 |
+
- ja
|
7 |
+
- en
|
8 |
+
library_name: transformers
|
9 |
+
license: apache-2.0
|
10 |
+
tags:
|
11 |
+
- japanese
|
12 |
+
---
|
13 |
+
# Tanuki-8x8B-dpo-v1.0-GPTQ-8bit
|
14 |
+
## 概要
|
15 |
+
GENIAC 松尾研 LLM開発プロジェクトで開発されたLLMである[weblab-GENIAC/Tanuki-8x8B-dpo-v1.0](https://huggingface.co/weblab-GENIAC/Tanuki-8x8B-dpo-v1.0)のGPTQ 8bit量子化モデルです。
|
16 |
+
キャリブレーションセットには[izumi-lab/wikipedia-ja-20230720](https://huggingface.co/datasets/izumi-lab/wikipedia-ja-20230720)からランダムサンプリングした1000件を利用しています。
|
17 |
+
|
18 |
+
## 情報提供
|
19 |
+
この元モデルは独自アーキテクチャを持つモデルであるため、変換のためにAutoGPTQライブラリの一部改変が必要となりました。本モデルの変換に必要な改変を施したAutoGPTQを[こちら](https://github.com/team-hatakeyama-phase2/AutoGPTQ)で公開しています。
|
20 |
+
|
21 |
+
また、同様の理由で本モデルをvLLMを使って推論する際にはvLLMライブラリの一部改変が必要となります。本モデルの推論に必要な改変を施したvLLMを[こちら](https://github.com/team-hatakeyama-phase2/vllm)で公開しています。
|
22 |
+
これを以下のようにソースからビルドし推論に利用してください。
|
23 |
+
|
24 |
+
```bash
|
25 |
+
git clone https://github.com/team-hatakeyama-phase2/vllm.git
|
26 |
+
cd vllm
|
27 |
+
LD_LIBRARY_PATH="" MAX_JOBS=16 pip install -e .
|
28 |
+
```
|
29 |
+
|
30 |
+
モデルに関する詳細については[元モデル](https://huggingface.co/weblab-GENIAC/Tanuki-8x8B-dpo-v1.0)をご確認ください。
|