--- base_model: weblab-GENIAC/Tanuki-8x8B-dpo-v1.0 datasets: - izumi-lab/wikipedia-ja-20230720 language: - ja - en library_name: transformers license: apache-2.0 tags: - japanese --- # Tanuki-8x8B-dpo-v1.0-GPTQ-8bit ## 概要 GENIAC 松尾研 LLM開発プロジェクトで開発されたLLMである[weblab-GENIAC/Tanuki-8x8B-dpo-v1.0](https://huggingface.co/weblab-GENIAC/Tanuki-8x8B-dpo-v1.0)のGPTQ 8bit量子化モデルです。 キャリブレーションセットには[izumi-lab/wikipedia-ja-20230720](https://huggingface.co/datasets/izumi-lab/wikipedia-ja-20230720)からランダムサンプリングした1000件を利用しています。 ## 情報提供 この元モデルは独自アーキテクチャを持つモデルであるため、変換のためにAutoGPTQライブラリの一部改変が必要となりました。本モデルの変換に必要な改変を施したAutoGPTQを[こちら](https://github.com/team-hatakeyama-phase2/AutoGPTQ)で公開しています。 また、同様の理由で本モデルをvLLMを使って推論する際にはvLLMライブラリの一部改変が必要となります。本モデルの推論に必要な改変を施したvLLMを[こちら](https://github.com/team-hatakeyama-phase2/vllm)で公開しています。 これを以下のようにソースからビルドし推論に利用してください。 ```bash git clone https://github.com/team-hatakeyama-phase2/vllm.git cd vllm LD_LIBRARY_PATH="" MAX_JOBS=16 pip install -e . ``` モデルに関する詳細については[元モデル](https://huggingface.co/weblab-GENIAC/Tanuki-8x8B-dpo-v1.0)をご確認ください。 この成果は、NEDO(国立研究開発法人新エネルギー・産業技術総合開発機構)の助成事業「ポスト5G情報通信システム基盤強化研究開発事業」(JPNP20017)の結果得られたものです。