Tanuki-8B-dpo-v1.0-AWQ

概要

GENIAC 松尾研 LLM開発プロジェクトで開発されたLLMであるweblab-GENIAC/Tanuki-8B-dpo-v1.0のAWQ 4bit量子化モデルです。
キャリブレーションセットにはizumi-lab/wikipedia-ja-20230720からランダムサンプリングした512件を利用しています。

モデルに関する詳細については元モデルをご確認ください。

Downloads last month
231
Safetensors
Model size
1.47B params
Tensor type
I32
·
FP16
·
Inference Examples
This model does not have enough activity to be deployed to Inference API (serverless) yet. Increase its social visibility and check back later, or deploy to Inference Endpoints (dedicated) instead.

Model tree for team-hatakeyama-phase2/Tanuki-8B-dpo-v1.0-AWQ

Quantized
(5)
this model

Dataset used to train team-hatakeyama-phase2/Tanuki-8B-dpo-v1.0-AWQ