metadata
license: apache-2.0
language:
- en
- ja
datasets:
- izumi-lab/wikipedia-ja-20230720
base_model:
- smorce/Qwen2.5-Coder-32B-Instruct-karakuri-thinking-slerp
library_name: transformers
karakuri-lm-32b-thinking-2501-exp-AWQ
カラクリ様が公開されている karakuri-lm-32b-thinking-2501-exp と Qwenチームが公開されている Qwen2.5-Coder-32B-Instruct をマージし、それを AWQ 4bit で量子化したモデルになります。
キャリブレーション用データセットは izumi-lab/wikipedia-ja-20230720 を使用しました。
※TFMC/imatrix-dataset-for-japanese-llm ではございません。
量子化前のモデルとマージ設定は以下の通りです:
Qwen2.5-Coder-32B-Instruct-karakuri-thinking-slerp
作成意図
日本語のReasoningモデルにコーディング能力を付与する目的で作成しました。
量子化の設定
quant_config = {
"zero_point": True,
"q_group_size": 128,
"w_bit": 4,
"version": "GEMM"
}
このモデルは崩壊してしまい、失敗でした。