--- pipeline_tag: text-generation inference: false license: apache-2.0 library_name: transformers tags: - language - granite-3.0 base_model: ibm-granite/granite-3.0-3b-a800m-instruct base_model_relation: quantized --- ibm-granite様の [granite-3.0-3b-a800m-instruct](https://huggingface.co/ibm-granite/granite-3.0-3b-a800m-instruct) をGGUF形式に変換したものです。 K量子化モデルについてもiMatrix適用してあります。 iMatrixテキストはTFMC様の[c4_en_ja_imatrix.txt](https://huggingface.co/datasets/TFMC/imatrix-dataset-for-japanese-llm)を使用しています。