---
base_model: mesolitica/mallam-1.1b-20k-instructions-v2
inference: false
model_creator: mesolitica
model_name: Mallam 1.1B 20k Instructions v2
model_type: mistral
pipeline_tag: text-generation
prompt_template: '[INST] This is a system prompt.
This is the first user input. [/INST] This is the first assistant response. [INST] This is the second user input. [/INST]'
quantized_by: prsyahmi
tags:
- finetuned
---
# Malaysian Mistral 7B 32k Instructions - GGUF
- Model creator: [mesolotica](https://huggingface.co/mesolitica)
- Original model: [Malaysian Mistral 7B 32k Instructions v2](https://huggingface.co/mesolitica/malaysian-mistral-7b-32k-instructions-v2)
## Pengenalan
Repo ini mengandungi model berformat GGUF untuk [mesolitica's Malaysian Mistral 7B 32k Instructions v2](https://huggingface.co/mesolitica/malaysian-mistral-7b-32k-instructions-v2).
GGUF adalah format kepada llama.cpp yang dibangunkan menggunakan C/C++ dimana pergantungan dengan software/library lain kurang menjadikan aplikasi ini ringan berbanding rata-rata aplikasi python.
## Prompt template: Mistral
```
[INST] This is a system prompt.
This is the first user input. [/INST] This is the first assistant response. [INST] This is the second user input. [/INST]
```
## Fail yang diberikan
Sila terus rujuk ruangan [Files and versions](https://huggingface.co/prsyahmi/malaysian-mistral-7b-32k-instructions-v2-ckpt-1700-GGUF/tree/main)
## Penghargaan
Terima kasih kepada Husein Zolkepli dan keseluruhan team [mesolotica](https://huggingface.co/mesolitica)!
Atas jasa mereka, kita dapat menggunakan atau mencuba AI peringkat tempatan.
-------