Malaysian Mistral 7B 32k Instructions - GGUF

Pengenalan

Repo ini mengandungi model berformat GGUF untuk mesolitica's Malaysian Mistral 7B 32k Instructions v2.

GGUF adalah format kepada llama.cpp yang dibangunkan menggunakan C/C++ dimana pergantungan dengan software/library lain kurang menjadikan aplikasi ini ringan berbanding rata-rata aplikasi python.

Prompt template: Mistral

<s>[INST] {prompt} [/INST]

Fail yang diberikan

Penghargaan

Terima kasih kepada Husein Zolkepli dan keseluruhan team mesolotica!

Atas jasa mereka, kita dapat menggunakan atau mencuba AI peringkat tempatan.


Downloads last month
14
GGUF
Model size
7.24B params
Architecture
llama

4-bit

5-bit

Inference Examples
Inference API (serverless) has been turned off for this model.

Model tree for prsyahmi/malaysian-mistral-7b-32k-instructions-v2-ckpt-1700-GGUF

Quantized
(1)
this model