prsyahmi's picture
Update README.md
f3046a6 verified
|
raw
history blame
2.01 kB
metadata
base_model: mesolitica/mallam-1.1b-20k-instructions-v2
inference: false
model_creator: mesolitica
model_name: Mallam 1.1B 20k Instructions v2
model_type: mistral
pipeline_tag: text-generation
prompt_template: >-
  <s>[INST] This is a system prompt.

  This is the first user input. [/INST] This is the first assistant response.
  </s>[INST] This is the second user input. [/INST]
quantized_by: prsyahmi
tags:
  - finetuned

Malaysian Mistral 7B 32k Instructions - GGUF

Pengenalan

Repo ini mengandungi model berformat GGUF untuk mesolitica's Malaysian Mistral 7B 32k Instructions v2.

GGUF adalah format kepada llama.cpp yang dibangunkan menggunakan C/C++ dimana pergantungan dengan software/library lain kurang menjadikan aplikasi ini ringan berbanding rata-rata aplikasi python.

Prompt template: Mistral

<s>[INST] This is a system prompt.

This is the first user input. [/INST] This is the first assistant response. </s>[INST] This is the second user input. [/INST]

Fail yang diberikan

Sila terus rujuk ruangan Files and versions

Penghargaan

Terima kasih kepada Husein Zolkepli dan keseluruhan team mesolotica!

Atas jasa mereka, kita dapat menggunakan atau mencuba AI peringkat tempatan.