French-Alpaca-Instruct Q4

Quantized 4bits Q4_K_M version of jpacifico/French-Alpaca-7B-Instruct-beta

This quantized Q4_K_M GGUF (4bits) version of French-Alpaca-7B-Instruct-beta
can be used on a CPU device incl. Raspberry Pi 5 8gb, and is supported by LLM cpp tools (llama.cpp, Ollama, LM Studio ..)

Usage

Ollama Modelfile example :

FROM ./french-alpaca-instruct-Q4.gguf

TEMPLATE """Tu trouveras ci-dessous une instruction qui décrit une tâche. Rédige une réponse qui complète de manière appropriée la demande.


{{ if .System }}### Instruction:
{{ .System }}{{ end }}

{{ if .Prompt }}### Input:
{{ .Prompt }}{{ end }}

### Response:
"""

PARAMETER stop "### Response:"
PARAMETER stop "### Instruction:"
PARAMETER stop "### Input:"
PARAMETER stop "Tu trouveras ci-dessous une instruction qui décrit une tâche. Rédige une réponse qui complète de manière appropriée la demande."
PARAMETER num_predict 300

Limitations

The French-Alpaca model is a quick demonstration that a base 7B model can be easily fine-tuned to specialize in a particular language. It does not have any moderation mechanisms.

  • Developed by: Jonathan Pacifico, 2024
  • Model type: LLM
  • Language(s) (NLP): French
  • License: Apache-2.0
Downloads last month
2
GGUF
Model size
7.24B params
Architecture
llama
Inference API
Unable to determine this model's library. Check the docs .

Dataset used to train jpacifico/french-alpaca-instruct-Q4-GGUF

Collection including jpacifico/french-alpaca-instruct-Q4-GGUF