beamaia commited on
Commit
d07e1ac
·
verified ·
1 Parent(s): f300aba

Upload folder using huggingface_hub

Browse files
Files changed (1) hide show
  1. README.md +92 -0
README.md ADDED
@@ -0,0 +1,92 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ ---
2
+ license: mit
3
+ library_name: "trl"
4
+ tags:
5
+ - KTO
6
+ - WeniGPT
7
+ base_model: mistralai/Mixtral-8x7B-Instruct-v0.1
8
+ model-index:
9
+ - name: Weni/WeniGPT-QA-Zephyr-7B-5.0.2-KTO
10
+ results: []
11
+ language: ['pt']
12
+ ---
13
+
14
+ # Weni/WeniGPT-QA-Zephyr-7B-5.0.2-KTO
15
+
16
+ This model is a fine-tuned version of [mistralai/Mixtral-8x7B-Instruct-v0.1] on the dataset Weni/WeniGPT-QA-Binarized-1.2.0 with the KTO trainer. It is part of the WeniGPT project for [Weni](https://weni.ai/).
17
+ Description: WeniGPT Experiment using KTO trainer with no collator, Mixstral model and amnesia system prompt.
18
+
19
+ It achieves the following results on the evaluation set:
20
+ training interrupted beforehand
21
+
22
+ ## Intended uses & limitations
23
+
24
+ This model has not been trained to avoid specific intructions.
25
+
26
+ ## Training procedure
27
+
28
+ Finetuning was done on the model mistralai/Mixtral-8x7B-Instruct-v0.1 with the following prompt:
29
+
30
+ ```
31
+ ---------------------
32
+ Question:
33
+ <|system|>
34
+ Você é um médico tratando um paciente com amnésia. Para responder as perguntas do paciente, você irá ler um texto anteriormente para se contextualizar. Se você trouxer informações desconhecidas, fora do texto lido, poderá deixar o paciente confuso. Se o paciente fizer uma questão sobre informações não presentes no texto, você precisa responder de forma educada que você não tem informação suficiente para responder, pois se tentar responder, pode trazer informações que não ajudarão o paciente recuperar sua memória. Lembre, se não estiver no texto, você precisa responder de forma educada que você não tem informação suficiente para responder. Precisamos ajudar o paciente.
35
+ <|user|>
36
+ Contexto: {context}
37
+
38
+ Questão: {question}</s>
39
+ <|assistant|>
40
+
41
+
42
+
43
+ ---------------------
44
+ Response:
45
+ {response}</s>
46
+
47
+
48
+ ---------------------
49
+
50
+ ```
51
+
52
+ ### Training hyperparameters
53
+
54
+ The following hyperparameters were used during training:
55
+ - learning_rate: 2e-4
56
+ - per_device_train_batch_size: 4
57
+ - per_device_eval_batch_size: 4
58
+ - gradient_accumulation_steps: 8
59
+ - num_gpus: 1
60
+ - total_train_batch_size: 32
61
+ - optimizer: AdamW
62
+ - lr_scheduler_type: cosine
63
+ - num_steps: 0
64
+ - quantization_type: bitsandbytes
65
+ - LoRA: ("\n - bits: 4\n - use_exllama: True\n - device_map: auto\n - use_cache: False\n - lora_r: 16\n - lora_alpha: 32\n - lora_dropout: 0.05\n - bias: none\n - target_modules: ['q_proj', 'k_proj', 'v_proj', 'o_proj']\n - task_type: CAUSAL_LM",)
66
+
67
+ ### Training results
68
+
69
+ ### Framework versions
70
+
71
+ - transformers==4.39.1
72
+ - datasets==2.18.0
73
+ - peft==0.10.0
74
+ - safetensors==0.4.2
75
+ - evaluate==0.4.1
76
+ - bitsandbytes==0.43
77
+ - huggingface_hub==0.20.3
78
+ - seqeval==1.2.2
79
+ - optimum==1.17.1
80
+ - auto-gptq==0.7.1
81
+ - gpustat==1.1.1
82
+ - deepspeed==0.14.0
83
+ - wandb==0.16.3
84
+ - # trl==0.8.1
85
+ - git+https://github.com/claralp/trl.git@fix_nans#egg=trl
86
+ - accelerate==0.28.0
87
+ - coloredlogs==15.0.1
88
+ - traitlets==5.14.1
89
+ - autoawq@https://github.com/casper-hansen/AutoAWQ/releases/download/v0.2.0/autoawq-0.2.0+cu118-cp310-cp310-linux_x86_64.whl
90
+
91
+ ### Hardware
92
+ - Cloud provided: runpod.io