Commit
·
a7c98d6
1
Parent(s):
8639a3f
Update README.md
Browse files
README.md
CHANGED
@@ -21,16 +21,18 @@ We have trained 21,260,288 parameters out of 7,262,992,384, i.e. 0.23%.
|
|
21 |
|
22 |
```py
|
23 |
import torch
|
|
|
|
|
24 |
from transformers import AutoModelForCausalLM, AutoTokenizer
|
25 |
|
26 |
-
|
27 |
-
model = AutoModelForCausalLM.from_pretrained(
|
|
|
28 |
|
29 |
tokenizer = AutoTokenizer.from_pretrained("mistralai/Mistral-7B-v0.1")
|
30 |
tokenizer.pad_token = tokenizer.eos_token
|
31 |
|
32 |
-
prompt = '''Prenez l'énoncé suivant comme vrai : "Euh, non, pour être honnête, je n'ai jamais lu aucun des livres que j'étais supposé lire."\n Alors l'énoncé suivant : "Je n'ai pas lu beaucoup de livres." est "vrai", "faux", ou "incertain" ?
|
33 |
-
'''
|
34 |
model_input = tokenizer(prompt, return_tensors="pt").to("cuda")
|
35 |
|
36 |
model.eval()
|
|
|
21 |
|
22 |
```py
|
23 |
import torch
|
24 |
+
|
25 |
+
from peft import PeftModel, PeftConfig
|
26 |
from transformers import AutoModelForCausalLM, AutoTokenizer
|
27 |
|
28 |
+
config = PeftConfig.from_pretrained("CATIE-AQ/mistral7B-FR-InstructNLP-LoRA")
|
29 |
+
model = AutoModelForCausalLM.from_pretrained("mistralai/Mistral-7B-v0.1")
|
30 |
+
model = PeftModel.from_pretrained(model, "CATIE-AQ/mistral7B-FR-InstructNLP-LoRA")
|
31 |
|
32 |
tokenizer = AutoTokenizer.from_pretrained("mistralai/Mistral-7B-v0.1")
|
33 |
tokenizer.pad_token = tokenizer.eos_token
|
34 |
|
35 |
+
prompt = '''Prenez l'énoncé suivant comme vrai : "Euh, non, pour être honnête, je n'ai jamais lu aucun des livres que j'étais supposé lire."\n Alors l'énoncé suivant : "Je n'ai pas lu beaucoup de livres." est "vrai", "faux", ou "incertain" ?'''
|
|
|
36 |
model_input = tokenizer(prompt, return_tensors="pt").to("cuda")
|
37 |
|
38 |
model.eval()
|