Update README.md
Browse files
README.md
CHANGED
@@ -57,12 +57,11 @@ from transformers import AutoTokenizer, AutoModelForCausalLM
|
|
57 |
tokenizer = AutoTokenizer.from_pretrained("OpenLLM-Ro/RoMistral-7b-Instruct")
|
58 |
model = AutoModelForCausalLM.from_pretrained("OpenLLM-Ro/RoMistral-7b-Instruct")
|
59 |
|
60 |
-
instruction = "
|
61 |
chat = [
|
62 |
-
{"role": "system", "content": "Ești un asistent folositor, respectuos și onest. Încearcă să ajuți cât mai mult prin informațiile oferite, excluzând răspunsuri toxice, rasiste, sexiste, periculoase și ilegale."},
|
63 |
{"role": "user", "content": instruction},
|
64 |
]
|
65 |
-
prompt = tokenizer.apply_chat_template(chat, tokenize=False)
|
66 |
|
67 |
inputs = tokenizer.encode(prompt, add_special_tokens=False, return_tensors="pt")
|
68 |
outputs = model.generate(input_ids=inputs, max_new_tokens=128)
|
|
|
57 |
tokenizer = AutoTokenizer.from_pretrained("OpenLLM-Ro/RoMistral-7b-Instruct")
|
58 |
model = AutoModelForCausalLM.from_pretrained("OpenLLM-Ro/RoMistral-7b-Instruct")
|
59 |
|
60 |
+
instruction = "Ce jocuri de societate pot juca cu prietenii mei?"
|
61 |
chat = [
|
|
|
62 |
{"role": "user", "content": instruction},
|
63 |
]
|
64 |
+
prompt = tokenizer.apply_chat_template(chat, tokenize=False, system_message="")
|
65 |
|
66 |
inputs = tokenizer.encode(prompt, add_special_tokens=False, return_tensors="pt")
|
67 |
outputs = model.generate(input_ids=inputs, max_new_tokens=128)
|