Update README.md
Browse files
README.md
CHANGED
@@ -23,11 +23,11 @@ This llama model was trained 2x faster with [Unsloth](https://github.com/unsloth
|
|
23 |
[<img src="https://raw.githubusercontent.com/unslothai/unsloth/main/images/unsloth%20made%20with%20love.png" width="200"/>](https://github.com/unslothai/unsloth)
|
24 |
|
25 |
ファインチューニングした本モデルを使用して推論するモデルとトークナイザを読み出すコードの例を以下に示します。
|
|
|
26 |
from unsloth import FastLanguageModel
|
27 |
|
28 |
model_name = "SusumuDou/llm-jp-3-13b-finetune-2"
|
29 |
|
30 |
-
|
31 |
max_seq_length = 2048
|
32 |
dtype = None
|
33 |
load_in_4bit = True
|
@@ -39,4 +39,6 @@ model, tokenizer = FastLanguageModel.from_pretrained(
|
|
39 |
load_in_4bit = load_in_4bit,
|
40 |
token = HF TOKEN,
|
41 |
)
|
|
|
|
|
42 |
FastLanguageModel.for_inference(model)
|
|
|
23 |
[<img src="https://raw.githubusercontent.com/unslothai/unsloth/main/images/unsloth%20made%20with%20love.png" width="200"/>](https://github.com/unslothai/unsloth)
|
24 |
|
25 |
ファインチューニングした本モデルを使用して推論するモデルとトークナイザを読み出すコードの例を以下に示します。
|
26 |
+
|
27 |
from unsloth import FastLanguageModel
|
28 |
|
29 |
model_name = "SusumuDou/llm-jp-3-13b-finetune-2"
|
30 |
|
|
|
31 |
max_seq_length = 2048
|
32 |
dtype = None
|
33 |
load_in_4bit = True
|
|
|
39 |
load_in_4bit = load_in_4bit,
|
40 |
token = HF TOKEN,
|
41 |
)
|
42 |
+
|
43 |
+
|
44 |
FastLanguageModel.for_inference(model)
|