Update README.md
Browse files
README.md
CHANGED
@@ -1,6 +1,75 @@
|
|
1 |
---
|
2 |
library_name: peft
|
|
|
|
|
|
|
|
|
3 |
---
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
4 |
## Training procedure
|
5 |
|
6 |
|
@@ -17,4 +86,4 @@ The following `bitsandbytes` quantization config was used during training:
|
|
17 |
### Framework versions
|
18 |
|
19 |
|
20 |
-
- PEFT 0.5.0.dev0
|
|
|
1 |
---
|
2 |
library_name: peft
|
3 |
+
datasets:
|
4 |
+
- waddledee/three_line_summarization_for_japanese_news_articles
|
5 |
+
language:
|
6 |
+
- ja
|
7 |
---
|
8 |
+
|
9 |
+
## Usage
|
10 |
+
```python
|
11 |
+
from transformers import AutoModelForCausalLM, AutoTokenizer, BitsAndBytesConfig
|
12 |
+
from peft import PeftModel, PeftConfig
|
13 |
+
import torch
|
14 |
+
|
15 |
+
peft_model_id = "waddledee/three-line-summarization-ja"
|
16 |
+
config = PeftConfig.from_pretrained(peft_model_id)
|
17 |
+
model_name = config.base_model_name_or_path # this is the base model name
|
18 |
+
|
19 |
+
tokenizer = AutoTokenizer.from_pretrained(peft_model_id)
|
20 |
+
|
21 |
+
bnb_config = BitsAndBytesConfig(
|
22 |
+
load_in_4bit=True,
|
23 |
+
bnb_4bit_quant_type="nf4",
|
24 |
+
bnb_4bit_compute_dtype=torch.float16,
|
25 |
+
)
|
26 |
+
# Load the base model in 4bit
|
27 |
+
model_4bit = AutoModelForCausalLM.from_pretrained(
|
28 |
+
model_name,
|
29 |
+
quantization_config=bnb_config,
|
30 |
+
trust_remote_code=True
|
31 |
+
)
|
32 |
+
model_4bit.config.use_cache = False
|
33 |
+
|
34 |
+
# this will make new learnable parameters for specialized tokens
|
35 |
+
model_4bit.resize_token_embeddings(len(tokenizer))
|
36 |
+
|
37 |
+
model_from_hub = PeftModel.from_pretrained(
|
38 |
+
model_4bit,
|
39 |
+
peft_model_id,
|
40 |
+
torch_dtype=torch.float16,
|
41 |
+
device_map={'':0}
|
42 |
+
)
|
43 |
+
|
44 |
+
def gen(text, model):
|
45 |
+
prompt = f"""<s>[INST] <<SYS>>
|
46 |
+
あなたは誠実で優秀な日本人のアシスタントです。
|
47 |
+
<</SYS>>
|
48 |
+
|
49 |
+
以下の入力文を3行で要約しなさい。
|
50 |
+
入力文:
|
51 |
+
{text} [/INST] [R_START]
|
52 |
+
"""
|
53 |
+
token_ids = tokenizer.encode(prompt, add_special_tokens=False, return_tensors="pt")
|
54 |
+
token_ids.to("cuda")
|
55 |
+
|
56 |
+
with torch.no_grad():
|
57 |
+
output_ids =model.generate(
|
58 |
+
inputs = token_ids,
|
59 |
+
do_sample=False,
|
60 |
+
pad_token_id=tokenizer.eos_token_id,
|
61 |
+
eos_token_id=tokenizer.eos_token_id,
|
62 |
+
max_new_tokens=256
|
63 |
+
)
|
64 |
+
output = tokenizer.decode(output_ids.tolist()[0][token_ids.size(1) :], skip_special_tokens=True)
|
65 |
+
return(output)
|
66 |
+
|
67 |
+
text = "2013年に「一帯一路」は、中国が世界経済の中心的地位を占めていた次代の古代シルクロードの再現を意識したものとされ、陸上と海上の双方において中国と中央アジア、欧州までを結ぶ構想だ。中国メディアの中国網はこのほど、一帯一路構想の実現に向け、中国は日本とどのように対峙すべきかを論じる記事を掲載。中国社科院世界経済政治研究所の研究員の分析として、日本は一帯一路構想の実現における競合として中国の前に立ちはだかると主張した。日本が中国の競合となると主張した1つ目の理由は、「シルクロード文化に最も興味を示しているのは日本である」ことだという。日本にはシルクロードを題材にした小説やドキュメンタリーが多く、シルクロードに対する熱意は中国をも凌ぐゆえだ。確かに日本ではシルクロードを題材とした小説などは多いが、これは納得できない理由だ。記事が挙げた2つ目の理由は「冷戦後、もっとも早くシルクロードに商機を見出したのが日本」であることだという。日本は1997年に当時の橋本総理が「対シルクロード地域外交」を打ち出したが、これはどの国よりも早くシルクロードの重要性に注目した結果であると指摘した。3つ目の点は「中国に対して、もっとも競争力を有しているのが日本である」ことで、日本が中国主導のアジアインフラ投資銀行(AIIB)に対抗して、1100億ドルのインフラ投資をアジアで行う方針を打ち出したことを指摘。また、日本は一帯一路構想に対する「破壊力」も有しているうえ、日本は経済面、政治外交面、軍事面で「もっとも中国に対して懐疑的」であることから、中国の一帯一路構想について、日本が何らかの形で対抗策を打ち出してくるのではないかと警戒感を示した。"
|
68 |
+
gen(text,model_from_hub)
|
69 |
+
|
70 |
+
>> '3行要約:\n中国メディアが日本が一帯一路構想に対抗するのかを論じた\n日本がシルクロード文化に最も興味を示していると指摘\n日本は経済面、政治外交面、軍事面で中国に対して懐疑的 '
|
71 |
+
```
|
72 |
+
|
73 |
## Training procedure
|
74 |
|
75 |
|
|
|
86 |
### Framework versions
|
87 |
|
88 |
|
89 |
+
- PEFT 0.5.0.dev0
|