Update README.md
Browse files
README.md
CHANGED
@@ -12,6 +12,10 @@ widget:
|
|
12 |
|
13 |
## GPT2 Japanese base model version 2
|
14 |
|
|
|
|
|
|
|
|
|
15 |
### Tokenizer
|
16 |
|
17 |
Using BPE tokenizer with vocabulary size 60,000.
|
@@ -32,6 +36,10 @@ generator("今度の連休の天気は", max_length=50, num_return_sequences=5)
|
|
32 |
|
33 |
## (Japanese description) GPT2 日本語 ベースモデル・バージョン 2
|
34 |
|
|
|
|
|
|
|
|
|
35 |
### トークナイザー
|
36 |
|
37 |
語彙サイズ 60,000 の BPE トークナイザーを使用しています。
|
|
|
12 |
|
13 |
## GPT2 Japanese base model version 2
|
14 |
|
15 |
+
### Model architecture
|
16 |
+
|
17 |
+
This model uses GPT2 base setttings except vocabulary size.
|
18 |
+
|
19 |
### Tokenizer
|
20 |
|
21 |
Using BPE tokenizer with vocabulary size 60,000.
|
|
|
36 |
|
37 |
## (Japanese description) GPT2 日本語 ベースモデル・バージョン 2
|
38 |
|
39 |
+
### モデル・アーキテクチャ
|
40 |
+
|
41 |
+
このモデルは GPT2 ベースモデルの設定を (語彙サイズ以外は) 使用しています。
|
42 |
+
|
43 |
### トークナイザー
|
44 |
|
45 |
語彙サイズ 60,000 の BPE トークナイザーを使用しています。
|