panda0125 commited on
Commit
ee7a356
1 Parent(s): f8e0226

Upload config.json with huggingface_hub

Browse files
Files changed (1) hide show
  1. config.json +27 -295
config.json CHANGED
@@ -1,297 +1,29 @@
1
  {
2
- "train": {
3
- "segment_size": 16384
4
- },
5
- "data": {
6
- "sampling_rate": 44100,
7
- "filter_length": 2048,
8
- "hop_length": 512,
9
- "add_blank": true,
10
- "n_speakers": 256,
11
- "spk2id": {
12
- "EN-US": 0,
13
- "EN-BR": 1,
14
- "EN_INDIA": 2,
15
- "EN-AU": 3,
16
- "EN-Default": 4
17
- }
18
- },
19
- "model": {
20
- "use_spk_conditioned_encoder": true,
21
- "use_noise_scaled_mas": true,
22
- "use_mel_posterior_encoder": false,
23
- "use_duration_discriminator": true,
24
- "inter_channels": 192,
25
- "hidden_channels": 192,
26
- "filter_channels": 768,
27
- "n_heads": 2,
28
- "n_layers": 6,
29
- "n_layers_trans_flow": 3,
30
- "kernel_size": 3,
31
- "p_dropout": 0.1,
32
- "resblock": "1",
33
- "resblock_kernel_sizes": [
34
- 3,
35
- 7,
36
- 11
37
- ],
38
- "resblock_dilation_sizes": [
39
- [
40
- 1,
41
- 3,
42
- 5
43
- ],
44
- [
45
- 1,
46
- 3,
47
- 5
48
- ],
49
- [
50
- 1,
51
- 3,
52
- 5
53
- ]
54
- ],
55
- "upsample_rates": [
56
- 8,
57
- 8,
58
- 2,
59
- 2,
60
- 2
61
- ],
62
- "upsample_initial_channel": 512,
63
- "upsample_kernel_sizes": [
64
- 16,
65
- 16,
66
- 8,
67
- 2,
68
- 2
69
- ],
70
- "n_layers_q": 3,
71
- "use_spectral_norm": false,
72
- "gin_channels": 256
73
- },
74
- "symbols": [
75
- "_",
76
- "\"",
77
- "(",
78
- ")",
79
- "*",
80
- "/",
81
- ":",
82
- "AA",
83
- "E",
84
- "EE",
85
- "En",
86
- "N",
87
- "OO",
88
- "Q",
89
- "V",
90
- "[",
91
- "\\",
92
- "]",
93
- "^",
94
- "a",
95
- "a:",
96
- "aa",
97
- "ae",
98
- "ah",
99
- "ai",
100
- "an",
101
- "ang",
102
- "ao",
103
- "aw",
104
- "ay",
105
- "b",
106
- "by",
107
- "c",
108
- "ch",
109
- "d",
110
- "dh",
111
- "dy",
112
- "e",
113
- "e:",
114
- "eh",
115
- "ei",
116
- "en",
117
- "eng",
118
- "er",
119
- "ey",
120
- "f",
121
- "g",
122
- "gy",
123
- "h",
124
- "hh",
125
- "hy",
126
- "i",
127
- "i0",
128
- "i:",
129
- "ia",
130
- "ian",
131
- "iang",
132
- "iao",
133
- "ie",
134
- "ih",
135
- "in",
136
- "ing",
137
- "iong",
138
- "ir",
139
- "iu",
140
- "iy",
141
- "j",
142
- "jh",
143
- "k",
144
- "ky",
145
- "l",
146
- "m",
147
- "my",
148
- "n",
149
- "ng",
150
- "ny",
151
- "o",
152
- "o:",
153
- "ong",
154
- "ou",
155
- "ow",
156
- "oy",
157
- "p",
158
- "py",
159
- "q",
160
- "r",
161
- "ry",
162
- "s",
163
- "sh",
164
- "t",
165
- "th",
166
- "ts",
167
- "ty",
168
- "u",
169
- "u:",
170
- "ua",
171
- "uai",
172
- "uan",
173
- "uang",
174
- "uh",
175
- "ui",
176
- "un",
177
- "uo",
178
- "uw",
179
- "v",
180
- "van",
181
- "ve",
182
- "vn",
183
- "w",
184
- "x",
185
- "y",
186
- "z",
187
- "zh",
188
- "zy",
189
- "~",
190
- "¡",
191
- "¿",
192
- "æ",
193
- "ç",
194
- "ð",
195
- "ø",
196
- "ŋ",
197
- "œ",
198
- "ɐ",
199
- "ɑ",
200
- "ɒ",
201
- "ɔ",
202
- "ɕ",
203
- "ə",
204
- "ɛ",
205
- "ɜ",
206
- "ɡ",
207
- "ɣ",
208
- "ɥ",
209
- "ɦ",
210
- "ɪ",
211
- "ɫ",
212
- "ɬ",
213
- "ɭ",
214
- "ɯ",
215
- "ɲ",
216
- "ɵ",
217
- "ɸ",
218
- "ɹ",
219
- "ɾ",
220
- "ʁ",
221
- "ʃ",
222
- "ʊ",
223
- "ʌ",
224
- "ʎ",
225
- "ʏ",
226
- "ʑ",
227
- "ʒ",
228
- "ʝ",
229
- "ʲ",
230
- "ˈ",
231
- "ˌ",
232
- "ː",
233
- "̃",
234
- "̩",
235
- "β",
236
- "θ",
237
- "ᄀ",
238
- "ᄁ",
239
- "ᄂ",
240
- "ᄃ",
241
- "ᄄ",
242
- "ᄅ",
243
- "ᄆ",
244
- "ᄇ",
245
- "ᄈ",
246
- "ᄉ",
247
- "ᄊ",
248
- "ᄋ",
249
- "ᄌ",
250
- "ᄍ",
251
- "ᄎ",
252
- "ᄏ",
253
- "ᄐ",
254
- "ᄑ",
255
- "ᄒ",
256
- "ᅡ",
257
- "ᅢ",
258
- "ᅣ",
259
- "ᅤ",
260
- "ᅥ",
261
- "ᅦ",
262
- "ᅧ",
263
- "ᅨ",
264
- "ᅩ",
265
- "ᅪ",
266
- "ᅫ",
267
- "ᅬ",
268
- "ᅭ",
269
- "ᅮ",
270
- "ᅯ",
271
- "ᅰ",
272
- "ᅱ",
273
- "ᅲ",
274
- "ᅳ",
275
- "ᅴ",
276
- "ᅵ",
277
- "ᆨ",
278
- "ᆫ",
279
- "ᆮ",
280
- "ᆯ",
281
- "ᆷ",
282
- "ᆸ",
283
- "ᆼ",
284
- "ㄸ",
285
- "!",
286
- "?",
287
- "…",
288
- ",",
289
- ".",
290
- "'",
291
- "-",
292
- "SP",
293
- "UNK"
294
  ],
295
- "num_tones": 16,
296
- "num_languages": 10
297
- }
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
  {
2
+ "_name_or_path": "../submission/fufu007",
3
+ "architectures": [
4
+ "StableLmForCausalLM"
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
5
  ],
6
+ "attention_dropout": 0.0,
7
+ "bos_token_id": 100289,
8
+ "eos_token_id": 100290,
9
+ "hidden_act": "silu",
10
+ "hidden_dropout": 0.0,
11
+ "hidden_size": 2048,
12
+ "initializer_range": 0.02,
13
+ "intermediate_size": 5632,
14
+ "layer_norm_eps": 1e-05,
15
+ "max_position_embeddings": 4096,
16
+ "model_type": "stablelm",
17
+ "num_attention_heads": 32,
18
+ "num_hidden_layers": 24,
19
+ "num_key_value_heads": 32,
20
+ "partial_rotary_factor": 0.25,
21
+ "rope_scaling": null,
22
+ "rope_theta": 10000,
23
+ "tie_word_embeddings": false,
24
+ "torch_dtype": "bfloat16",
25
+ "transformers_version": "4.38.2",
26
+ "use_cache": false,
27
+ "use_qkv_bias": true,
28
+ "vocab_size": 100352
29
+ }