ChayanM commited on
Commit
def3c19
·
1 Parent(s): 3ac4cd8

Upload 9 files

Browse files

Upload Model Weights and Tokenization

Model/preprocessor_config.json ADDED
@@ -0,0 +1,22 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ {
2
+ "do_normalize": true,
3
+ "do_rescale": true,
4
+ "do_resize": true,
5
+ "image_mean": [
6
+ 0.485,
7
+ 0.456,
8
+ 0.406
9
+ ],
10
+ "feature_extractor_type": "ViTFeatureExtractor",
11
+ "image_std": [
12
+ 0.229,
13
+ 0.224,
14
+ 0.225
15
+ ],
16
+ "resample": 3,
17
+ "rescale_factor": 0.00392156862745098,
18
+ "size": {
19
+ "height": 384,
20
+ "width": 384
21
+ }
22
+ }
Model/rng_state.pth ADDED
@@ -0,0 +1,3 @@
 
 
 
 
1
+ version https://git-lfs.github.com/spec/v1
2
+ oid sha256:0ed7612de6b8d4c06ccacb9ae48d72f25eaa405bb7d12ebc21c86121cca30197
3
+ size 14575
Model/scheduler.pt ADDED
@@ -0,0 +1,3 @@
 
 
 
 
1
+ version https://git-lfs.github.com/spec/v1
2
+ oid sha256:d9f8ff02ac948318fd4b1db36c6dc3626126a027e501925cfc3bd76ac45c3505
3
+ size 627
Model/special_tokens_map.json ADDED
@@ -0,0 +1,6 @@
 
 
 
 
 
 
 
1
+ {
2
+ "bos_token": "<|endoftext|>",
3
+ "eos_token": "<|endoftext|>",
4
+ "pad_token": "<|endoftext|>",
5
+ "unk_token": "<|endoftext|>"
6
+ }
Model/tokenizer.json ADDED
The diff for this file is too large to render. See raw diff
 
Model/tokenizer_config.json ADDED
@@ -0,0 +1,20 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ {
2
+ "add_prefix_space": false,
3
+ "added_tokens_decoder": {
4
+ "50256": {
5
+ "content": "<|endoftext|>",
6
+ "lstrip": false,
7
+ "normalized": true,
8
+ "rstrip": false,
9
+ "single_word": false,
10
+ "special": true
11
+ }
12
+ },
13
+ "bos_token": "<|endoftext|>",
14
+ "clean_up_tokenization_spaces": true,
15
+ "eos_token": "<|endoftext|>",
16
+ "model_max_length": 1024,
17
+ "pad_token": "<|endoftext|>",
18
+ "tokenizer_class": "GPT2Tokenizer",
19
+ "unk_token": "<|endoftext|>"
20
+ }
Model/trainer_state.json ADDED
@@ -0,0 +1,536 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ {
2
+ "best_metric": 0.0629316121339798,
3
+ "best_model_checkpoint": "./Swin-GPT2_Mimic/checkpoint-37500",
4
+ "epoch": 5.0,
5
+ "eval_steps": 500,
6
+ "global_step": 37500,
7
+ "is_hyper_param_search": false,
8
+ "is_local_process_zero": true,
9
+ "is_world_process_zero": true,
10
+ "log_history": [
11
+ {
12
+ "epoch": 0.07,
13
+ "learning_rate": 4.9833333333333336e-05,
14
+ "loss": 0.1362,
15
+ "step": 500
16
+ },
17
+ {
18
+ "epoch": 0.13,
19
+ "learning_rate": 4.966666666666667e-05,
20
+ "loss": 0.089,
21
+ "step": 1000
22
+ },
23
+ {
24
+ "epoch": 0.2,
25
+ "learning_rate": 4.9500000000000004e-05,
26
+ "loss": 0.0805,
27
+ "step": 1500
28
+ },
29
+ {
30
+ "epoch": 0.27,
31
+ "learning_rate": 4.933333333333334e-05,
32
+ "loss": 0.0779,
33
+ "step": 2000
34
+ },
35
+ {
36
+ "epoch": 0.33,
37
+ "learning_rate": 4.9166666666666665e-05,
38
+ "loss": 0.0775,
39
+ "step": 2500
40
+ },
41
+ {
42
+ "epoch": 0.4,
43
+ "learning_rate": 4.9e-05,
44
+ "loss": 0.0763,
45
+ "step": 3000
46
+ },
47
+ {
48
+ "epoch": 0.47,
49
+ "learning_rate": 4.883333333333334e-05,
50
+ "loss": 0.0749,
51
+ "step": 3500
52
+ },
53
+ {
54
+ "epoch": 0.53,
55
+ "learning_rate": 4.866666666666667e-05,
56
+ "loss": 0.0702,
57
+ "step": 4000
58
+ },
59
+ {
60
+ "epoch": 0.6,
61
+ "learning_rate": 4.85e-05,
62
+ "loss": 0.0701,
63
+ "step": 4500
64
+ },
65
+ {
66
+ "epoch": 0.67,
67
+ "learning_rate": 4.8333333333333334e-05,
68
+ "loss": 0.0715,
69
+ "step": 5000
70
+ },
71
+ {
72
+ "epoch": 0.73,
73
+ "learning_rate": 4.8166666666666674e-05,
74
+ "loss": 0.0725,
75
+ "step": 5500
76
+ },
77
+ {
78
+ "epoch": 0.8,
79
+ "learning_rate": 4.8e-05,
80
+ "loss": 0.0677,
81
+ "step": 6000
82
+ },
83
+ {
84
+ "epoch": 0.87,
85
+ "learning_rate": 4.7833333333333335e-05,
86
+ "loss": 0.0696,
87
+ "step": 6500
88
+ },
89
+ {
90
+ "epoch": 0.93,
91
+ "learning_rate": 4.766666666666667e-05,
92
+ "loss": 0.065,
93
+ "step": 7000
94
+ },
95
+ {
96
+ "epoch": 1.0,
97
+ "learning_rate": 4.75e-05,
98
+ "loss": 0.0646,
99
+ "step": 7500
100
+ },
101
+ {
102
+ "epoch": 1.0,
103
+ "eval_gen_len": 8.897,
104
+ "eval_loss": 0.06988305598497391,
105
+ "eval_rouge1": 34.7412,
106
+ "eval_rouge2": 25.6954,
107
+ "eval_rougeL": 34.4803,
108
+ "eval_rougeLsum": 34.7871,
109
+ "eval_runtime": 103.0848,
110
+ "eval_samples_per_second": 9.701,
111
+ "eval_steps_per_second": 1.213,
112
+ "step": 7500
113
+ },
114
+ {
115
+ "epoch": 1.07,
116
+ "learning_rate": 4.7333333333333336e-05,
117
+ "loss": 0.0651,
118
+ "step": 8000
119
+ },
120
+ {
121
+ "epoch": 1.13,
122
+ "learning_rate": 4.716666666666667e-05,
123
+ "loss": 0.0647,
124
+ "step": 8500
125
+ },
126
+ {
127
+ "epoch": 1.2,
128
+ "learning_rate": 4.7e-05,
129
+ "loss": 0.0644,
130
+ "step": 9000
131
+ },
132
+ {
133
+ "epoch": 1.27,
134
+ "learning_rate": 4.683333333333334e-05,
135
+ "loss": 0.0613,
136
+ "step": 9500
137
+ },
138
+ {
139
+ "epoch": 1.33,
140
+ "learning_rate": 4.666666666666667e-05,
141
+ "loss": 0.0664,
142
+ "step": 10000
143
+ },
144
+ {
145
+ "epoch": 1.4,
146
+ "learning_rate": 4.6500000000000005e-05,
147
+ "loss": 0.0631,
148
+ "step": 10500
149
+ },
150
+ {
151
+ "epoch": 1.47,
152
+ "learning_rate": 4.633333333333333e-05,
153
+ "loss": 0.0623,
154
+ "step": 11000
155
+ },
156
+ {
157
+ "epoch": 1.53,
158
+ "learning_rate": 4.6166666666666666e-05,
159
+ "loss": 0.0612,
160
+ "step": 11500
161
+ },
162
+ {
163
+ "epoch": 1.6,
164
+ "learning_rate": 4.600000000000001e-05,
165
+ "loss": 0.062,
166
+ "step": 12000
167
+ },
168
+ {
169
+ "epoch": 1.67,
170
+ "learning_rate": 4.5833333333333334e-05,
171
+ "loss": 0.0605,
172
+ "step": 12500
173
+ },
174
+ {
175
+ "epoch": 1.73,
176
+ "learning_rate": 4.566666666666667e-05,
177
+ "loss": 0.0619,
178
+ "step": 13000
179
+ },
180
+ {
181
+ "epoch": 1.8,
182
+ "learning_rate": 4.55e-05,
183
+ "loss": 0.062,
184
+ "step": 13500
185
+ },
186
+ {
187
+ "epoch": 1.87,
188
+ "learning_rate": 4.5333333333333335e-05,
189
+ "loss": 0.0622,
190
+ "step": 14000
191
+ },
192
+ {
193
+ "epoch": 1.93,
194
+ "learning_rate": 4.516666666666667e-05,
195
+ "loss": 0.06,
196
+ "step": 14500
197
+ },
198
+ {
199
+ "epoch": 2.0,
200
+ "learning_rate": 4.5e-05,
201
+ "loss": 0.0597,
202
+ "step": 15000
203
+ },
204
+ {
205
+ "epoch": 2.0,
206
+ "eval_gen_len": 14.724,
207
+ "eval_loss": 0.06516863405704498,
208
+ "eval_rouge1": 38.0809,
209
+ "eval_rouge2": 26.9533,
210
+ "eval_rougeL": 37.259,
211
+ "eval_rougeLsum": 37.8078,
212
+ "eval_runtime": 113.6453,
213
+ "eval_samples_per_second": 8.799,
214
+ "eval_steps_per_second": 1.1,
215
+ "step": 15000
216
+ },
217
+ {
218
+ "epoch": 2.07,
219
+ "learning_rate": 4.483333333333333e-05,
220
+ "loss": 0.0559,
221
+ "step": 15500
222
+ },
223
+ {
224
+ "epoch": 2.13,
225
+ "learning_rate": 4.466666666666667e-05,
226
+ "loss": 0.0595,
227
+ "step": 16000
228
+ },
229
+ {
230
+ "epoch": 2.2,
231
+ "learning_rate": 4.4500000000000004e-05,
232
+ "loss": 0.0569,
233
+ "step": 16500
234
+ },
235
+ {
236
+ "epoch": 2.27,
237
+ "learning_rate": 4.433333333333334e-05,
238
+ "loss": 0.0558,
239
+ "step": 17000
240
+ },
241
+ {
242
+ "epoch": 2.33,
243
+ "learning_rate": 4.4166666666666665e-05,
244
+ "loss": 0.0578,
245
+ "step": 17500
246
+ },
247
+ {
248
+ "epoch": 2.4,
249
+ "learning_rate": 4.4000000000000006e-05,
250
+ "loss": 0.0571,
251
+ "step": 18000
252
+ },
253
+ {
254
+ "epoch": 2.47,
255
+ "learning_rate": 4.383333333333334e-05,
256
+ "loss": 0.0586,
257
+ "step": 18500
258
+ },
259
+ {
260
+ "epoch": 2.53,
261
+ "learning_rate": 4.3666666666666666e-05,
262
+ "loss": 0.0577,
263
+ "step": 19000
264
+ },
265
+ {
266
+ "epoch": 2.6,
267
+ "learning_rate": 4.35e-05,
268
+ "loss": 0.0583,
269
+ "step": 19500
270
+ },
271
+ {
272
+ "epoch": 2.67,
273
+ "learning_rate": 4.3333333333333334e-05,
274
+ "loss": 0.0574,
275
+ "step": 20000
276
+ },
277
+ {
278
+ "epoch": 2.73,
279
+ "learning_rate": 4.316666666666667e-05,
280
+ "loss": 0.0563,
281
+ "step": 20500
282
+ },
283
+ {
284
+ "epoch": 2.8,
285
+ "learning_rate": 4.3e-05,
286
+ "loss": 0.057,
287
+ "step": 21000
288
+ },
289
+ {
290
+ "epoch": 2.87,
291
+ "learning_rate": 4.2833333333333335e-05,
292
+ "loss": 0.0559,
293
+ "step": 21500
294
+ },
295
+ {
296
+ "epoch": 2.93,
297
+ "learning_rate": 4.266666666666667e-05,
298
+ "loss": 0.0565,
299
+ "step": 22000
300
+ },
301
+ {
302
+ "epoch": 3.0,
303
+ "learning_rate": 4.25e-05,
304
+ "loss": 0.0577,
305
+ "step": 22500
306
+ },
307
+ {
308
+ "epoch": 3.0,
309
+ "eval_gen_len": 13.501,
310
+ "eval_loss": 0.06393314898014069,
311
+ "eval_rouge1": 37.8142,
312
+ "eval_rouge2": 26.9542,
313
+ "eval_rougeL": 37.076,
314
+ "eval_rougeLsum": 37.5874,
315
+ "eval_runtime": 112.3223,
316
+ "eval_samples_per_second": 8.903,
317
+ "eval_steps_per_second": 1.113,
318
+ "step": 22500
319
+ },
320
+ {
321
+ "epoch": 3.07,
322
+ "learning_rate": 4.233333333333334e-05,
323
+ "loss": 0.0511,
324
+ "step": 23000
325
+ },
326
+ {
327
+ "epoch": 3.13,
328
+ "learning_rate": 4.216666666666667e-05,
329
+ "loss": 0.0526,
330
+ "step": 23500
331
+ },
332
+ {
333
+ "epoch": 3.2,
334
+ "learning_rate": 4.2e-05,
335
+ "loss": 0.0514,
336
+ "step": 24000
337
+ },
338
+ {
339
+ "epoch": 3.27,
340
+ "learning_rate": 4.183333333333334e-05,
341
+ "loss": 0.053,
342
+ "step": 24500
343
+ },
344
+ {
345
+ "epoch": 3.33,
346
+ "learning_rate": 4.166666666666667e-05,
347
+ "loss": 0.0526,
348
+ "step": 25000
349
+ },
350
+ {
351
+ "epoch": 3.4,
352
+ "learning_rate": 4.15e-05,
353
+ "loss": 0.0542,
354
+ "step": 25500
355
+ },
356
+ {
357
+ "epoch": 3.47,
358
+ "learning_rate": 4.133333333333333e-05,
359
+ "loss": 0.0533,
360
+ "step": 26000
361
+ },
362
+ {
363
+ "epoch": 3.53,
364
+ "learning_rate": 4.116666666666667e-05,
365
+ "loss": 0.0537,
366
+ "step": 26500
367
+ },
368
+ {
369
+ "epoch": 3.6,
370
+ "learning_rate": 4.1e-05,
371
+ "loss": 0.0519,
372
+ "step": 27000
373
+ },
374
+ {
375
+ "epoch": 3.67,
376
+ "learning_rate": 4.0833333333333334e-05,
377
+ "loss": 0.0532,
378
+ "step": 27500
379
+ },
380
+ {
381
+ "epoch": 3.73,
382
+ "learning_rate": 4.066666666666667e-05,
383
+ "loss": 0.0538,
384
+ "step": 28000
385
+ },
386
+ {
387
+ "epoch": 3.8,
388
+ "learning_rate": 4.05e-05,
389
+ "loss": 0.0533,
390
+ "step": 28500
391
+ },
392
+ {
393
+ "epoch": 3.87,
394
+ "learning_rate": 4.0333333333333336e-05,
395
+ "loss": 0.0544,
396
+ "step": 29000
397
+ },
398
+ {
399
+ "epoch": 3.93,
400
+ "learning_rate": 4.016666666666667e-05,
401
+ "loss": 0.0536,
402
+ "step": 29500
403
+ },
404
+ {
405
+ "epoch": 4.0,
406
+ "learning_rate": 4e-05,
407
+ "loss": 0.0528,
408
+ "step": 30000
409
+ },
410
+ {
411
+ "epoch": 4.0,
412
+ "eval_gen_len": 11.784,
413
+ "eval_loss": 0.06298327445983887,
414
+ "eval_rouge1": 37.8876,
415
+ "eval_rouge2": 26.9586,
416
+ "eval_rougeL": 37.2585,
417
+ "eval_rougeLsum": 37.7378,
418
+ "eval_runtime": 109.3283,
419
+ "eval_samples_per_second": 9.147,
420
+ "eval_steps_per_second": 1.143,
421
+ "step": 30000
422
+ },
423
+ {
424
+ "epoch": 4.07,
425
+ "learning_rate": 3.983333333333333e-05,
426
+ "loss": 0.0488,
427
+ "step": 30500
428
+ },
429
+ {
430
+ "epoch": 4.13,
431
+ "learning_rate": 3.966666666666667e-05,
432
+ "loss": 0.0475,
433
+ "step": 31000
434
+ },
435
+ {
436
+ "epoch": 4.2,
437
+ "learning_rate": 3.9500000000000005e-05,
438
+ "loss": 0.0487,
439
+ "step": 31500
440
+ },
441
+ {
442
+ "epoch": 4.27,
443
+ "learning_rate": 3.933333333333333e-05,
444
+ "loss": 0.0493,
445
+ "step": 32000
446
+ },
447
+ {
448
+ "epoch": 4.33,
449
+ "learning_rate": 3.9166666666666665e-05,
450
+ "loss": 0.0482,
451
+ "step": 32500
452
+ },
453
+ {
454
+ "epoch": 4.4,
455
+ "learning_rate": 3.9000000000000006e-05,
456
+ "loss": 0.0504,
457
+ "step": 33000
458
+ },
459
+ {
460
+ "epoch": 4.47,
461
+ "learning_rate": 3.883333333333333e-05,
462
+ "loss": 0.0495,
463
+ "step": 33500
464
+ },
465
+ {
466
+ "epoch": 4.53,
467
+ "learning_rate": 3.866666666666667e-05,
468
+ "loss": 0.0477,
469
+ "step": 34000
470
+ },
471
+ {
472
+ "epoch": 4.6,
473
+ "learning_rate": 3.85e-05,
474
+ "loss": 0.049,
475
+ "step": 34500
476
+ },
477
+ {
478
+ "epoch": 4.67,
479
+ "learning_rate": 3.8333333333333334e-05,
480
+ "loss": 0.0483,
481
+ "step": 35000
482
+ },
483
+ {
484
+ "epoch": 4.73,
485
+ "learning_rate": 3.816666666666667e-05,
486
+ "loss": 0.0509,
487
+ "step": 35500
488
+ },
489
+ {
490
+ "epoch": 4.8,
491
+ "learning_rate": 3.8e-05,
492
+ "loss": 0.0505,
493
+ "step": 36000
494
+ },
495
+ {
496
+ "epoch": 4.87,
497
+ "learning_rate": 3.7833333333333336e-05,
498
+ "loss": 0.0506,
499
+ "step": 36500
500
+ },
501
+ {
502
+ "epoch": 4.93,
503
+ "learning_rate": 3.766666666666667e-05,
504
+ "loss": 0.049,
505
+ "step": 37000
506
+ },
507
+ {
508
+ "epoch": 5.0,
509
+ "learning_rate": 3.7500000000000003e-05,
510
+ "loss": 0.0485,
511
+ "step": 37500
512
+ },
513
+ {
514
+ "epoch": 5.0,
515
+ "eval_gen_len": 14.157,
516
+ "eval_loss": 0.0629316121339798,
517
+ "eval_rouge1": 39.0822,
518
+ "eval_rouge2": 27.4073,
519
+ "eval_rougeL": 38.1885,
520
+ "eval_rougeLsum": 38.8776,
521
+ "eval_runtime": 112.3853,
522
+ "eval_samples_per_second": 8.898,
523
+ "eval_steps_per_second": 1.112,
524
+ "step": 37500
525
+ }
526
+ ],
527
+ "logging_steps": 500,
528
+ "max_steps": 150000,
529
+ "num_input_tokens_seen": 0,
530
+ "num_train_epochs": 20,
531
+ "save_steps": 500,
532
+ "total_flos": 1.601193167290368e+20,
533
+ "train_batch_size": 8,
534
+ "trial_name": null,
535
+ "trial_params": null
536
+ }
Model/training_args.bin ADDED
@@ -0,0 +1,3 @@
 
 
 
 
1
+ version https://git-lfs.github.com/spec/v1
2
+ oid sha256:6dd77040949647fa4b081f2f6be19d1ed5b3019d92fd8ecb74d288af93cd6290
3
+ size 4411
Model/vocab.json ADDED
The diff for this file is too large to render. See raw diff