AlexN commited on
Commit
618a8ee
Β·
1 Parent(s): b5479d3

Training in progress, step 10500

Browse files
pytorch_model.bin CHANGED
@@ -1,3 +1,3 @@
1
  version https://git-lfs.github.com/spec/v1
2
- oid sha256:84e67870f5569367c817565bc50655f01b22b428a7e4d9462aaaf1343e63e3ee
3
  size 1262817457
 
1
  version https://git-lfs.github.com/spec/v1
2
+ oid sha256:22f6f2330dd968bf330330d3c64ea32db723c243aa91a5521c2d030625924f4f
3
  size 1262817457
wandb/run-20220129_215451-1vipdbow/files/output.log CHANGED
@@ -11858,3 +11858,594 @@ Configuration saved in ./checkpoint-10000/config.json
11858
  {'eval_loss': 0.25231894850730896, 'eval_wer': 0.3782951546156603, 'eval_runtime': 297.5796, 'eval_samples_per_second': 19.464, 'eval_steps_per_second': 0.306, 'epoch': 1.45}
11859
  Model weights saved in ./checkpoint-10000/pytorch_model.bin
11860
  Configuration saved in ./checkpoint-10000/preprocessor_config.json
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
11858
  {'eval_loss': 0.25231894850730896, 'eval_wer': 0.3782951546156603, 'eval_runtime': 297.5796, 'eval_samples_per_second': 19.464, 'eval_steps_per_second': 0.306, 'epoch': 1.45}
11859
  Model weights saved in ./checkpoint-10000/pytorch_model.bin
11860
  Configuration saved in ./checkpoint-10000/preprocessor_config.json
11861
+ Configuration saved in ./preprocessor_config.json
11862
+ Deleting older checkpoint [checkpoint-9000] due to args.save_total_limit
11863
+
11864
+
11865
+
11866
+
11867
+
11868
+
11869
+
11870
+
11871
+
11872
+
11873
+
11874
+
11875
+
11876
+
11877
+
11878
+
11879
+
11880
+
11881
+
11882
+
11883
+
11884
+
11885
+
11886
+
11887
+
11888
+
11889
+
11890
+
11891
+
11892
+
11893
+
11894
+
11895
+
11896
+
11897
+
11898
+
11899
+
11900
+
11901
+
11902
+
11903
+
11904
+
11905
+
11906
+
11907
+
11908
+
11909
+
11910
+
11911
+
11912
+
11913
+
11914
+
11915
+
11916
+
11917
+
11918
+
11919
+
11920
+
11921
+
11922
+
11923
+
11924
+
11925
+
11926
+
11927
+
11928
+
11929
+
11930
+
11931
+
11932
+
11933
+
11934
+
11935
+
11936
+
11937
+
11938
+
11939
+
11940
+
11941
+
11942
+
11943
+
11944
+
11945
+
11946
+
11947
+
11948
+
11949
+
11950
+
11951
+
11952
+
11953
+
11954
+
11955
+
11956
+
11957
+
11958
+ 73%|β–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–Œ | 10099/13822 [10:56:18<2:33:58, 2.48s/it]
11959
+
11960
+
11961
+
11962
+
11963
+
11964
+
11965
+
11966
+
11967
+
11968
+
11969
+
11970
+
11971
+
11972
+
11973
+
11974
+
11975
+
11976
+
11977
+
11978
+
11979
+
11980
+
11981
+
11982
+
11983
+
11984
+
11985
+
11986
+
11987
+
11988
+
11989
+
11990
+
11991
+
11992
+
11993
+
11994
+
11995
+
11996
+
11997
+
11998
+
11999
+
12000
+
12001
+
12002
+
12003
+
12004
+
12005
+
12006
+
12007
+
12008
+
12009
+
12010
+
12011
+
12012
+
12013
+
12014
+
12015
+
12016
+
12017
+
12018
+
12019
+
12020
+
12021
+
12022
+
12023
+
12024
+
12025
+
12026
+
12027
+
12028
+
12029
+
12030
+
12031
+
12032
+
12033
+
12034
+
12035
+
12036
+
12037
+
12038
+
12039
+
12040
+
12041
+
12042
+
12043
+
12044
+
12045
+
12046
+
12047
+
12048
+
12049
+
12050
+
12051
+
12052
+
12053
+
12054
+
12055
+
12056
+
12057
+
12058
+ 74%|β–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–‹ | 10200/13822 [11:01:36<2:30:06, 2.49s/it]
12059
+
12060
+
12061
+
12062
+
12063
+
12064
+
12065
+
12066
+
12067
+
12068
+
12069
+
12070
+
12071
+
12072
+
12073
+
12074
+
12075
+
12076
+
12077
+
12078
+
12079
+
12080
+
12081
+
12082
+
12083
+
12084
+
12085
+
12086
+
12087
+
12088
+
12089
+
12090
+
12091
+
12092
+
12093
+
12094
+
12095
+
12096
+
12097
+
12098
+
12099
+
12100
+
12101
+
12102
+
12103
+
12104
+
12105
+
12106
+
12107
+
12108
+
12109
+
12110
+
12111
+
12112
+
12113
+
12114
+
12115
+
12116
+
12117
+
12118
+
12119
+
12120
+
12121
+
12122
+
12123
+
12124
+
12125
+
12126
+
12127
+
12128
+
12129
+
12130
+
12131
+
12132
+
12133
+
12134
+
12135
+
12136
+
12137
+
12138
+
12139
+
12140
+
12141
+
12142
+
12143
+
12144
+
12145
+
12146
+
12147
+
12148
+
12149
+
12150
+
12151
+
12152
+
12153
+
12154
+
12155
+
12156
+
12157
+ 75%|β–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–Š | 10300/13822 [11:06:48<2:23:49, 2.45s/it]
12158
+
12159
+
12160
+
12161
+
12162
+
12163
+
12164
+
12165
+
12166
+
12167
+
12168
+
12169
+
12170
+
12171
+
12172
+
12173
+
12174
+
12175
+
12176
+
12177
+
12178
+
12179
+
12180
+
12181
+
12182
+
12183
+
12184
+
12185
+
12186
+
12187
+
12188
+
12189
+
12190
+
12191
+
12192
+
12193
+
12194
+
12195
+
12196
+
12197
+
12198
+
12199
+
12200
+
12201
+
12202
+
12203
+
12204
+
12205
+
12206
+
12207
+
12208
+
12209
+
12210
+
12211
+
12212
+
12213
+
12214
+
12215
+
12216
+
12217
+
12218
+
12219
+
12220
+
12221
+
12222
+
12223
+
12224
+
12225
+
12226
+
12227
+
12228
+
12229
+
12230
+
12231
+
12232
+
12233
+
12234
+
12235
+
12236
+
12237
+
12238
+
12239
+
12240
+
12241
+
12242
+
12243
+
12244
+
12245
+
12246
+
12247
+
12248
+
12249
+
12250
+
12251
+
12252
+
12253
+
12254
+
12255
+ 75%|β–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–Š | 10400/13822 [11:11:58<2:21:55, 2.49s/it]
12256
+
12257
+
12258
+
12259
+
12260
+
12261
+
12262
+
12263
+
12264
+
12265
+
12266
+
12267
+
12268
+
12269
+
12270
+
12271
+
12272
+
12273
+
12274
+
12275
+
12276
+
12277
+
12278
+
12279
+
12280
+
12281
+
12282
+
12283
+
12284
+
12285
+
12286
+
12287
+
12288
+
12289
+
12290
+
12291
+
12292
+
12293
+
12294
+
12295
+
12296
+
12297
+
12298
+
12299
+
12300
+
12301
+
12302
+
12303
+
12304
+
12305
+
12306
+
12307
+
12308
+
12309
+
12310
+
12311
+
12312
+
12313
+
12314
+
12315
+
12316
+
12317
+
12318
+
12319
+
12320
+
12321
+
12322
+
12323
+
12324
+
12325
+
12326
+
12327
+
12328
+
12329
+
12330
+
12331
+
12332
+
12333
+
12334
+
12335
+
12336
+
12337
+
12338
+
12339
+
12340
+
12341
+
12342
+
12343
+
12344
+
12345
+
12346
+
12347
+
12348
+
12349
+
12350
+
12351
+
12352
+ 76%|β–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–‰ | 10499/13822 [11:17:07<2:13:00, 2.40s/it]
12353
+ 76%|β–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–‰ | 10500/13822 [11:17:09<2:15:11, 2.44s/it]The following columns in the evaluation set don't have a corresponding argument in `Wav2Vec2ForCTC.forward` and have been ignored: input_length.
12354
+ ***** Running Evaluation *****
12355
+ Num examples = 5792
12356
+ Batch size = 64
12357
+
12358
+
12359
+
12360
+
12361
+
12362
+
12363
+
12364
+
12365
+
12366
+
12367
+
12368
+
12369
+
12370
+
12371
+
12372
+
12373
+
12374
+
12375
+
12376
+
12377
+
12378
+
12379
+
12380
+
12381
+
12382
+
12383
+
12384
+
12385
+
12386
+
12387
+
12388
+
12389
+
12390
+
12391
+
12392
+
12393
+
12394
+
12395
+
12396
+
12397
+
12398
+
12399
+
12400
+
12401
+
12402
+
12403
+
12404
+
12405
+
12406
+
12407
+
12408
+
12409
+
12410
+
12411
+
12412
+
12413
+
12414
+
12415
+
12416
+
12417
+
12418
+
12419
+
12420
+
12421
+
12422
+
12423
+
12424
+
12425
+
12426
+
12427
+
12428
+
12429
+
12430
+
12431
+
12432
+
12433
+
12434
+
12435
+
12436
+
12437
+
12438
+
12439
+
12440
+
12441
+
12442
+
12443
+
12444
+
12445
+
12446
+
12447
+ 100%|β–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆ| 91/91 [04:09<00:00, 2.38s/it]
12448
+
12449
+ Configuration saved in ./checkpoint-10500/config.json
12450
+ Model weights saved in ./checkpoint-10500/pytorch_model.bin
12451
+ Configuration saved in ./checkpoint-10500/preprocessor_config.json
wandb/run-20220129_215451-1vipdbow/files/wandb-summary.json CHANGED
The diff for this file is too large to render. See raw diff
 
wandb/run-20220129_215451-1vipdbow/logs/debug-internal.log CHANGED
The diff for this file is too large to render. See raw diff
 
wandb/run-20220129_215451-1vipdbow/run-1vipdbow.wandb CHANGED
@@ -1,3 +1,3 @@
1
  version https://git-lfs.github.com/spec/v1
2
- oid sha256:77f184675bb9cff709483a74e624b9003a535863c64b969043f0125dc49c41bf
3
- size 73591862
 
1
  version https://git-lfs.github.com/spec/v1
2
+ oid sha256:7d2bb36799a6301689fbdeaab873223a7f7a82fe810cde45da777a6cd2b29d6d
3
+ size 77625447