jt5d commited on
Commit
2632fe5
·
1 Parent(s): 007bec8

Training in progress epoch 8

Browse files
Files changed (2) hide show
  1. README.md +28 -27
  2. tf_model.h5 +1 -1
README.md CHANGED
@@ -16,18 +16,18 @@ probably proofread and complete it, then remove this comment. -->
16
 
17
  This model is a fine-tuned version of [nvidia/mit-b0](https://huggingface.co/nvidia/mit-b0) on an unknown dataset.
18
  It achieves the following results on the evaluation set:
19
- - Train Loss: 4.1639
20
- - Validation Loss: 4.3635
21
- - Validation Mean Iou: 0.0135
22
- - Validation Mean Accuracy: 0.0438
23
- - Validation Overall Accuracy: 0.1740
24
- - Validation Accuracy Wall: 0.0644
25
- - Validation Accuracy Building: 0.0848
26
- - Validation Accuracy Sky: 0.5881
27
- - Validation Accuracy Floor: 0.3914
28
- - Validation Accuracy Tree: 0.6953
29
  - Validation Accuracy Ceiling: 0.0
30
- - Validation Accuracy Road: 0.1022
31
  - Validation Accuracy Bed : 0.0
32
  - Validation Accuracy Windowpane: 0.0
33
  - Validation Accuracy Grass: 0.0
@@ -38,7 +38,7 @@ It achieves the following results on the evaluation set:
38
  - Validation Accuracy Door: nan
39
  - Validation Accuracy Table: 0.0
40
  - Validation Accuracy Mountain: 0.0
41
- - Validation Accuracy Plant: 0.0
42
  - Validation Accuracy Curtain: 0.0
43
  - Validation Accuracy Chair: 0.0
44
  - Validation Accuracy Car: 0.0
@@ -48,7 +48,7 @@ It achieves the following results on the evaluation set:
48
  - Validation Accuracy Shelf: nan
49
  - Validation Accuracy House: nan
50
  - Validation Accuracy Sea: nan
51
- - Validation Accuracy Mirror: 0.0016
52
  - Validation Accuracy Rug: nan
53
  - Validation Accuracy Field: 0.0
54
  - Validation Accuracy Armchair: nan
@@ -171,13 +171,13 @@ It achieves the following results on the evaluation set:
171
  - Validation Accuracy Glass: nan
172
  - Validation Accuracy Clock: nan
173
  - Validation Accuracy Flag: nan
174
- - Validation Iou Wall: 0.0534
175
- - Validation Iou Building: 0.0734
176
- - Validation Iou Sky: 0.1416
177
- - Validation Iou Floor: 0.2374
178
- - Validation Iou Tree: 0.1057
179
  - Validation Iou Ceiling: 0.0
180
- - Validation Iou Road: 0.0600
181
  - Validation Iou Bed : 0.0
182
  - Validation Iou Windowpane: 0.0
183
  - Validation Iou Grass: 0.0
@@ -188,7 +188,7 @@ It achieves the following results on the evaluation set:
188
  - Validation Iou Door: 0.0
189
  - Validation Iou Table: 0.0
190
  - Validation Iou Mountain: 0.0
191
- - Validation Iou Plant: 0.0
192
  - Validation Iou Curtain: 0.0
193
  - Validation Iou Chair: 0.0
194
  - Validation Iou Car: 0.0
@@ -196,9 +196,9 @@ It achieves the following results on the evaluation set:
196
  - Validation Iou Painting: nan
197
  - Validation Iou Sofa: 0.0
198
  - Validation Iou Shelf: nan
199
- - Validation Iou House: nan
200
  - Validation Iou Sea: nan
201
- - Validation Iou Mirror: 0.0016
202
  - Validation Iou Rug: nan
203
  - Validation Iou Field: 0.0
204
  - Validation Iou Armchair: nan
@@ -211,11 +211,11 @@ It achieves the following results on the evaluation set:
211
  - Validation Iou Bathtub: 0.0
212
  - Validation Iou Railing: nan
213
  - Validation Iou Cushion: nan
214
- - Validation Iou Base: 0.0
215
- - Validation Iou Box: 0.0
216
  - Validation Iou Column: nan
217
  - Validation Iou Signboard: nan
218
- - Validation Iou Chest of drawers: nan
219
  - Validation Iou Counter: nan
220
  - Validation Iou Sand: 0.0
221
  - Validation Iou Sink: 0.0
@@ -294,7 +294,7 @@ It achieves the following results on the evaluation set:
294
  - Validation Iou Food: nan
295
  - Validation Iou Step: nan
296
  - Validation Iou Tank: nan
297
- - Validation Iou Trade name: 0.0
298
  - Validation Iou Microwave: 0.0
299
  - Validation Iou Pot: 0.0
300
  - Validation Iou Animal: 0.0
@@ -321,7 +321,7 @@ It achieves the following results on the evaluation set:
321
  - Validation Iou Glass: nan
322
  - Validation Iou Clock: nan
323
  - Validation Iou Flag: nan
324
- - Epoch: 7
325
 
326
  ## Model description
327
 
@@ -355,6 +355,7 @@ The following hyperparameters were used during training:
355
  | 4.4641 | 4.4976 | 0.0150 | 0.0431 | 0.1782 | 0.2148 | 0.0650 | 0.7553 | 0.2804 | 0.4260 | 0.0 | 0.1507 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | nan | nan | 0.0 | 0.0020 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | nan | 0.0 | nan | nan | nan | 0.0 | nan | 0.0 | nan | 0.0 | nan | nan | nan | 0.0 | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | 0.0 | nan | nan | 0.0 | nan | nan | nan | 0.0 | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | 0.0 | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | 0.0 | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | 0.0 | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 0.0956 | 0.0575 | 0.1491 | 0.1966 | 0.1131 | 0.0 | 0.0783 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | nan | 0.0 | 0.0 | 0.0017 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | nan | 0.0 | nan | nan | nan | 0.0 | nan | 0.0 | nan | 0.0 | nan | nan | nan | 0.0 | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | 0.0 | nan | nan | 0.0 | nan | nan | nan | 0.0 | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | 0.0 | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | 0.0 | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | 0.0 | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | 0.0 | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 5 |
356
  | 4.1900 | 4.3712 | 0.0118 | 0.0405 | 0.1005 | 0.0432 | 0.1648 | 0.0772 | 0.3395 | 0.1458 | 0.0 | 0.0940 | 0.0 | 0.0 | 0.0 | 0.0041 | 0.0 | 0.0 | nan | nan | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | nan | 0.0 | nan | nan | nan | 0.0 | nan | 0.0 | nan | 0.0 | nan | nan | nan | 0.0 | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | 0.0 | nan | nan | 0.0 | nan | nan | nan | 0.0 | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | 0.0 | 0.9153 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | 0.0 | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | 0.0 | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 0.0409 | 0.1215 | 0.0450 | 0.2255 | 0.0695 | 0.0 | 0.0557 | 0.0 | 0.0 | 0.0 | 0.0034 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | nan | 0.0 | nan | nan | nan | 0.0 | nan | 0.0 | nan | 0.0 | nan | nan | nan | 0.0 | nan | 0.0 | nan | 0.0 | nan | nan | nan | nan | 0.0 | nan | 0.0 | 0.0 | nan | nan | 0.0 | nan | nan | nan | 0.0 | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | 0.0 | 0.0053 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | 0.0 | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | 0.0 | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 6 |
357
  | 4.1639 | 4.3635 | 0.0135 | 0.0438 | 0.1740 | 0.0644 | 0.0848 | 0.5881 | 0.3914 | 0.6953 | 0.0 | 0.1022 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | nan | nan | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | nan | 0.0 | nan | nan | nan | 0.0016 | nan | 0.0 | nan | 0.0 | nan | nan | nan | 0.0 | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | 0.0 | nan | nan | 0.0 | nan | nan | nan | 0.0 | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | 0.0 | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | 0.0 | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | 0.0 | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 0.0534 | 0.0734 | 0.1416 | 0.2374 | 0.1057 | 0.0 | 0.0600 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | nan | 0.0 | nan | nan | nan | 0.0016 | nan | 0.0 | nan | 0.0 | nan | nan | nan | 0.0 | nan | 0.0 | nan | nan | 0.0 | 0.0 | nan | nan | nan | nan | 0.0 | 0.0 | nan | nan | 0.0 | nan | nan | nan | 0.0 | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | 0.0 | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | 0.0 | 0.0 | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | 0.0 | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 7 |
 
358
 
359
 
360
  ### Framework versions
 
16
 
17
  This model is a fine-tuned version of [nvidia/mit-b0](https://huggingface.co/nvidia/mit-b0) on an unknown dataset.
18
  It achieves the following results on the evaluation set:
19
+ - Train Loss: 4.0087
20
+ - Validation Loss: 4.2223
21
+ - Validation Mean Iou: 0.0139
22
+ - Validation Mean Accuracy: 0.0443
23
+ - Validation Overall Accuracy: 0.2218
24
+ - Validation Accuracy Wall: 0.0628
25
+ - Validation Accuracy Building: 0.6925
26
+ - Validation Accuracy Sky: 0.0
27
+ - Validation Accuracy Floor: 0.4531
28
+ - Validation Accuracy Tree: 0.6593
29
  - Validation Accuracy Ceiling: 0.0
30
+ - Validation Accuracy Road: 0.0068
31
  - Validation Accuracy Bed : 0.0
32
  - Validation Accuracy Windowpane: 0.0
33
  - Validation Accuracy Grass: 0.0
 
38
  - Validation Accuracy Door: nan
39
  - Validation Accuracy Table: 0.0
40
  - Validation Accuracy Mountain: 0.0
41
+ - Validation Accuracy Plant: 0.0735
42
  - Validation Accuracy Curtain: 0.0
43
  - Validation Accuracy Chair: 0.0
44
  - Validation Accuracy Car: 0.0
 
48
  - Validation Accuracy Shelf: nan
49
  - Validation Accuracy House: nan
50
  - Validation Accuracy Sea: nan
51
+ - Validation Accuracy Mirror: 0.0
52
  - Validation Accuracy Rug: nan
53
  - Validation Accuracy Field: 0.0
54
  - Validation Accuracy Armchair: nan
 
171
  - Validation Accuracy Glass: nan
172
  - Validation Accuracy Clock: nan
173
  - Validation Accuracy Flag: nan
174
+ - Validation Iou Wall: 0.0537
175
+ - Validation Iou Building: 0.2078
176
+ - Validation Iou Sky: 0.0
177
+ - Validation Iou Floor: 0.2667
178
+ - Validation Iou Tree: 0.1140
179
  - Validation Iou Ceiling: 0.0
180
+ - Validation Iou Road: 0.0064
181
  - Validation Iou Bed : 0.0
182
  - Validation Iou Windowpane: 0.0
183
  - Validation Iou Grass: 0.0
 
188
  - Validation Iou Door: 0.0
189
  - Validation Iou Table: 0.0
190
  - Validation Iou Mountain: 0.0
191
+ - Validation Iou Plant: 0.0348
192
  - Validation Iou Curtain: 0.0
193
  - Validation Iou Chair: 0.0
194
  - Validation Iou Car: 0.0
 
196
  - Validation Iou Painting: nan
197
  - Validation Iou Sofa: 0.0
198
  - Validation Iou Shelf: nan
199
+ - Validation Iou House: 0.0
200
  - Validation Iou Sea: nan
201
+ - Validation Iou Mirror: 0.0
202
  - Validation Iou Rug: nan
203
  - Validation Iou Field: 0.0
204
  - Validation Iou Armchair: nan
 
211
  - Validation Iou Bathtub: 0.0
212
  - Validation Iou Railing: nan
213
  - Validation Iou Cushion: nan
214
+ - Validation Iou Base: nan
215
+ - Validation Iou Box: nan
216
  - Validation Iou Column: nan
217
  - Validation Iou Signboard: nan
218
+ - Validation Iou Chest of drawers: 0.0
219
  - Validation Iou Counter: nan
220
  - Validation Iou Sand: 0.0
221
  - Validation Iou Sink: 0.0
 
294
  - Validation Iou Food: nan
295
  - Validation Iou Step: nan
296
  - Validation Iou Tank: nan
297
+ - Validation Iou Trade name: nan
298
  - Validation Iou Microwave: 0.0
299
  - Validation Iou Pot: 0.0
300
  - Validation Iou Animal: 0.0
 
321
  - Validation Iou Glass: nan
322
  - Validation Iou Clock: nan
323
  - Validation Iou Flag: nan
324
+ - Epoch: 8
325
 
326
  ## Model description
327
 
 
355
  | 4.4641 | 4.4976 | 0.0150 | 0.0431 | 0.1782 | 0.2148 | 0.0650 | 0.7553 | 0.2804 | 0.4260 | 0.0 | 0.1507 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | nan | nan | 0.0 | 0.0020 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | nan | 0.0 | nan | nan | nan | 0.0 | nan | 0.0 | nan | 0.0 | nan | nan | nan | 0.0 | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | 0.0 | nan | nan | 0.0 | nan | nan | nan | 0.0 | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | 0.0 | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | 0.0 | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | 0.0 | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 0.0956 | 0.0575 | 0.1491 | 0.1966 | 0.1131 | 0.0 | 0.0783 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | nan | 0.0 | 0.0 | 0.0017 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | nan | 0.0 | nan | nan | nan | 0.0 | nan | 0.0 | nan | 0.0 | nan | nan | nan | 0.0 | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | 0.0 | nan | nan | 0.0 | nan | nan | nan | 0.0 | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | 0.0 | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | 0.0 | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | 0.0 | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | 0.0 | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 5 |
356
  | 4.1900 | 4.3712 | 0.0118 | 0.0405 | 0.1005 | 0.0432 | 0.1648 | 0.0772 | 0.3395 | 0.1458 | 0.0 | 0.0940 | 0.0 | 0.0 | 0.0 | 0.0041 | 0.0 | 0.0 | nan | nan | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | nan | 0.0 | nan | nan | nan | 0.0 | nan | 0.0 | nan | 0.0 | nan | nan | nan | 0.0 | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | 0.0 | nan | nan | 0.0 | nan | nan | nan | 0.0 | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | 0.0 | 0.9153 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | 0.0 | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | 0.0 | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 0.0409 | 0.1215 | 0.0450 | 0.2255 | 0.0695 | 0.0 | 0.0557 | 0.0 | 0.0 | 0.0 | 0.0034 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | nan | 0.0 | nan | nan | nan | 0.0 | nan | 0.0 | nan | 0.0 | nan | nan | nan | 0.0 | nan | 0.0 | nan | 0.0 | nan | nan | nan | nan | 0.0 | nan | 0.0 | 0.0 | nan | nan | 0.0 | nan | nan | nan | 0.0 | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | 0.0 | 0.0053 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | 0.0 | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | 0.0 | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 6 |
357
  | 4.1639 | 4.3635 | 0.0135 | 0.0438 | 0.1740 | 0.0644 | 0.0848 | 0.5881 | 0.3914 | 0.6953 | 0.0 | 0.1022 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | nan | nan | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | nan | 0.0 | nan | nan | nan | 0.0016 | nan | 0.0 | nan | 0.0 | nan | nan | nan | 0.0 | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | 0.0 | nan | nan | 0.0 | nan | nan | nan | 0.0 | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | 0.0 | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | 0.0 | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | 0.0 | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 0.0534 | 0.0734 | 0.1416 | 0.2374 | 0.1057 | 0.0 | 0.0600 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | nan | 0.0 | nan | nan | nan | 0.0016 | nan | 0.0 | nan | 0.0 | nan | nan | nan | 0.0 | nan | 0.0 | nan | nan | 0.0 | 0.0 | nan | nan | nan | nan | 0.0 | 0.0 | nan | nan | 0.0 | nan | nan | nan | 0.0 | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | 0.0 | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | 0.0 | 0.0 | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | 0.0 | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 7 |
358
+ | 4.0087 | 4.2223 | 0.0139 | 0.0443 | 0.2218 | 0.0628 | 0.6925 | 0.0 | 0.4531 | 0.6593 | 0.0 | 0.0068 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | nan | nan | 0.0 | 0.0 | 0.0735 | 0.0 | 0.0 | 0.0 | 0.0 | nan | 0.0 | nan | nan | nan | 0.0 | nan | 0.0 | nan | 0.0 | nan | nan | nan | 0.0 | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | 0.0 | nan | nan | 0.0 | nan | nan | nan | 0.0 | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | 0.0 | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | 0.0 | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | 0.0 | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 0.0537 | 0.2078 | 0.0 | 0.2667 | 0.1140 | 0.0 | 0.0064 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0348 | 0.0 | 0.0 | 0.0 | 0.0 | nan | 0.0 | nan | 0.0 | nan | 0.0 | nan | 0.0 | nan | 0.0 | nan | nan | nan | 0.0 | nan | 0.0 | nan | nan | nan | nan | nan | nan | 0.0 | nan | 0.0 | 0.0 | nan | nan | 0.0 | nan | nan | nan | 0.0 | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | 0.0 | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | 0.0 | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | 0.0 | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 8 |
359
 
360
 
361
  ### Framework versions
tf_model.h5 CHANGED
@@ -1,3 +1,3 @@
1
  version https://git-lfs.github.com/spec/v1
2
- oid sha256:fafafc71527efa3fce20a208ee9d783bd28ef5e15ef084eea24414905f2ae9a2
3
  size 15285696
 
1
  version https://git-lfs.github.com/spec/v1
2
+ oid sha256:a898321236201ebf22acce1ca726e4a7773c43068f417c0b37a1167a500afed4
3
  size 15285696