|
{ |
|
"best_metric": 0.70501708984375, |
|
"best_model_checkpoint": "vit-base-patch16-224-in21k-rotated-dungeons-v11/checkpoint-300", |
|
"epoch": 27.0, |
|
"eval_steps": 100, |
|
"global_step": 324, |
|
"is_hyper_param_search": false, |
|
"is_local_process_zero": true, |
|
"is_world_process_zero": true, |
|
"log_history": [ |
|
{ |
|
"epoch": 0.8333333333333334, |
|
"grad_norm": 0.7690829634666443, |
|
"learning_rate": 9.691358024691358e-06, |
|
"loss": 0.1644, |
|
"step": 10 |
|
}, |
|
{ |
|
"epoch": 1.6666666666666665, |
|
"grad_norm": 5.240622520446777, |
|
"learning_rate": 9.382716049382717e-06, |
|
"loss": 0.1883, |
|
"step": 20 |
|
}, |
|
{ |
|
"epoch": 2.5, |
|
"grad_norm": 1.536397099494934, |
|
"learning_rate": 9.074074074074075e-06, |
|
"loss": 0.1732, |
|
"step": 30 |
|
}, |
|
{ |
|
"epoch": 3.3333333333333335, |
|
"grad_norm": 1.8029364347457886, |
|
"learning_rate": 8.765432098765432e-06, |
|
"loss": 0.1666, |
|
"step": 40 |
|
}, |
|
{ |
|
"epoch": 4.166666666666667, |
|
"grad_norm": 0.6660683155059814, |
|
"learning_rate": 8.456790123456791e-06, |
|
"loss": 0.1536, |
|
"step": 50 |
|
}, |
|
{ |
|
"epoch": 5.0, |
|
"grad_norm": 0.8398900032043457, |
|
"learning_rate": 8.148148148148148e-06, |
|
"loss": 0.1528, |
|
"step": 60 |
|
}, |
|
{ |
|
"epoch": 5.833333333333333, |
|
"grad_norm": 0.7446826696395874, |
|
"learning_rate": 7.839506172839507e-06, |
|
"loss": 0.1502, |
|
"step": 70 |
|
}, |
|
{ |
|
"epoch": 6.666666666666667, |
|
"grad_norm": 1.3342101573944092, |
|
"learning_rate": 7.530864197530865e-06, |
|
"loss": 0.15, |
|
"step": 80 |
|
}, |
|
{ |
|
"epoch": 7.5, |
|
"grad_norm": 1.0920078754425049, |
|
"learning_rate": 7.222222222222223e-06, |
|
"loss": 0.1494, |
|
"step": 90 |
|
}, |
|
{ |
|
"epoch": 8.333333333333334, |
|
"grad_norm": 0.5975252389907837, |
|
"learning_rate": 6.913580246913581e-06, |
|
"loss": 0.1396, |
|
"step": 100 |
|
}, |
|
{ |
|
"epoch": 8.333333333333334, |
|
"eval_accuracy": 0.875, |
|
"eval_loss": 0.7252655029296875, |
|
"eval_runtime": 0.095, |
|
"eval_samples_per_second": 84.236, |
|
"eval_steps_per_second": 10.529, |
|
"step": 100 |
|
}, |
|
{ |
|
"epoch": 9.166666666666666, |
|
"grad_norm": 0.576201856136322, |
|
"learning_rate": 6.60493827160494e-06, |
|
"loss": 0.1407, |
|
"step": 110 |
|
}, |
|
{ |
|
"epoch": 10.0, |
|
"grad_norm": 0.5525928735733032, |
|
"learning_rate": 6.296296296296297e-06, |
|
"loss": 0.1399, |
|
"step": 120 |
|
}, |
|
{ |
|
"epoch": 10.833333333333334, |
|
"grad_norm": 0.8266479969024658, |
|
"learning_rate": 5.9876543209876546e-06, |
|
"loss": 0.1365, |
|
"step": 130 |
|
}, |
|
{ |
|
"epoch": 11.666666666666666, |
|
"grad_norm": 0.6235507130622864, |
|
"learning_rate": 5.6790123456790125e-06, |
|
"loss": 0.1299, |
|
"step": 140 |
|
}, |
|
{ |
|
"epoch": 12.5, |
|
"grad_norm": 0.5794048309326172, |
|
"learning_rate": 5.370370370370371e-06, |
|
"loss": 0.1318, |
|
"step": 150 |
|
}, |
|
{ |
|
"epoch": 13.333333333333334, |
|
"grad_norm": 0.4382638931274414, |
|
"learning_rate": 5.061728395061729e-06, |
|
"loss": 0.1328, |
|
"step": 160 |
|
}, |
|
{ |
|
"epoch": 14.166666666666666, |
|
"grad_norm": 0.5124505758285522, |
|
"learning_rate": 4.753086419753087e-06, |
|
"loss": 0.1201, |
|
"step": 170 |
|
}, |
|
{ |
|
"epoch": 15.0, |
|
"grad_norm": 0.4952060878276825, |
|
"learning_rate": 4.444444444444444e-06, |
|
"loss": 0.1289, |
|
"step": 180 |
|
}, |
|
{ |
|
"epoch": 15.833333333333334, |
|
"grad_norm": 0.5130446553230286, |
|
"learning_rate": 4.135802469135803e-06, |
|
"loss": 0.126, |
|
"step": 190 |
|
}, |
|
{ |
|
"epoch": 16.666666666666668, |
|
"grad_norm": 0.47538742423057556, |
|
"learning_rate": 3.827160493827161e-06, |
|
"loss": 0.1215, |
|
"step": 200 |
|
}, |
|
{ |
|
"epoch": 16.666666666666668, |
|
"eval_accuracy": 0.875, |
|
"eval_loss": 0.71337890625, |
|
"eval_runtime": 0.102, |
|
"eval_samples_per_second": 78.404, |
|
"eval_steps_per_second": 9.801, |
|
"step": 200 |
|
}, |
|
{ |
|
"epoch": 17.5, |
|
"grad_norm": 0.4837852120399475, |
|
"learning_rate": 3.5185185185185187e-06, |
|
"loss": 0.1286, |
|
"step": 210 |
|
}, |
|
{ |
|
"epoch": 18.333333333333332, |
|
"grad_norm": 0.472771018743515, |
|
"learning_rate": 3.2098765432098767e-06, |
|
"loss": 0.1191, |
|
"step": 220 |
|
}, |
|
{ |
|
"epoch": 19.166666666666668, |
|
"grad_norm": 0.39906787872314453, |
|
"learning_rate": 2.901234567901235e-06, |
|
"loss": 0.1156, |
|
"step": 230 |
|
}, |
|
{ |
|
"epoch": 20.0, |
|
"grad_norm": 0.54490727186203, |
|
"learning_rate": 2.5925925925925925e-06, |
|
"loss": 0.1241, |
|
"step": 240 |
|
}, |
|
{ |
|
"epoch": 20.833333333333332, |
|
"grad_norm": 0.5751241445541382, |
|
"learning_rate": 2.283950617283951e-06, |
|
"loss": 0.118, |
|
"step": 250 |
|
}, |
|
{ |
|
"epoch": 21.666666666666668, |
|
"grad_norm": 0.4648211598396301, |
|
"learning_rate": 1.9753086419753087e-06, |
|
"loss": 0.1257, |
|
"step": 260 |
|
}, |
|
{ |
|
"epoch": 22.5, |
|
"grad_norm": 0.46896305680274963, |
|
"learning_rate": 1.6666666666666667e-06, |
|
"loss": 0.1183, |
|
"step": 270 |
|
}, |
|
{ |
|
"epoch": 23.333333333333332, |
|
"grad_norm": 0.4199012517929077, |
|
"learning_rate": 1.3580246913580248e-06, |
|
"loss": 0.116, |
|
"step": 280 |
|
}, |
|
{ |
|
"epoch": 24.166666666666668, |
|
"grad_norm": 0.45512181520462036, |
|
"learning_rate": 1.0493827160493827e-06, |
|
"loss": 0.1164, |
|
"step": 290 |
|
}, |
|
{ |
|
"epoch": 25.0, |
|
"grad_norm": 0.527928352355957, |
|
"learning_rate": 7.407407407407407e-07, |
|
"loss": 0.1175, |
|
"step": 300 |
|
}, |
|
{ |
|
"epoch": 25.0, |
|
"eval_accuracy": 0.875, |
|
"eval_loss": 0.70501708984375, |
|
"eval_runtime": 0.0737, |
|
"eval_samples_per_second": 108.51, |
|
"eval_steps_per_second": 13.564, |
|
"step": 300 |
|
}, |
|
{ |
|
"epoch": 25.833333333333332, |
|
"grad_norm": 0.3864317834377289, |
|
"learning_rate": 4.320987654320988e-07, |
|
"loss": 0.1147, |
|
"step": 310 |
|
}, |
|
{ |
|
"epoch": 26.666666666666668, |
|
"grad_norm": 0.46536338329315186, |
|
"learning_rate": 1.234567901234568e-07, |
|
"loss": 0.1191, |
|
"step": 320 |
|
}, |
|
{ |
|
"epoch": 27.0, |
|
"step": 324, |
|
"total_flos": 9.834174165305549e+16, |
|
"train_loss": 0.13507753610610962, |
|
"train_runtime": 115.2462, |
|
"train_samples_per_second": 11.011, |
|
"train_steps_per_second": 2.811 |
|
} |
|
], |
|
"logging_steps": 10, |
|
"max_steps": 324, |
|
"num_input_tokens_seen": 0, |
|
"num_train_epochs": 27, |
|
"save_steps": 100, |
|
"stateful_callbacks": { |
|
"TrainerControl": { |
|
"args": { |
|
"should_epoch_stop": false, |
|
"should_evaluate": false, |
|
"should_log": false, |
|
"should_save": true, |
|
"should_training_stop": true |
|
}, |
|
"attributes": {} |
|
} |
|
}, |
|
"total_flos": 9.834174165305549e+16, |
|
"train_batch_size": 4, |
|
"trial_name": null, |
|
"trial_params": null |
|
} |
|
|