{ "best_metric": 0.9, "best_model_checkpoint": "videomae-base-finetuned-ucf101-subset/checkpoint-1200", "epoch": 3.25, "eval_steps": 500, "global_step": 1200, "is_hyper_param_search": false, "is_local_process_zero": true, "is_world_process_zero": true, "log_history": [ { "epoch": 0.008333333333333333, "grad_norm": 78.46599578857422, "learning_rate": 4.166666666666667e-06, "loss": 2.0712, "step": 10 }, { "epoch": 0.016666666666666666, "grad_norm": 20.7692813873291, "learning_rate": 8.333333333333334e-06, "loss": 2.2519, "step": 20 }, { "epoch": 0.025, "grad_norm": 25.544153213500977, "learning_rate": 1.25e-05, "loss": 2.5336, "step": 30 }, { "epoch": 0.03333333333333333, "grad_norm": 17.719911575317383, "learning_rate": 1.6666666666666667e-05, "loss": 2.2591, "step": 40 }, { "epoch": 0.041666666666666664, "grad_norm": 19.153322219848633, "learning_rate": 2.0833333333333336e-05, "loss": 2.4697, "step": 50 }, { "epoch": 0.05, "grad_norm": 19.67510223388672, "learning_rate": 2.5e-05, "loss": 2.1923, "step": 60 }, { "epoch": 0.058333333333333334, "grad_norm": 28.729928970336914, "learning_rate": 2.916666666666667e-05, "loss": 2.1666, "step": 70 }, { "epoch": 0.06666666666666667, "grad_norm": 21.282651901245117, "learning_rate": 3.3333333333333335e-05, "loss": 2.3452, "step": 80 }, { "epoch": 0.075, "grad_norm": 21.08527946472168, "learning_rate": 3.7500000000000003e-05, "loss": 1.9653, "step": 90 }, { "epoch": 0.08333333333333333, "grad_norm": 25.22877311706543, "learning_rate": 4.166666666666667e-05, "loss": 2.0535, "step": 100 }, { "epoch": 0.09166666666666666, "grad_norm": 21.616727828979492, "learning_rate": 4.5833333333333334e-05, "loss": 2.4145, "step": 110 }, { "epoch": 0.1, "grad_norm": 22.613147735595703, "learning_rate": 5e-05, "loss": 2.0636, "step": 120 }, { "epoch": 0.10833333333333334, "grad_norm": 25.145366668701172, "learning_rate": 4.9537037037037035e-05, "loss": 2.1295, "step": 130 }, { "epoch": 0.11666666666666667, "grad_norm": 27.840431213378906, "learning_rate": 4.9074074074074075e-05, "loss": 2.0761, "step": 140 }, { "epoch": 0.125, "grad_norm": 18.28734588623047, "learning_rate": 4.8611111111111115e-05, "loss": 1.7775, "step": 150 }, { "epoch": 0.13333333333333333, "grad_norm": 43.08827209472656, "learning_rate": 4.814814814814815e-05, "loss": 1.6167, "step": 160 }, { "epoch": 0.14166666666666666, "grad_norm": 10.324146270751953, "learning_rate": 4.768518518518519e-05, "loss": 1.7716, "step": 170 }, { "epoch": 0.15, "grad_norm": 26.857784271240234, "learning_rate": 4.722222222222222e-05, "loss": 1.9417, "step": 180 }, { "epoch": 0.15833333333333333, "grad_norm": 19.230802536010742, "learning_rate": 4.675925925925926e-05, "loss": 2.2409, "step": 190 }, { "epoch": 0.16666666666666666, "grad_norm": 23.071319580078125, "learning_rate": 4.62962962962963e-05, "loss": 1.3513, "step": 200 }, { "epoch": 0.175, "grad_norm": 34.22331237792969, "learning_rate": 4.5833333333333334e-05, "loss": 2.547, "step": 210 }, { "epoch": 0.18333333333333332, "grad_norm": 4.66353702545166, "learning_rate": 4.5370370370370374e-05, "loss": 1.1506, "step": 220 }, { "epoch": 0.19166666666666668, "grad_norm": 24.437355041503906, "learning_rate": 4.490740740740741e-05, "loss": 1.6868, "step": 230 }, { "epoch": 0.2, "grad_norm": 1.813467264175415, "learning_rate": 4.4444444444444447e-05, "loss": 2.3595, "step": 240 }, { "epoch": 0.20833333333333334, "grad_norm": 46.87567138671875, "learning_rate": 4.3981481481481486e-05, "loss": 1.3579, "step": 250 }, { "epoch": 0.21666666666666667, "grad_norm": 28.7318115234375, "learning_rate": 4.351851851851852e-05, "loss": 1.8345, "step": 260 }, { "epoch": 0.225, "grad_norm": 2.8550145626068115, "learning_rate": 4.305555555555556e-05, "loss": 1.7643, "step": 270 }, { "epoch": 0.23333333333333334, "grad_norm": 22.696510314941406, "learning_rate": 4.259259259259259e-05, "loss": 1.7425, "step": 280 }, { "epoch": 0.24166666666666667, "grad_norm": 21.85480308532715, "learning_rate": 4.212962962962963e-05, "loss": 0.8096, "step": 290 }, { "epoch": 0.25, "grad_norm": 33.1050910949707, "learning_rate": 4.166666666666667e-05, "loss": 1.3609, "step": 300 }, { "epoch": 0.25, "eval_accuracy": 0.42857142857142855, "eval_loss": 1.5158770084381104, "eval_runtime": 30.6867, "eval_samples_per_second": 2.281, "eval_steps_per_second": 2.281, "step": 300 }, { "epoch": 1.0083333333333333, "grad_norm": 59.73588180541992, "learning_rate": 4.1203703703703705e-05, "loss": 0.8938, "step": 310 }, { "epoch": 1.0166666666666666, "grad_norm": 18.30124282836914, "learning_rate": 4.074074074074074e-05, "loss": 0.7511, "step": 320 }, { "epoch": 1.025, "grad_norm": 39.17079544067383, "learning_rate": 4.027777777777778e-05, "loss": 1.8795, "step": 330 }, { "epoch": 1.0333333333333334, "grad_norm": 2.991403579711914, "learning_rate": 3.981481481481482e-05, "loss": 1.5525, "step": 340 }, { "epoch": 1.0416666666666667, "grad_norm": 0.27790603041648865, "learning_rate": 3.935185185185186e-05, "loss": 0.8893, "step": 350 }, { "epoch": 1.05, "grad_norm": 52.642921447753906, "learning_rate": 3.888888888888889e-05, "loss": 1.3285, "step": 360 }, { "epoch": 1.0583333333333333, "grad_norm": 143.4131317138672, "learning_rate": 3.8425925925925924e-05, "loss": 1.4929, "step": 370 }, { "epoch": 1.0666666666666667, "grad_norm": 1.8216307163238525, "learning_rate": 3.7962962962962964e-05, "loss": 1.2163, "step": 380 }, { "epoch": 1.075, "grad_norm": 154.83181762695312, "learning_rate": 3.7500000000000003e-05, "loss": 1.6009, "step": 390 }, { "epoch": 1.0833333333333333, "grad_norm": 83.43389129638672, "learning_rate": 3.7037037037037037e-05, "loss": 1.4486, "step": 400 }, { "epoch": 1.0916666666666666, "grad_norm": 10.843713760375977, "learning_rate": 3.6574074074074076e-05, "loss": 0.4959, "step": 410 }, { "epoch": 1.1, "grad_norm": 0.45853012800216675, "learning_rate": 3.611111111111111e-05, "loss": 1.1704, "step": 420 }, { "epoch": 1.1083333333333334, "grad_norm": 33.77210235595703, "learning_rate": 3.564814814814815e-05, "loss": 1.4854, "step": 430 }, { "epoch": 1.1166666666666667, "grad_norm": 120.2208023071289, "learning_rate": 3.518518518518519e-05, "loss": 1.0613, "step": 440 }, { "epoch": 1.125, "grad_norm": 31.664297103881836, "learning_rate": 3.472222222222222e-05, "loss": 1.6271, "step": 450 }, { "epoch": 1.1333333333333333, "grad_norm": 2.918891429901123, "learning_rate": 3.425925925925926e-05, "loss": 0.9338, "step": 460 }, { "epoch": 1.1416666666666666, "grad_norm": 68.58448791503906, "learning_rate": 3.3796296296296295e-05, "loss": 0.377, "step": 470 }, { "epoch": 1.15, "grad_norm": 0.09607738256454468, "learning_rate": 3.3333333333333335e-05, "loss": 0.7645, "step": 480 }, { "epoch": 1.1583333333333332, "grad_norm": 0.5562692880630493, "learning_rate": 3.2870370370370375e-05, "loss": 0.4814, "step": 490 }, { "epoch": 1.1666666666666667, "grad_norm": 31.63265037536621, "learning_rate": 3.240740740740741e-05, "loss": 1.1575, "step": 500 }, { "epoch": 1.175, "grad_norm": 14.290125846862793, "learning_rate": 3.194444444444444e-05, "loss": 0.7066, "step": 510 }, { "epoch": 1.1833333333333333, "grad_norm": 0.5591108202934265, "learning_rate": 3.148148148148148e-05, "loss": 0.1241, "step": 520 }, { "epoch": 1.1916666666666667, "grad_norm": 0.17567488551139832, "learning_rate": 3.101851851851852e-05, "loss": 0.6765, "step": 530 }, { "epoch": 1.2, "grad_norm": 49.236900329589844, "learning_rate": 3.055555555555556e-05, "loss": 0.5345, "step": 540 }, { "epoch": 1.2083333333333333, "grad_norm": 0.2963051199913025, "learning_rate": 3.0092592592592593e-05, "loss": 0.1296, "step": 550 }, { "epoch": 1.2166666666666668, "grad_norm": 85.76435852050781, "learning_rate": 2.962962962962963e-05, "loss": 0.3223, "step": 560 }, { "epoch": 1.225, "grad_norm": 0.05781524255871773, "learning_rate": 2.916666666666667e-05, "loss": 1.029, "step": 570 }, { "epoch": 1.2333333333333334, "grad_norm": 0.6918824315071106, "learning_rate": 2.8703703703703706e-05, "loss": 1.4815, "step": 580 }, { "epoch": 1.2416666666666667, "grad_norm": 54.260162353515625, "learning_rate": 2.824074074074074e-05, "loss": 0.5143, "step": 590 }, { "epoch": 1.25, "grad_norm": 0.7133612036705017, "learning_rate": 2.777777777777778e-05, "loss": 1.9942, "step": 600 }, { "epoch": 1.25, "eval_accuracy": 0.5857142857142857, "eval_loss": 1.577354907989502, "eval_runtime": 30.7823, "eval_samples_per_second": 2.274, "eval_steps_per_second": 2.274, "step": 600 }, { "epoch": 2.0083333333333333, "grad_norm": 0.2455216348171234, "learning_rate": 2.7314814814814816e-05, "loss": 0.473, "step": 610 }, { "epoch": 2.0166666666666666, "grad_norm": 0.6804302334785461, "learning_rate": 2.6851851851851855e-05, "loss": 0.1212, "step": 620 }, { "epoch": 2.025, "grad_norm": 10.747238159179688, "learning_rate": 2.6388888888888892e-05, "loss": 0.0331, "step": 630 }, { "epoch": 2.033333333333333, "grad_norm": 0.08867809921503067, "learning_rate": 2.5925925925925925e-05, "loss": 0.844, "step": 640 }, { "epoch": 2.0416666666666665, "grad_norm": 55.610721588134766, "learning_rate": 2.5462962962962965e-05, "loss": 0.3502, "step": 650 }, { "epoch": 2.05, "grad_norm": 28.143964767456055, "learning_rate": 2.5e-05, "loss": 0.6554, "step": 660 }, { "epoch": 2.058333333333333, "grad_norm": 7.084416389465332, "learning_rate": 2.4537037037037038e-05, "loss": 0.4305, "step": 670 }, { "epoch": 2.066666666666667, "grad_norm": 32.55038833618164, "learning_rate": 2.4074074074074074e-05, "loss": 0.3512, "step": 680 }, { "epoch": 2.075, "grad_norm": 0.059598371386528015, "learning_rate": 2.361111111111111e-05, "loss": 0.2206, "step": 690 }, { "epoch": 2.0833333333333335, "grad_norm": 2.630704164505005, "learning_rate": 2.314814814814815e-05, "loss": 0.4197, "step": 700 }, { "epoch": 2.091666666666667, "grad_norm": 1.0958279371261597, "learning_rate": 2.2685185185185187e-05, "loss": 0.6577, "step": 710 }, { "epoch": 2.1, "grad_norm": 4.899833679199219, "learning_rate": 2.2222222222222223e-05, "loss": 0.187, "step": 720 }, { "epoch": 2.1083333333333334, "grad_norm": 0.06294427067041397, "learning_rate": 2.175925925925926e-05, "loss": 0.4676, "step": 730 }, { "epoch": 2.1166666666666667, "grad_norm": 77.23908996582031, "learning_rate": 2.1296296296296296e-05, "loss": 0.5418, "step": 740 }, { "epoch": 2.125, "grad_norm": 0.1236032173037529, "learning_rate": 2.0833333333333336e-05, "loss": 0.1155, "step": 750 }, { "epoch": 2.1333333333333333, "grad_norm": 0.3190135061740875, "learning_rate": 2.037037037037037e-05, "loss": 0.0874, "step": 760 }, { "epoch": 2.1416666666666666, "grad_norm": 5.274661064147949, "learning_rate": 1.990740740740741e-05, "loss": 0.3259, "step": 770 }, { "epoch": 2.15, "grad_norm": 0.06718742102384567, "learning_rate": 1.9444444444444445e-05, "loss": 0.4708, "step": 780 }, { "epoch": 2.158333333333333, "grad_norm": 40.043785095214844, "learning_rate": 1.8981481481481482e-05, "loss": 0.4963, "step": 790 }, { "epoch": 2.1666666666666665, "grad_norm": 0.3160834312438965, "learning_rate": 1.8518518518518518e-05, "loss": 0.2175, "step": 800 }, { "epoch": 2.175, "grad_norm": 0.09680556505918503, "learning_rate": 1.8055555555555555e-05, "loss": 0.3612, "step": 810 }, { "epoch": 2.183333333333333, "grad_norm": 0.25264689326286316, "learning_rate": 1.7592592592592595e-05, "loss": 0.0424, "step": 820 }, { "epoch": 2.191666666666667, "grad_norm": 106.17792510986328, "learning_rate": 1.712962962962963e-05, "loss": 0.0796, "step": 830 }, { "epoch": 2.2, "grad_norm": 0.08310459554195404, "learning_rate": 1.6666666666666667e-05, "loss": 0.3563, "step": 840 }, { "epoch": 2.2083333333333335, "grad_norm": 0.41606661677360535, "learning_rate": 1.6203703703703704e-05, "loss": 0.4604, "step": 850 }, { "epoch": 2.216666666666667, "grad_norm": 0.08103762567043304, "learning_rate": 1.574074074074074e-05, "loss": 0.2696, "step": 860 }, { "epoch": 2.225, "grad_norm": 0.08216488361358643, "learning_rate": 1.527777777777778e-05, "loss": 0.5989, "step": 870 }, { "epoch": 2.2333333333333334, "grad_norm": 0.053899068385362625, "learning_rate": 1.4814814814814815e-05, "loss": 0.0129, "step": 880 }, { "epoch": 2.2416666666666667, "grad_norm": 0.6142008304595947, "learning_rate": 1.4351851851851853e-05, "loss": 0.0215, "step": 890 }, { "epoch": 2.25, "grad_norm": 52.254093170166016, "learning_rate": 1.388888888888889e-05, "loss": 0.505, "step": 900 }, { "epoch": 2.25, "eval_accuracy": 0.8142857142857143, "eval_loss": 1.0718868970870972, "eval_runtime": 30.7604, "eval_samples_per_second": 2.276, "eval_steps_per_second": 2.276, "step": 900 }, { "epoch": 3.0083333333333333, "grad_norm": 0.0471644252538681, "learning_rate": 1.3425925925925928e-05, "loss": 0.6375, "step": 910 }, { "epoch": 3.0166666666666666, "grad_norm": 0.1238856092095375, "learning_rate": 1.2962962962962962e-05, "loss": 0.0051, "step": 920 }, { "epoch": 3.025, "grad_norm": 0.04333445429801941, "learning_rate": 1.25e-05, "loss": 0.088, "step": 930 }, { "epoch": 3.033333333333333, "grad_norm": 0.239745631814003, "learning_rate": 1.2037037037037037e-05, "loss": 0.0093, "step": 940 }, { "epoch": 3.0416666666666665, "grad_norm": 0.20756016671657562, "learning_rate": 1.1574074074074075e-05, "loss": 0.0351, "step": 950 }, { "epoch": 3.05, "grad_norm": 0.05902279540896416, "learning_rate": 1.1111111111111112e-05, "loss": 0.0072, "step": 960 }, { "epoch": 3.058333333333333, "grad_norm": 0.07716825604438782, "learning_rate": 1.0648148148148148e-05, "loss": 0.022, "step": 970 }, { "epoch": 3.066666666666667, "grad_norm": 0.03989962860941887, "learning_rate": 1.0185185185185185e-05, "loss": 0.0476, "step": 980 }, { "epoch": 3.075, "grad_norm": 0.11224555969238281, "learning_rate": 9.722222222222223e-06, "loss": 0.0078, "step": 990 }, { "epoch": 3.0833333333333335, "grad_norm": 0.040684111416339874, "learning_rate": 9.259259259259259e-06, "loss": 0.0217, "step": 1000 }, { "epoch": 3.091666666666667, "grad_norm": 57.280967712402344, "learning_rate": 8.796296296296297e-06, "loss": 0.3255, "step": 1010 }, { "epoch": 3.1, "grad_norm": 0.07093434780836105, "learning_rate": 8.333333333333334e-06, "loss": 0.0127, "step": 1020 }, { "epoch": 3.1083333333333334, "grad_norm": 0.14244286715984344, "learning_rate": 7.87037037037037e-06, "loss": 0.0233, "step": 1030 }, { "epoch": 3.1166666666666667, "grad_norm": 0.037811048328876495, "learning_rate": 7.4074074074074075e-06, "loss": 0.0031, "step": 1040 }, { "epoch": 3.125, "grad_norm": 0.05766565352678299, "learning_rate": 6.944444444444445e-06, "loss": 0.0146, "step": 1050 }, { "epoch": 3.1333333333333333, "grad_norm": 2.470177173614502, "learning_rate": 6.481481481481481e-06, "loss": 0.0143, "step": 1060 }, { "epoch": 3.1416666666666666, "grad_norm": 0.13692913949489594, "learning_rate": 6.0185185185185185e-06, "loss": 0.0243, "step": 1070 }, { "epoch": 3.15, "grad_norm": 0.07938830554485321, "learning_rate": 5.555555555555556e-06, "loss": 0.3041, "step": 1080 }, { "epoch": 3.158333333333333, "grad_norm": 0.10020067542791367, "learning_rate": 5.092592592592592e-06, "loss": 0.5181, "step": 1090 }, { "epoch": 3.1666666666666665, "grad_norm": 0.052014198154211044, "learning_rate": 4.6296296296296296e-06, "loss": 0.0067, "step": 1100 }, { "epoch": 3.175, "grad_norm": 0.043961070477962494, "learning_rate": 4.166666666666667e-06, "loss": 0.0469, "step": 1110 }, { "epoch": 3.183333333333333, "grad_norm": 0.04327860102057457, "learning_rate": 3.7037037037037037e-06, "loss": 0.5426, "step": 1120 }, { "epoch": 3.191666666666667, "grad_norm": 0.05505078658461571, "learning_rate": 3.2407407407407406e-06, "loss": 0.003, "step": 1130 }, { "epoch": 3.2, "grad_norm": 0.03962468355894089, "learning_rate": 2.777777777777778e-06, "loss": 0.5228, "step": 1140 }, { "epoch": 3.2083333333333335, "grad_norm": 0.04180913418531418, "learning_rate": 2.3148148148148148e-06, "loss": 0.0313, "step": 1150 }, { "epoch": 3.216666666666667, "grad_norm": 0.14946125447750092, "learning_rate": 1.8518518518518519e-06, "loss": 0.0077, "step": 1160 }, { "epoch": 3.225, "grad_norm": 0.05132247507572174, "learning_rate": 1.388888888888889e-06, "loss": 0.1035, "step": 1170 }, { "epoch": 3.2333333333333334, "grad_norm": 0.04227566346526146, "learning_rate": 9.259259259259259e-07, "loss": 0.1479, "step": 1180 }, { "epoch": 3.2416666666666667, "grad_norm": 0.08404698222875595, "learning_rate": 4.6296296296296297e-07, "loss": 0.008, "step": 1190 }, { "epoch": 3.25, "grad_norm": 0.06629408895969391, "learning_rate": 0.0, "loss": 1.2688, "step": 1200 }, { "epoch": 3.25, "eval_accuracy": 0.9, "eval_loss": 0.34837090969085693, "eval_runtime": 35.9418, "eval_samples_per_second": 1.948, "eval_steps_per_second": 1.948, "step": 1200 }, { "epoch": 3.25, "step": 1200, "total_flos": 1.495384188125184e+18, "train_loss": 0.8617525447563579, "train_runtime": 2232.4846, "train_samples_per_second": 0.538, "train_steps_per_second": 0.538 }, { "epoch": 3.25, "eval_accuracy": 0.9161290322580645, "eval_loss": 0.3075104057788849, "eval_runtime": 67.7865, "eval_samples_per_second": 2.287, "eval_steps_per_second": 2.287, "step": 1200 }, { "epoch": 3.25, "eval_accuracy": 0.9161290322580645, "eval_loss": 0.3075103163719177, "eval_runtime": 66.4099, "eval_samples_per_second": 2.334, "eval_steps_per_second": 2.334, "step": 1200 } ], "logging_steps": 10, "max_steps": 1200, "num_input_tokens_seen": 0, "num_train_epochs": 9223372036854775807, "save_steps": 500, "stateful_callbacks": { "TrainerControl": { "args": { "should_epoch_stop": false, "should_evaluate": false, "should_log": false, "should_save": true, "should_training_stop": true }, "attributes": {} } }, "total_flos": 1.495384188125184e+18, "train_batch_size": 1, "trial_name": null, "trial_params": null }