|
{ |
|
"best_metric": 0.9, |
|
"best_model_checkpoint": "videomae-base-finetuned-ucf101-subset/checkpoint-1200", |
|
"epoch": 3.25, |
|
"eval_steps": 500, |
|
"global_step": 1200, |
|
"is_hyper_param_search": false, |
|
"is_local_process_zero": true, |
|
"is_world_process_zero": true, |
|
"log_history": [ |
|
{ |
|
"epoch": 0.008333333333333333, |
|
"grad_norm": 78.46599578857422, |
|
"learning_rate": 4.166666666666667e-06, |
|
"loss": 2.0712, |
|
"step": 10 |
|
}, |
|
{ |
|
"epoch": 0.016666666666666666, |
|
"grad_norm": 20.7692813873291, |
|
"learning_rate": 8.333333333333334e-06, |
|
"loss": 2.2519, |
|
"step": 20 |
|
}, |
|
{ |
|
"epoch": 0.025, |
|
"grad_norm": 25.544153213500977, |
|
"learning_rate": 1.25e-05, |
|
"loss": 2.5336, |
|
"step": 30 |
|
}, |
|
{ |
|
"epoch": 0.03333333333333333, |
|
"grad_norm": 17.719911575317383, |
|
"learning_rate": 1.6666666666666667e-05, |
|
"loss": 2.2591, |
|
"step": 40 |
|
}, |
|
{ |
|
"epoch": 0.041666666666666664, |
|
"grad_norm": 19.153322219848633, |
|
"learning_rate": 2.0833333333333336e-05, |
|
"loss": 2.4697, |
|
"step": 50 |
|
}, |
|
{ |
|
"epoch": 0.05, |
|
"grad_norm": 19.67510223388672, |
|
"learning_rate": 2.5e-05, |
|
"loss": 2.1923, |
|
"step": 60 |
|
}, |
|
{ |
|
"epoch": 0.058333333333333334, |
|
"grad_norm": 28.729928970336914, |
|
"learning_rate": 2.916666666666667e-05, |
|
"loss": 2.1666, |
|
"step": 70 |
|
}, |
|
{ |
|
"epoch": 0.06666666666666667, |
|
"grad_norm": 21.282651901245117, |
|
"learning_rate": 3.3333333333333335e-05, |
|
"loss": 2.3452, |
|
"step": 80 |
|
}, |
|
{ |
|
"epoch": 0.075, |
|
"grad_norm": 21.08527946472168, |
|
"learning_rate": 3.7500000000000003e-05, |
|
"loss": 1.9653, |
|
"step": 90 |
|
}, |
|
{ |
|
"epoch": 0.08333333333333333, |
|
"grad_norm": 25.22877311706543, |
|
"learning_rate": 4.166666666666667e-05, |
|
"loss": 2.0535, |
|
"step": 100 |
|
}, |
|
{ |
|
"epoch": 0.09166666666666666, |
|
"grad_norm": 21.616727828979492, |
|
"learning_rate": 4.5833333333333334e-05, |
|
"loss": 2.4145, |
|
"step": 110 |
|
}, |
|
{ |
|
"epoch": 0.1, |
|
"grad_norm": 22.613147735595703, |
|
"learning_rate": 5e-05, |
|
"loss": 2.0636, |
|
"step": 120 |
|
}, |
|
{ |
|
"epoch": 0.10833333333333334, |
|
"grad_norm": 25.145366668701172, |
|
"learning_rate": 4.9537037037037035e-05, |
|
"loss": 2.1295, |
|
"step": 130 |
|
}, |
|
{ |
|
"epoch": 0.11666666666666667, |
|
"grad_norm": 27.840431213378906, |
|
"learning_rate": 4.9074074074074075e-05, |
|
"loss": 2.0761, |
|
"step": 140 |
|
}, |
|
{ |
|
"epoch": 0.125, |
|
"grad_norm": 18.28734588623047, |
|
"learning_rate": 4.8611111111111115e-05, |
|
"loss": 1.7775, |
|
"step": 150 |
|
}, |
|
{ |
|
"epoch": 0.13333333333333333, |
|
"grad_norm": 43.08827209472656, |
|
"learning_rate": 4.814814814814815e-05, |
|
"loss": 1.6167, |
|
"step": 160 |
|
}, |
|
{ |
|
"epoch": 0.14166666666666666, |
|
"grad_norm": 10.324146270751953, |
|
"learning_rate": 4.768518518518519e-05, |
|
"loss": 1.7716, |
|
"step": 170 |
|
}, |
|
{ |
|
"epoch": 0.15, |
|
"grad_norm": 26.857784271240234, |
|
"learning_rate": 4.722222222222222e-05, |
|
"loss": 1.9417, |
|
"step": 180 |
|
}, |
|
{ |
|
"epoch": 0.15833333333333333, |
|
"grad_norm": 19.230802536010742, |
|
"learning_rate": 4.675925925925926e-05, |
|
"loss": 2.2409, |
|
"step": 190 |
|
}, |
|
{ |
|
"epoch": 0.16666666666666666, |
|
"grad_norm": 23.071319580078125, |
|
"learning_rate": 4.62962962962963e-05, |
|
"loss": 1.3513, |
|
"step": 200 |
|
}, |
|
{ |
|
"epoch": 0.175, |
|
"grad_norm": 34.22331237792969, |
|
"learning_rate": 4.5833333333333334e-05, |
|
"loss": 2.547, |
|
"step": 210 |
|
}, |
|
{ |
|
"epoch": 0.18333333333333332, |
|
"grad_norm": 4.66353702545166, |
|
"learning_rate": 4.5370370370370374e-05, |
|
"loss": 1.1506, |
|
"step": 220 |
|
}, |
|
{ |
|
"epoch": 0.19166666666666668, |
|
"grad_norm": 24.437355041503906, |
|
"learning_rate": 4.490740740740741e-05, |
|
"loss": 1.6868, |
|
"step": 230 |
|
}, |
|
{ |
|
"epoch": 0.2, |
|
"grad_norm": 1.813467264175415, |
|
"learning_rate": 4.4444444444444447e-05, |
|
"loss": 2.3595, |
|
"step": 240 |
|
}, |
|
{ |
|
"epoch": 0.20833333333333334, |
|
"grad_norm": 46.87567138671875, |
|
"learning_rate": 4.3981481481481486e-05, |
|
"loss": 1.3579, |
|
"step": 250 |
|
}, |
|
{ |
|
"epoch": 0.21666666666666667, |
|
"grad_norm": 28.7318115234375, |
|
"learning_rate": 4.351851851851852e-05, |
|
"loss": 1.8345, |
|
"step": 260 |
|
}, |
|
{ |
|
"epoch": 0.225, |
|
"grad_norm": 2.8550145626068115, |
|
"learning_rate": 4.305555555555556e-05, |
|
"loss": 1.7643, |
|
"step": 270 |
|
}, |
|
{ |
|
"epoch": 0.23333333333333334, |
|
"grad_norm": 22.696510314941406, |
|
"learning_rate": 4.259259259259259e-05, |
|
"loss": 1.7425, |
|
"step": 280 |
|
}, |
|
{ |
|
"epoch": 0.24166666666666667, |
|
"grad_norm": 21.85480308532715, |
|
"learning_rate": 4.212962962962963e-05, |
|
"loss": 0.8096, |
|
"step": 290 |
|
}, |
|
{ |
|
"epoch": 0.25, |
|
"grad_norm": 33.1050910949707, |
|
"learning_rate": 4.166666666666667e-05, |
|
"loss": 1.3609, |
|
"step": 300 |
|
}, |
|
{ |
|
"epoch": 0.25, |
|
"eval_accuracy": 0.42857142857142855, |
|
"eval_loss": 1.5158770084381104, |
|
"eval_runtime": 30.6867, |
|
"eval_samples_per_second": 2.281, |
|
"eval_steps_per_second": 2.281, |
|
"step": 300 |
|
}, |
|
{ |
|
"epoch": 1.0083333333333333, |
|
"grad_norm": 59.73588180541992, |
|
"learning_rate": 4.1203703703703705e-05, |
|
"loss": 0.8938, |
|
"step": 310 |
|
}, |
|
{ |
|
"epoch": 1.0166666666666666, |
|
"grad_norm": 18.30124282836914, |
|
"learning_rate": 4.074074074074074e-05, |
|
"loss": 0.7511, |
|
"step": 320 |
|
}, |
|
{ |
|
"epoch": 1.025, |
|
"grad_norm": 39.17079544067383, |
|
"learning_rate": 4.027777777777778e-05, |
|
"loss": 1.8795, |
|
"step": 330 |
|
}, |
|
{ |
|
"epoch": 1.0333333333333334, |
|
"grad_norm": 2.991403579711914, |
|
"learning_rate": 3.981481481481482e-05, |
|
"loss": 1.5525, |
|
"step": 340 |
|
}, |
|
{ |
|
"epoch": 1.0416666666666667, |
|
"grad_norm": 0.27790603041648865, |
|
"learning_rate": 3.935185185185186e-05, |
|
"loss": 0.8893, |
|
"step": 350 |
|
}, |
|
{ |
|
"epoch": 1.05, |
|
"grad_norm": 52.642921447753906, |
|
"learning_rate": 3.888888888888889e-05, |
|
"loss": 1.3285, |
|
"step": 360 |
|
}, |
|
{ |
|
"epoch": 1.0583333333333333, |
|
"grad_norm": 143.4131317138672, |
|
"learning_rate": 3.8425925925925924e-05, |
|
"loss": 1.4929, |
|
"step": 370 |
|
}, |
|
{ |
|
"epoch": 1.0666666666666667, |
|
"grad_norm": 1.8216307163238525, |
|
"learning_rate": 3.7962962962962964e-05, |
|
"loss": 1.2163, |
|
"step": 380 |
|
}, |
|
{ |
|
"epoch": 1.075, |
|
"grad_norm": 154.83181762695312, |
|
"learning_rate": 3.7500000000000003e-05, |
|
"loss": 1.6009, |
|
"step": 390 |
|
}, |
|
{ |
|
"epoch": 1.0833333333333333, |
|
"grad_norm": 83.43389129638672, |
|
"learning_rate": 3.7037037037037037e-05, |
|
"loss": 1.4486, |
|
"step": 400 |
|
}, |
|
{ |
|
"epoch": 1.0916666666666666, |
|
"grad_norm": 10.843713760375977, |
|
"learning_rate": 3.6574074074074076e-05, |
|
"loss": 0.4959, |
|
"step": 410 |
|
}, |
|
{ |
|
"epoch": 1.1, |
|
"grad_norm": 0.45853012800216675, |
|
"learning_rate": 3.611111111111111e-05, |
|
"loss": 1.1704, |
|
"step": 420 |
|
}, |
|
{ |
|
"epoch": 1.1083333333333334, |
|
"grad_norm": 33.77210235595703, |
|
"learning_rate": 3.564814814814815e-05, |
|
"loss": 1.4854, |
|
"step": 430 |
|
}, |
|
{ |
|
"epoch": 1.1166666666666667, |
|
"grad_norm": 120.2208023071289, |
|
"learning_rate": 3.518518518518519e-05, |
|
"loss": 1.0613, |
|
"step": 440 |
|
}, |
|
{ |
|
"epoch": 1.125, |
|
"grad_norm": 31.664297103881836, |
|
"learning_rate": 3.472222222222222e-05, |
|
"loss": 1.6271, |
|
"step": 450 |
|
}, |
|
{ |
|
"epoch": 1.1333333333333333, |
|
"grad_norm": 2.918891429901123, |
|
"learning_rate": 3.425925925925926e-05, |
|
"loss": 0.9338, |
|
"step": 460 |
|
}, |
|
{ |
|
"epoch": 1.1416666666666666, |
|
"grad_norm": 68.58448791503906, |
|
"learning_rate": 3.3796296296296295e-05, |
|
"loss": 0.377, |
|
"step": 470 |
|
}, |
|
{ |
|
"epoch": 1.15, |
|
"grad_norm": 0.09607738256454468, |
|
"learning_rate": 3.3333333333333335e-05, |
|
"loss": 0.7645, |
|
"step": 480 |
|
}, |
|
{ |
|
"epoch": 1.1583333333333332, |
|
"grad_norm": 0.5562692880630493, |
|
"learning_rate": 3.2870370370370375e-05, |
|
"loss": 0.4814, |
|
"step": 490 |
|
}, |
|
{ |
|
"epoch": 1.1666666666666667, |
|
"grad_norm": 31.63265037536621, |
|
"learning_rate": 3.240740740740741e-05, |
|
"loss": 1.1575, |
|
"step": 500 |
|
}, |
|
{ |
|
"epoch": 1.175, |
|
"grad_norm": 14.290125846862793, |
|
"learning_rate": 3.194444444444444e-05, |
|
"loss": 0.7066, |
|
"step": 510 |
|
}, |
|
{ |
|
"epoch": 1.1833333333333333, |
|
"grad_norm": 0.5591108202934265, |
|
"learning_rate": 3.148148148148148e-05, |
|
"loss": 0.1241, |
|
"step": 520 |
|
}, |
|
{ |
|
"epoch": 1.1916666666666667, |
|
"grad_norm": 0.17567488551139832, |
|
"learning_rate": 3.101851851851852e-05, |
|
"loss": 0.6765, |
|
"step": 530 |
|
}, |
|
{ |
|
"epoch": 1.2, |
|
"grad_norm": 49.236900329589844, |
|
"learning_rate": 3.055555555555556e-05, |
|
"loss": 0.5345, |
|
"step": 540 |
|
}, |
|
{ |
|
"epoch": 1.2083333333333333, |
|
"grad_norm": 0.2963051199913025, |
|
"learning_rate": 3.0092592592592593e-05, |
|
"loss": 0.1296, |
|
"step": 550 |
|
}, |
|
{ |
|
"epoch": 1.2166666666666668, |
|
"grad_norm": 85.76435852050781, |
|
"learning_rate": 2.962962962962963e-05, |
|
"loss": 0.3223, |
|
"step": 560 |
|
}, |
|
{ |
|
"epoch": 1.225, |
|
"grad_norm": 0.05781524255871773, |
|
"learning_rate": 2.916666666666667e-05, |
|
"loss": 1.029, |
|
"step": 570 |
|
}, |
|
{ |
|
"epoch": 1.2333333333333334, |
|
"grad_norm": 0.6918824315071106, |
|
"learning_rate": 2.8703703703703706e-05, |
|
"loss": 1.4815, |
|
"step": 580 |
|
}, |
|
{ |
|
"epoch": 1.2416666666666667, |
|
"grad_norm": 54.260162353515625, |
|
"learning_rate": 2.824074074074074e-05, |
|
"loss": 0.5143, |
|
"step": 590 |
|
}, |
|
{ |
|
"epoch": 1.25, |
|
"grad_norm": 0.7133612036705017, |
|
"learning_rate": 2.777777777777778e-05, |
|
"loss": 1.9942, |
|
"step": 600 |
|
}, |
|
{ |
|
"epoch": 1.25, |
|
"eval_accuracy": 0.5857142857142857, |
|
"eval_loss": 1.577354907989502, |
|
"eval_runtime": 30.7823, |
|
"eval_samples_per_second": 2.274, |
|
"eval_steps_per_second": 2.274, |
|
"step": 600 |
|
}, |
|
{ |
|
"epoch": 2.0083333333333333, |
|
"grad_norm": 0.2455216348171234, |
|
"learning_rate": 2.7314814814814816e-05, |
|
"loss": 0.473, |
|
"step": 610 |
|
}, |
|
{ |
|
"epoch": 2.0166666666666666, |
|
"grad_norm": 0.6804302334785461, |
|
"learning_rate": 2.6851851851851855e-05, |
|
"loss": 0.1212, |
|
"step": 620 |
|
}, |
|
{ |
|
"epoch": 2.025, |
|
"grad_norm": 10.747238159179688, |
|
"learning_rate": 2.6388888888888892e-05, |
|
"loss": 0.0331, |
|
"step": 630 |
|
}, |
|
{ |
|
"epoch": 2.033333333333333, |
|
"grad_norm": 0.08867809921503067, |
|
"learning_rate": 2.5925925925925925e-05, |
|
"loss": 0.844, |
|
"step": 640 |
|
}, |
|
{ |
|
"epoch": 2.0416666666666665, |
|
"grad_norm": 55.610721588134766, |
|
"learning_rate": 2.5462962962962965e-05, |
|
"loss": 0.3502, |
|
"step": 650 |
|
}, |
|
{ |
|
"epoch": 2.05, |
|
"grad_norm": 28.143964767456055, |
|
"learning_rate": 2.5e-05, |
|
"loss": 0.6554, |
|
"step": 660 |
|
}, |
|
{ |
|
"epoch": 2.058333333333333, |
|
"grad_norm": 7.084416389465332, |
|
"learning_rate": 2.4537037037037038e-05, |
|
"loss": 0.4305, |
|
"step": 670 |
|
}, |
|
{ |
|
"epoch": 2.066666666666667, |
|
"grad_norm": 32.55038833618164, |
|
"learning_rate": 2.4074074074074074e-05, |
|
"loss": 0.3512, |
|
"step": 680 |
|
}, |
|
{ |
|
"epoch": 2.075, |
|
"grad_norm": 0.059598371386528015, |
|
"learning_rate": 2.361111111111111e-05, |
|
"loss": 0.2206, |
|
"step": 690 |
|
}, |
|
{ |
|
"epoch": 2.0833333333333335, |
|
"grad_norm": 2.630704164505005, |
|
"learning_rate": 2.314814814814815e-05, |
|
"loss": 0.4197, |
|
"step": 700 |
|
}, |
|
{ |
|
"epoch": 2.091666666666667, |
|
"grad_norm": 1.0958279371261597, |
|
"learning_rate": 2.2685185185185187e-05, |
|
"loss": 0.6577, |
|
"step": 710 |
|
}, |
|
{ |
|
"epoch": 2.1, |
|
"grad_norm": 4.899833679199219, |
|
"learning_rate": 2.2222222222222223e-05, |
|
"loss": 0.187, |
|
"step": 720 |
|
}, |
|
{ |
|
"epoch": 2.1083333333333334, |
|
"grad_norm": 0.06294427067041397, |
|
"learning_rate": 2.175925925925926e-05, |
|
"loss": 0.4676, |
|
"step": 730 |
|
}, |
|
{ |
|
"epoch": 2.1166666666666667, |
|
"grad_norm": 77.23908996582031, |
|
"learning_rate": 2.1296296296296296e-05, |
|
"loss": 0.5418, |
|
"step": 740 |
|
}, |
|
{ |
|
"epoch": 2.125, |
|
"grad_norm": 0.1236032173037529, |
|
"learning_rate": 2.0833333333333336e-05, |
|
"loss": 0.1155, |
|
"step": 750 |
|
}, |
|
{ |
|
"epoch": 2.1333333333333333, |
|
"grad_norm": 0.3190135061740875, |
|
"learning_rate": 2.037037037037037e-05, |
|
"loss": 0.0874, |
|
"step": 760 |
|
}, |
|
{ |
|
"epoch": 2.1416666666666666, |
|
"grad_norm": 5.274661064147949, |
|
"learning_rate": 1.990740740740741e-05, |
|
"loss": 0.3259, |
|
"step": 770 |
|
}, |
|
{ |
|
"epoch": 2.15, |
|
"grad_norm": 0.06718742102384567, |
|
"learning_rate": 1.9444444444444445e-05, |
|
"loss": 0.4708, |
|
"step": 780 |
|
}, |
|
{ |
|
"epoch": 2.158333333333333, |
|
"grad_norm": 40.043785095214844, |
|
"learning_rate": 1.8981481481481482e-05, |
|
"loss": 0.4963, |
|
"step": 790 |
|
}, |
|
{ |
|
"epoch": 2.1666666666666665, |
|
"grad_norm": 0.3160834312438965, |
|
"learning_rate": 1.8518518518518518e-05, |
|
"loss": 0.2175, |
|
"step": 800 |
|
}, |
|
{ |
|
"epoch": 2.175, |
|
"grad_norm": 0.09680556505918503, |
|
"learning_rate": 1.8055555555555555e-05, |
|
"loss": 0.3612, |
|
"step": 810 |
|
}, |
|
{ |
|
"epoch": 2.183333333333333, |
|
"grad_norm": 0.25264689326286316, |
|
"learning_rate": 1.7592592592592595e-05, |
|
"loss": 0.0424, |
|
"step": 820 |
|
}, |
|
{ |
|
"epoch": 2.191666666666667, |
|
"grad_norm": 106.17792510986328, |
|
"learning_rate": 1.712962962962963e-05, |
|
"loss": 0.0796, |
|
"step": 830 |
|
}, |
|
{ |
|
"epoch": 2.2, |
|
"grad_norm": 0.08310459554195404, |
|
"learning_rate": 1.6666666666666667e-05, |
|
"loss": 0.3563, |
|
"step": 840 |
|
}, |
|
{ |
|
"epoch": 2.2083333333333335, |
|
"grad_norm": 0.41606661677360535, |
|
"learning_rate": 1.6203703703703704e-05, |
|
"loss": 0.4604, |
|
"step": 850 |
|
}, |
|
{ |
|
"epoch": 2.216666666666667, |
|
"grad_norm": 0.08103762567043304, |
|
"learning_rate": 1.574074074074074e-05, |
|
"loss": 0.2696, |
|
"step": 860 |
|
}, |
|
{ |
|
"epoch": 2.225, |
|
"grad_norm": 0.08216488361358643, |
|
"learning_rate": 1.527777777777778e-05, |
|
"loss": 0.5989, |
|
"step": 870 |
|
}, |
|
{ |
|
"epoch": 2.2333333333333334, |
|
"grad_norm": 0.053899068385362625, |
|
"learning_rate": 1.4814814814814815e-05, |
|
"loss": 0.0129, |
|
"step": 880 |
|
}, |
|
{ |
|
"epoch": 2.2416666666666667, |
|
"grad_norm": 0.6142008304595947, |
|
"learning_rate": 1.4351851851851853e-05, |
|
"loss": 0.0215, |
|
"step": 890 |
|
}, |
|
{ |
|
"epoch": 2.25, |
|
"grad_norm": 52.254093170166016, |
|
"learning_rate": 1.388888888888889e-05, |
|
"loss": 0.505, |
|
"step": 900 |
|
}, |
|
{ |
|
"epoch": 2.25, |
|
"eval_accuracy": 0.8142857142857143, |
|
"eval_loss": 1.0718868970870972, |
|
"eval_runtime": 30.7604, |
|
"eval_samples_per_second": 2.276, |
|
"eval_steps_per_second": 2.276, |
|
"step": 900 |
|
}, |
|
{ |
|
"epoch": 3.0083333333333333, |
|
"grad_norm": 0.0471644252538681, |
|
"learning_rate": 1.3425925925925928e-05, |
|
"loss": 0.6375, |
|
"step": 910 |
|
}, |
|
{ |
|
"epoch": 3.0166666666666666, |
|
"grad_norm": 0.1238856092095375, |
|
"learning_rate": 1.2962962962962962e-05, |
|
"loss": 0.0051, |
|
"step": 920 |
|
}, |
|
{ |
|
"epoch": 3.025, |
|
"grad_norm": 0.04333445429801941, |
|
"learning_rate": 1.25e-05, |
|
"loss": 0.088, |
|
"step": 930 |
|
}, |
|
{ |
|
"epoch": 3.033333333333333, |
|
"grad_norm": 0.239745631814003, |
|
"learning_rate": 1.2037037037037037e-05, |
|
"loss": 0.0093, |
|
"step": 940 |
|
}, |
|
{ |
|
"epoch": 3.0416666666666665, |
|
"grad_norm": 0.20756016671657562, |
|
"learning_rate": 1.1574074074074075e-05, |
|
"loss": 0.0351, |
|
"step": 950 |
|
}, |
|
{ |
|
"epoch": 3.05, |
|
"grad_norm": 0.05902279540896416, |
|
"learning_rate": 1.1111111111111112e-05, |
|
"loss": 0.0072, |
|
"step": 960 |
|
}, |
|
{ |
|
"epoch": 3.058333333333333, |
|
"grad_norm": 0.07716825604438782, |
|
"learning_rate": 1.0648148148148148e-05, |
|
"loss": 0.022, |
|
"step": 970 |
|
}, |
|
{ |
|
"epoch": 3.066666666666667, |
|
"grad_norm": 0.03989962860941887, |
|
"learning_rate": 1.0185185185185185e-05, |
|
"loss": 0.0476, |
|
"step": 980 |
|
}, |
|
{ |
|
"epoch": 3.075, |
|
"grad_norm": 0.11224555969238281, |
|
"learning_rate": 9.722222222222223e-06, |
|
"loss": 0.0078, |
|
"step": 990 |
|
}, |
|
{ |
|
"epoch": 3.0833333333333335, |
|
"grad_norm": 0.040684111416339874, |
|
"learning_rate": 9.259259259259259e-06, |
|
"loss": 0.0217, |
|
"step": 1000 |
|
}, |
|
{ |
|
"epoch": 3.091666666666667, |
|
"grad_norm": 57.280967712402344, |
|
"learning_rate": 8.796296296296297e-06, |
|
"loss": 0.3255, |
|
"step": 1010 |
|
}, |
|
{ |
|
"epoch": 3.1, |
|
"grad_norm": 0.07093434780836105, |
|
"learning_rate": 8.333333333333334e-06, |
|
"loss": 0.0127, |
|
"step": 1020 |
|
}, |
|
{ |
|
"epoch": 3.1083333333333334, |
|
"grad_norm": 0.14244286715984344, |
|
"learning_rate": 7.87037037037037e-06, |
|
"loss": 0.0233, |
|
"step": 1030 |
|
}, |
|
{ |
|
"epoch": 3.1166666666666667, |
|
"grad_norm": 0.037811048328876495, |
|
"learning_rate": 7.4074074074074075e-06, |
|
"loss": 0.0031, |
|
"step": 1040 |
|
}, |
|
{ |
|
"epoch": 3.125, |
|
"grad_norm": 0.05766565352678299, |
|
"learning_rate": 6.944444444444445e-06, |
|
"loss": 0.0146, |
|
"step": 1050 |
|
}, |
|
{ |
|
"epoch": 3.1333333333333333, |
|
"grad_norm": 2.470177173614502, |
|
"learning_rate": 6.481481481481481e-06, |
|
"loss": 0.0143, |
|
"step": 1060 |
|
}, |
|
{ |
|
"epoch": 3.1416666666666666, |
|
"grad_norm": 0.13692913949489594, |
|
"learning_rate": 6.0185185185185185e-06, |
|
"loss": 0.0243, |
|
"step": 1070 |
|
}, |
|
{ |
|
"epoch": 3.15, |
|
"grad_norm": 0.07938830554485321, |
|
"learning_rate": 5.555555555555556e-06, |
|
"loss": 0.3041, |
|
"step": 1080 |
|
}, |
|
{ |
|
"epoch": 3.158333333333333, |
|
"grad_norm": 0.10020067542791367, |
|
"learning_rate": 5.092592592592592e-06, |
|
"loss": 0.5181, |
|
"step": 1090 |
|
}, |
|
{ |
|
"epoch": 3.1666666666666665, |
|
"grad_norm": 0.052014198154211044, |
|
"learning_rate": 4.6296296296296296e-06, |
|
"loss": 0.0067, |
|
"step": 1100 |
|
}, |
|
{ |
|
"epoch": 3.175, |
|
"grad_norm": 0.043961070477962494, |
|
"learning_rate": 4.166666666666667e-06, |
|
"loss": 0.0469, |
|
"step": 1110 |
|
}, |
|
{ |
|
"epoch": 3.183333333333333, |
|
"grad_norm": 0.04327860102057457, |
|
"learning_rate": 3.7037037037037037e-06, |
|
"loss": 0.5426, |
|
"step": 1120 |
|
}, |
|
{ |
|
"epoch": 3.191666666666667, |
|
"grad_norm": 0.05505078658461571, |
|
"learning_rate": 3.2407407407407406e-06, |
|
"loss": 0.003, |
|
"step": 1130 |
|
}, |
|
{ |
|
"epoch": 3.2, |
|
"grad_norm": 0.03962468355894089, |
|
"learning_rate": 2.777777777777778e-06, |
|
"loss": 0.5228, |
|
"step": 1140 |
|
}, |
|
{ |
|
"epoch": 3.2083333333333335, |
|
"grad_norm": 0.04180913418531418, |
|
"learning_rate": 2.3148148148148148e-06, |
|
"loss": 0.0313, |
|
"step": 1150 |
|
}, |
|
{ |
|
"epoch": 3.216666666666667, |
|
"grad_norm": 0.14946125447750092, |
|
"learning_rate": 1.8518518518518519e-06, |
|
"loss": 0.0077, |
|
"step": 1160 |
|
}, |
|
{ |
|
"epoch": 3.225, |
|
"grad_norm": 0.05132247507572174, |
|
"learning_rate": 1.388888888888889e-06, |
|
"loss": 0.1035, |
|
"step": 1170 |
|
}, |
|
{ |
|
"epoch": 3.2333333333333334, |
|
"grad_norm": 0.04227566346526146, |
|
"learning_rate": 9.259259259259259e-07, |
|
"loss": 0.1479, |
|
"step": 1180 |
|
}, |
|
{ |
|
"epoch": 3.2416666666666667, |
|
"grad_norm": 0.08404698222875595, |
|
"learning_rate": 4.6296296296296297e-07, |
|
"loss": 0.008, |
|
"step": 1190 |
|
}, |
|
{ |
|
"epoch": 3.25, |
|
"grad_norm": 0.06629408895969391, |
|
"learning_rate": 0.0, |
|
"loss": 1.2688, |
|
"step": 1200 |
|
}, |
|
{ |
|
"epoch": 3.25, |
|
"eval_accuracy": 0.9, |
|
"eval_loss": 0.34837090969085693, |
|
"eval_runtime": 35.9418, |
|
"eval_samples_per_second": 1.948, |
|
"eval_steps_per_second": 1.948, |
|
"step": 1200 |
|
}, |
|
{ |
|
"epoch": 3.25, |
|
"step": 1200, |
|
"total_flos": 1.495384188125184e+18, |
|
"train_loss": 0.8617525447563579, |
|
"train_runtime": 2232.4846, |
|
"train_samples_per_second": 0.538, |
|
"train_steps_per_second": 0.538 |
|
}, |
|
{ |
|
"epoch": 3.25, |
|
"eval_accuracy": 0.9161290322580645, |
|
"eval_loss": 0.3075104057788849, |
|
"eval_runtime": 67.7865, |
|
"eval_samples_per_second": 2.287, |
|
"eval_steps_per_second": 2.287, |
|
"step": 1200 |
|
}, |
|
{ |
|
"epoch": 3.25, |
|
"eval_accuracy": 0.9161290322580645, |
|
"eval_loss": 0.3075103163719177, |
|
"eval_runtime": 66.4099, |
|
"eval_samples_per_second": 2.334, |
|
"eval_steps_per_second": 2.334, |
|
"step": 1200 |
|
} |
|
], |
|
"logging_steps": 10, |
|
"max_steps": 1200, |
|
"num_input_tokens_seen": 0, |
|
"num_train_epochs": 9223372036854775807, |
|
"save_steps": 500, |
|
"stateful_callbacks": { |
|
"TrainerControl": { |
|
"args": { |
|
"should_epoch_stop": false, |
|
"should_evaluate": false, |
|
"should_log": false, |
|
"should_save": true, |
|
"should_training_stop": true |
|
}, |
|
"attributes": {} |
|
} |
|
}, |
|
"total_flos": 1.495384188125184e+18, |
|
"train_batch_size": 1, |
|
"trial_name": null, |
|
"trial_params": null |
|
} |
|
|