meggggg's picture
End of training
b90d78e verified
{
"best_metric": 0.9,
"best_model_checkpoint": "videomae-base-finetuned-ucf101-subset/checkpoint-1200",
"epoch": 3.25,
"eval_steps": 500,
"global_step": 1200,
"is_hyper_param_search": false,
"is_local_process_zero": true,
"is_world_process_zero": true,
"log_history": [
{
"epoch": 0.008333333333333333,
"grad_norm": 78.46599578857422,
"learning_rate": 4.166666666666667e-06,
"loss": 2.0712,
"step": 10
},
{
"epoch": 0.016666666666666666,
"grad_norm": 20.7692813873291,
"learning_rate": 8.333333333333334e-06,
"loss": 2.2519,
"step": 20
},
{
"epoch": 0.025,
"grad_norm": 25.544153213500977,
"learning_rate": 1.25e-05,
"loss": 2.5336,
"step": 30
},
{
"epoch": 0.03333333333333333,
"grad_norm": 17.719911575317383,
"learning_rate": 1.6666666666666667e-05,
"loss": 2.2591,
"step": 40
},
{
"epoch": 0.041666666666666664,
"grad_norm": 19.153322219848633,
"learning_rate": 2.0833333333333336e-05,
"loss": 2.4697,
"step": 50
},
{
"epoch": 0.05,
"grad_norm": 19.67510223388672,
"learning_rate": 2.5e-05,
"loss": 2.1923,
"step": 60
},
{
"epoch": 0.058333333333333334,
"grad_norm": 28.729928970336914,
"learning_rate": 2.916666666666667e-05,
"loss": 2.1666,
"step": 70
},
{
"epoch": 0.06666666666666667,
"grad_norm": 21.282651901245117,
"learning_rate": 3.3333333333333335e-05,
"loss": 2.3452,
"step": 80
},
{
"epoch": 0.075,
"grad_norm": 21.08527946472168,
"learning_rate": 3.7500000000000003e-05,
"loss": 1.9653,
"step": 90
},
{
"epoch": 0.08333333333333333,
"grad_norm": 25.22877311706543,
"learning_rate": 4.166666666666667e-05,
"loss": 2.0535,
"step": 100
},
{
"epoch": 0.09166666666666666,
"grad_norm": 21.616727828979492,
"learning_rate": 4.5833333333333334e-05,
"loss": 2.4145,
"step": 110
},
{
"epoch": 0.1,
"grad_norm": 22.613147735595703,
"learning_rate": 5e-05,
"loss": 2.0636,
"step": 120
},
{
"epoch": 0.10833333333333334,
"grad_norm": 25.145366668701172,
"learning_rate": 4.9537037037037035e-05,
"loss": 2.1295,
"step": 130
},
{
"epoch": 0.11666666666666667,
"grad_norm": 27.840431213378906,
"learning_rate": 4.9074074074074075e-05,
"loss": 2.0761,
"step": 140
},
{
"epoch": 0.125,
"grad_norm": 18.28734588623047,
"learning_rate": 4.8611111111111115e-05,
"loss": 1.7775,
"step": 150
},
{
"epoch": 0.13333333333333333,
"grad_norm": 43.08827209472656,
"learning_rate": 4.814814814814815e-05,
"loss": 1.6167,
"step": 160
},
{
"epoch": 0.14166666666666666,
"grad_norm": 10.324146270751953,
"learning_rate": 4.768518518518519e-05,
"loss": 1.7716,
"step": 170
},
{
"epoch": 0.15,
"grad_norm": 26.857784271240234,
"learning_rate": 4.722222222222222e-05,
"loss": 1.9417,
"step": 180
},
{
"epoch": 0.15833333333333333,
"grad_norm": 19.230802536010742,
"learning_rate": 4.675925925925926e-05,
"loss": 2.2409,
"step": 190
},
{
"epoch": 0.16666666666666666,
"grad_norm": 23.071319580078125,
"learning_rate": 4.62962962962963e-05,
"loss": 1.3513,
"step": 200
},
{
"epoch": 0.175,
"grad_norm": 34.22331237792969,
"learning_rate": 4.5833333333333334e-05,
"loss": 2.547,
"step": 210
},
{
"epoch": 0.18333333333333332,
"grad_norm": 4.66353702545166,
"learning_rate": 4.5370370370370374e-05,
"loss": 1.1506,
"step": 220
},
{
"epoch": 0.19166666666666668,
"grad_norm": 24.437355041503906,
"learning_rate": 4.490740740740741e-05,
"loss": 1.6868,
"step": 230
},
{
"epoch": 0.2,
"grad_norm": 1.813467264175415,
"learning_rate": 4.4444444444444447e-05,
"loss": 2.3595,
"step": 240
},
{
"epoch": 0.20833333333333334,
"grad_norm": 46.87567138671875,
"learning_rate": 4.3981481481481486e-05,
"loss": 1.3579,
"step": 250
},
{
"epoch": 0.21666666666666667,
"grad_norm": 28.7318115234375,
"learning_rate": 4.351851851851852e-05,
"loss": 1.8345,
"step": 260
},
{
"epoch": 0.225,
"grad_norm": 2.8550145626068115,
"learning_rate": 4.305555555555556e-05,
"loss": 1.7643,
"step": 270
},
{
"epoch": 0.23333333333333334,
"grad_norm": 22.696510314941406,
"learning_rate": 4.259259259259259e-05,
"loss": 1.7425,
"step": 280
},
{
"epoch": 0.24166666666666667,
"grad_norm": 21.85480308532715,
"learning_rate": 4.212962962962963e-05,
"loss": 0.8096,
"step": 290
},
{
"epoch": 0.25,
"grad_norm": 33.1050910949707,
"learning_rate": 4.166666666666667e-05,
"loss": 1.3609,
"step": 300
},
{
"epoch": 0.25,
"eval_accuracy": 0.42857142857142855,
"eval_loss": 1.5158770084381104,
"eval_runtime": 30.6867,
"eval_samples_per_second": 2.281,
"eval_steps_per_second": 2.281,
"step": 300
},
{
"epoch": 1.0083333333333333,
"grad_norm": 59.73588180541992,
"learning_rate": 4.1203703703703705e-05,
"loss": 0.8938,
"step": 310
},
{
"epoch": 1.0166666666666666,
"grad_norm": 18.30124282836914,
"learning_rate": 4.074074074074074e-05,
"loss": 0.7511,
"step": 320
},
{
"epoch": 1.025,
"grad_norm": 39.17079544067383,
"learning_rate": 4.027777777777778e-05,
"loss": 1.8795,
"step": 330
},
{
"epoch": 1.0333333333333334,
"grad_norm": 2.991403579711914,
"learning_rate": 3.981481481481482e-05,
"loss": 1.5525,
"step": 340
},
{
"epoch": 1.0416666666666667,
"grad_norm": 0.27790603041648865,
"learning_rate": 3.935185185185186e-05,
"loss": 0.8893,
"step": 350
},
{
"epoch": 1.05,
"grad_norm": 52.642921447753906,
"learning_rate": 3.888888888888889e-05,
"loss": 1.3285,
"step": 360
},
{
"epoch": 1.0583333333333333,
"grad_norm": 143.4131317138672,
"learning_rate": 3.8425925925925924e-05,
"loss": 1.4929,
"step": 370
},
{
"epoch": 1.0666666666666667,
"grad_norm": 1.8216307163238525,
"learning_rate": 3.7962962962962964e-05,
"loss": 1.2163,
"step": 380
},
{
"epoch": 1.075,
"grad_norm": 154.83181762695312,
"learning_rate": 3.7500000000000003e-05,
"loss": 1.6009,
"step": 390
},
{
"epoch": 1.0833333333333333,
"grad_norm": 83.43389129638672,
"learning_rate": 3.7037037037037037e-05,
"loss": 1.4486,
"step": 400
},
{
"epoch": 1.0916666666666666,
"grad_norm": 10.843713760375977,
"learning_rate": 3.6574074074074076e-05,
"loss": 0.4959,
"step": 410
},
{
"epoch": 1.1,
"grad_norm": 0.45853012800216675,
"learning_rate": 3.611111111111111e-05,
"loss": 1.1704,
"step": 420
},
{
"epoch": 1.1083333333333334,
"grad_norm": 33.77210235595703,
"learning_rate": 3.564814814814815e-05,
"loss": 1.4854,
"step": 430
},
{
"epoch": 1.1166666666666667,
"grad_norm": 120.2208023071289,
"learning_rate": 3.518518518518519e-05,
"loss": 1.0613,
"step": 440
},
{
"epoch": 1.125,
"grad_norm": 31.664297103881836,
"learning_rate": 3.472222222222222e-05,
"loss": 1.6271,
"step": 450
},
{
"epoch": 1.1333333333333333,
"grad_norm": 2.918891429901123,
"learning_rate": 3.425925925925926e-05,
"loss": 0.9338,
"step": 460
},
{
"epoch": 1.1416666666666666,
"grad_norm": 68.58448791503906,
"learning_rate": 3.3796296296296295e-05,
"loss": 0.377,
"step": 470
},
{
"epoch": 1.15,
"grad_norm": 0.09607738256454468,
"learning_rate": 3.3333333333333335e-05,
"loss": 0.7645,
"step": 480
},
{
"epoch": 1.1583333333333332,
"grad_norm": 0.5562692880630493,
"learning_rate": 3.2870370370370375e-05,
"loss": 0.4814,
"step": 490
},
{
"epoch": 1.1666666666666667,
"grad_norm": 31.63265037536621,
"learning_rate": 3.240740740740741e-05,
"loss": 1.1575,
"step": 500
},
{
"epoch": 1.175,
"grad_norm": 14.290125846862793,
"learning_rate": 3.194444444444444e-05,
"loss": 0.7066,
"step": 510
},
{
"epoch": 1.1833333333333333,
"grad_norm": 0.5591108202934265,
"learning_rate": 3.148148148148148e-05,
"loss": 0.1241,
"step": 520
},
{
"epoch": 1.1916666666666667,
"grad_norm": 0.17567488551139832,
"learning_rate": 3.101851851851852e-05,
"loss": 0.6765,
"step": 530
},
{
"epoch": 1.2,
"grad_norm": 49.236900329589844,
"learning_rate": 3.055555555555556e-05,
"loss": 0.5345,
"step": 540
},
{
"epoch": 1.2083333333333333,
"grad_norm": 0.2963051199913025,
"learning_rate": 3.0092592592592593e-05,
"loss": 0.1296,
"step": 550
},
{
"epoch": 1.2166666666666668,
"grad_norm": 85.76435852050781,
"learning_rate": 2.962962962962963e-05,
"loss": 0.3223,
"step": 560
},
{
"epoch": 1.225,
"grad_norm": 0.05781524255871773,
"learning_rate": 2.916666666666667e-05,
"loss": 1.029,
"step": 570
},
{
"epoch": 1.2333333333333334,
"grad_norm": 0.6918824315071106,
"learning_rate": 2.8703703703703706e-05,
"loss": 1.4815,
"step": 580
},
{
"epoch": 1.2416666666666667,
"grad_norm": 54.260162353515625,
"learning_rate": 2.824074074074074e-05,
"loss": 0.5143,
"step": 590
},
{
"epoch": 1.25,
"grad_norm": 0.7133612036705017,
"learning_rate": 2.777777777777778e-05,
"loss": 1.9942,
"step": 600
},
{
"epoch": 1.25,
"eval_accuracy": 0.5857142857142857,
"eval_loss": 1.577354907989502,
"eval_runtime": 30.7823,
"eval_samples_per_second": 2.274,
"eval_steps_per_second": 2.274,
"step": 600
},
{
"epoch": 2.0083333333333333,
"grad_norm": 0.2455216348171234,
"learning_rate": 2.7314814814814816e-05,
"loss": 0.473,
"step": 610
},
{
"epoch": 2.0166666666666666,
"grad_norm": 0.6804302334785461,
"learning_rate": 2.6851851851851855e-05,
"loss": 0.1212,
"step": 620
},
{
"epoch": 2.025,
"grad_norm": 10.747238159179688,
"learning_rate": 2.6388888888888892e-05,
"loss": 0.0331,
"step": 630
},
{
"epoch": 2.033333333333333,
"grad_norm": 0.08867809921503067,
"learning_rate": 2.5925925925925925e-05,
"loss": 0.844,
"step": 640
},
{
"epoch": 2.0416666666666665,
"grad_norm": 55.610721588134766,
"learning_rate": 2.5462962962962965e-05,
"loss": 0.3502,
"step": 650
},
{
"epoch": 2.05,
"grad_norm": 28.143964767456055,
"learning_rate": 2.5e-05,
"loss": 0.6554,
"step": 660
},
{
"epoch": 2.058333333333333,
"grad_norm": 7.084416389465332,
"learning_rate": 2.4537037037037038e-05,
"loss": 0.4305,
"step": 670
},
{
"epoch": 2.066666666666667,
"grad_norm": 32.55038833618164,
"learning_rate": 2.4074074074074074e-05,
"loss": 0.3512,
"step": 680
},
{
"epoch": 2.075,
"grad_norm": 0.059598371386528015,
"learning_rate": 2.361111111111111e-05,
"loss": 0.2206,
"step": 690
},
{
"epoch": 2.0833333333333335,
"grad_norm": 2.630704164505005,
"learning_rate": 2.314814814814815e-05,
"loss": 0.4197,
"step": 700
},
{
"epoch": 2.091666666666667,
"grad_norm": 1.0958279371261597,
"learning_rate": 2.2685185185185187e-05,
"loss": 0.6577,
"step": 710
},
{
"epoch": 2.1,
"grad_norm": 4.899833679199219,
"learning_rate": 2.2222222222222223e-05,
"loss": 0.187,
"step": 720
},
{
"epoch": 2.1083333333333334,
"grad_norm": 0.06294427067041397,
"learning_rate": 2.175925925925926e-05,
"loss": 0.4676,
"step": 730
},
{
"epoch": 2.1166666666666667,
"grad_norm": 77.23908996582031,
"learning_rate": 2.1296296296296296e-05,
"loss": 0.5418,
"step": 740
},
{
"epoch": 2.125,
"grad_norm": 0.1236032173037529,
"learning_rate": 2.0833333333333336e-05,
"loss": 0.1155,
"step": 750
},
{
"epoch": 2.1333333333333333,
"grad_norm": 0.3190135061740875,
"learning_rate": 2.037037037037037e-05,
"loss": 0.0874,
"step": 760
},
{
"epoch": 2.1416666666666666,
"grad_norm": 5.274661064147949,
"learning_rate": 1.990740740740741e-05,
"loss": 0.3259,
"step": 770
},
{
"epoch": 2.15,
"grad_norm": 0.06718742102384567,
"learning_rate": 1.9444444444444445e-05,
"loss": 0.4708,
"step": 780
},
{
"epoch": 2.158333333333333,
"grad_norm": 40.043785095214844,
"learning_rate": 1.8981481481481482e-05,
"loss": 0.4963,
"step": 790
},
{
"epoch": 2.1666666666666665,
"grad_norm": 0.3160834312438965,
"learning_rate": 1.8518518518518518e-05,
"loss": 0.2175,
"step": 800
},
{
"epoch": 2.175,
"grad_norm": 0.09680556505918503,
"learning_rate": 1.8055555555555555e-05,
"loss": 0.3612,
"step": 810
},
{
"epoch": 2.183333333333333,
"grad_norm": 0.25264689326286316,
"learning_rate": 1.7592592592592595e-05,
"loss": 0.0424,
"step": 820
},
{
"epoch": 2.191666666666667,
"grad_norm": 106.17792510986328,
"learning_rate": 1.712962962962963e-05,
"loss": 0.0796,
"step": 830
},
{
"epoch": 2.2,
"grad_norm": 0.08310459554195404,
"learning_rate": 1.6666666666666667e-05,
"loss": 0.3563,
"step": 840
},
{
"epoch": 2.2083333333333335,
"grad_norm": 0.41606661677360535,
"learning_rate": 1.6203703703703704e-05,
"loss": 0.4604,
"step": 850
},
{
"epoch": 2.216666666666667,
"grad_norm": 0.08103762567043304,
"learning_rate": 1.574074074074074e-05,
"loss": 0.2696,
"step": 860
},
{
"epoch": 2.225,
"grad_norm": 0.08216488361358643,
"learning_rate": 1.527777777777778e-05,
"loss": 0.5989,
"step": 870
},
{
"epoch": 2.2333333333333334,
"grad_norm": 0.053899068385362625,
"learning_rate": 1.4814814814814815e-05,
"loss": 0.0129,
"step": 880
},
{
"epoch": 2.2416666666666667,
"grad_norm": 0.6142008304595947,
"learning_rate": 1.4351851851851853e-05,
"loss": 0.0215,
"step": 890
},
{
"epoch": 2.25,
"grad_norm": 52.254093170166016,
"learning_rate": 1.388888888888889e-05,
"loss": 0.505,
"step": 900
},
{
"epoch": 2.25,
"eval_accuracy": 0.8142857142857143,
"eval_loss": 1.0718868970870972,
"eval_runtime": 30.7604,
"eval_samples_per_second": 2.276,
"eval_steps_per_second": 2.276,
"step": 900
},
{
"epoch": 3.0083333333333333,
"grad_norm": 0.0471644252538681,
"learning_rate": 1.3425925925925928e-05,
"loss": 0.6375,
"step": 910
},
{
"epoch": 3.0166666666666666,
"grad_norm": 0.1238856092095375,
"learning_rate": 1.2962962962962962e-05,
"loss": 0.0051,
"step": 920
},
{
"epoch": 3.025,
"grad_norm": 0.04333445429801941,
"learning_rate": 1.25e-05,
"loss": 0.088,
"step": 930
},
{
"epoch": 3.033333333333333,
"grad_norm": 0.239745631814003,
"learning_rate": 1.2037037037037037e-05,
"loss": 0.0093,
"step": 940
},
{
"epoch": 3.0416666666666665,
"grad_norm": 0.20756016671657562,
"learning_rate": 1.1574074074074075e-05,
"loss": 0.0351,
"step": 950
},
{
"epoch": 3.05,
"grad_norm": 0.05902279540896416,
"learning_rate": 1.1111111111111112e-05,
"loss": 0.0072,
"step": 960
},
{
"epoch": 3.058333333333333,
"grad_norm": 0.07716825604438782,
"learning_rate": 1.0648148148148148e-05,
"loss": 0.022,
"step": 970
},
{
"epoch": 3.066666666666667,
"grad_norm": 0.03989962860941887,
"learning_rate": 1.0185185185185185e-05,
"loss": 0.0476,
"step": 980
},
{
"epoch": 3.075,
"grad_norm": 0.11224555969238281,
"learning_rate": 9.722222222222223e-06,
"loss": 0.0078,
"step": 990
},
{
"epoch": 3.0833333333333335,
"grad_norm": 0.040684111416339874,
"learning_rate": 9.259259259259259e-06,
"loss": 0.0217,
"step": 1000
},
{
"epoch": 3.091666666666667,
"grad_norm": 57.280967712402344,
"learning_rate": 8.796296296296297e-06,
"loss": 0.3255,
"step": 1010
},
{
"epoch": 3.1,
"grad_norm": 0.07093434780836105,
"learning_rate": 8.333333333333334e-06,
"loss": 0.0127,
"step": 1020
},
{
"epoch": 3.1083333333333334,
"grad_norm": 0.14244286715984344,
"learning_rate": 7.87037037037037e-06,
"loss": 0.0233,
"step": 1030
},
{
"epoch": 3.1166666666666667,
"grad_norm": 0.037811048328876495,
"learning_rate": 7.4074074074074075e-06,
"loss": 0.0031,
"step": 1040
},
{
"epoch": 3.125,
"grad_norm": 0.05766565352678299,
"learning_rate": 6.944444444444445e-06,
"loss": 0.0146,
"step": 1050
},
{
"epoch": 3.1333333333333333,
"grad_norm": 2.470177173614502,
"learning_rate": 6.481481481481481e-06,
"loss": 0.0143,
"step": 1060
},
{
"epoch": 3.1416666666666666,
"grad_norm": 0.13692913949489594,
"learning_rate": 6.0185185185185185e-06,
"loss": 0.0243,
"step": 1070
},
{
"epoch": 3.15,
"grad_norm": 0.07938830554485321,
"learning_rate": 5.555555555555556e-06,
"loss": 0.3041,
"step": 1080
},
{
"epoch": 3.158333333333333,
"grad_norm": 0.10020067542791367,
"learning_rate": 5.092592592592592e-06,
"loss": 0.5181,
"step": 1090
},
{
"epoch": 3.1666666666666665,
"grad_norm": 0.052014198154211044,
"learning_rate": 4.6296296296296296e-06,
"loss": 0.0067,
"step": 1100
},
{
"epoch": 3.175,
"grad_norm": 0.043961070477962494,
"learning_rate": 4.166666666666667e-06,
"loss": 0.0469,
"step": 1110
},
{
"epoch": 3.183333333333333,
"grad_norm": 0.04327860102057457,
"learning_rate": 3.7037037037037037e-06,
"loss": 0.5426,
"step": 1120
},
{
"epoch": 3.191666666666667,
"grad_norm": 0.05505078658461571,
"learning_rate": 3.2407407407407406e-06,
"loss": 0.003,
"step": 1130
},
{
"epoch": 3.2,
"grad_norm": 0.03962468355894089,
"learning_rate": 2.777777777777778e-06,
"loss": 0.5228,
"step": 1140
},
{
"epoch": 3.2083333333333335,
"grad_norm": 0.04180913418531418,
"learning_rate": 2.3148148148148148e-06,
"loss": 0.0313,
"step": 1150
},
{
"epoch": 3.216666666666667,
"grad_norm": 0.14946125447750092,
"learning_rate": 1.8518518518518519e-06,
"loss": 0.0077,
"step": 1160
},
{
"epoch": 3.225,
"grad_norm": 0.05132247507572174,
"learning_rate": 1.388888888888889e-06,
"loss": 0.1035,
"step": 1170
},
{
"epoch": 3.2333333333333334,
"grad_norm": 0.04227566346526146,
"learning_rate": 9.259259259259259e-07,
"loss": 0.1479,
"step": 1180
},
{
"epoch": 3.2416666666666667,
"grad_norm": 0.08404698222875595,
"learning_rate": 4.6296296296296297e-07,
"loss": 0.008,
"step": 1190
},
{
"epoch": 3.25,
"grad_norm": 0.06629408895969391,
"learning_rate": 0.0,
"loss": 1.2688,
"step": 1200
},
{
"epoch": 3.25,
"eval_accuracy": 0.9,
"eval_loss": 0.34837090969085693,
"eval_runtime": 35.9418,
"eval_samples_per_second": 1.948,
"eval_steps_per_second": 1.948,
"step": 1200
},
{
"epoch": 3.25,
"step": 1200,
"total_flos": 1.495384188125184e+18,
"train_loss": 0.8617525447563579,
"train_runtime": 2232.4846,
"train_samples_per_second": 0.538,
"train_steps_per_second": 0.538
},
{
"epoch": 3.25,
"eval_accuracy": 0.9161290322580645,
"eval_loss": 0.3075104057788849,
"eval_runtime": 67.7865,
"eval_samples_per_second": 2.287,
"eval_steps_per_second": 2.287,
"step": 1200
},
{
"epoch": 3.25,
"eval_accuracy": 0.9161290322580645,
"eval_loss": 0.3075103163719177,
"eval_runtime": 66.4099,
"eval_samples_per_second": 2.334,
"eval_steps_per_second": 2.334,
"step": 1200
}
],
"logging_steps": 10,
"max_steps": 1200,
"num_input_tokens_seen": 0,
"num_train_epochs": 9223372036854775807,
"save_steps": 500,
"stateful_callbacks": {
"TrainerControl": {
"args": {
"should_epoch_stop": false,
"should_evaluate": false,
"should_log": false,
"should_save": true,
"should_training_stop": true
},
"attributes": {}
}
},
"total_flos": 1.495384188125184e+18,
"train_batch_size": 1,
"trial_name": null,
"trial_params": null
}