icelandic_pfeiffer / trainer_state.json
rominaoji's picture
Upload folder using huggingface_hub
d750ed7 verified
{
"best_metric": null,
"best_model_checkpoint": null,
"epoch": 3.0,
"eval_steps": 500,
"global_step": 46875,
"is_hyper_param_search": false,
"is_local_process_zero": true,
"is_world_process_zero": true,
"log_history": [
{
"epoch": 0.032,
"grad_norm": 4.532311916351318,
"learning_rate": 4.9466666666666665e-05,
"loss": 8.374,
"step": 500
},
{
"epoch": 0.064,
"grad_norm": 5.539952754974365,
"learning_rate": 4.8933333333333335e-05,
"loss": 6.2029,
"step": 1000
},
{
"epoch": 0.096,
"grad_norm": 7.1006927490234375,
"learning_rate": 4.8400000000000004e-05,
"loss": 5.6306,
"step": 1500
},
{
"epoch": 0.128,
"grad_norm": 7.942945957183838,
"learning_rate": 4.7866666666666674e-05,
"loss": 5.3219,
"step": 2000
},
{
"epoch": 0.16,
"grad_norm": 9.49350643157959,
"learning_rate": 4.7333333333333336e-05,
"loss": 5.0926,
"step": 2500
},
{
"epoch": 0.192,
"grad_norm": 8.600608825683594,
"learning_rate": 4.6800000000000006e-05,
"loss": 4.9156,
"step": 3000
},
{
"epoch": 0.224,
"grad_norm": 9.552509307861328,
"learning_rate": 4.626666666666667e-05,
"loss": 4.7529,
"step": 3500
},
{
"epoch": 0.256,
"grad_norm": 10.159740447998047,
"learning_rate": 4.573333333333333e-05,
"loss": 4.6217,
"step": 4000
},
{
"epoch": 0.288,
"grad_norm": 9.778353691101074,
"learning_rate": 4.52e-05,
"loss": 4.5028,
"step": 4500
},
{
"epoch": 0.32,
"grad_norm": 11.466822624206543,
"learning_rate": 4.466666666666667e-05,
"loss": 4.3921,
"step": 5000
},
{
"epoch": 0.352,
"grad_norm": 9.70102596282959,
"learning_rate": 4.413333333333334e-05,
"loss": 4.3026,
"step": 5500
},
{
"epoch": 0.384,
"grad_norm": 9.924347877502441,
"learning_rate": 4.36e-05,
"loss": 4.2222,
"step": 6000
},
{
"epoch": 0.416,
"grad_norm": 9.57331371307373,
"learning_rate": 4.3066666666666665e-05,
"loss": 4.1226,
"step": 6500
},
{
"epoch": 0.448,
"grad_norm": 10.247310638427734,
"learning_rate": 4.2533333333333335e-05,
"loss": 4.0443,
"step": 7000
},
{
"epoch": 0.48,
"grad_norm": 8.813809394836426,
"learning_rate": 4.2e-05,
"loss": 3.9749,
"step": 7500
},
{
"epoch": 0.512,
"grad_norm": 8.48243236541748,
"learning_rate": 4.146666666666667e-05,
"loss": 3.9173,
"step": 8000
},
{
"epoch": 0.544,
"grad_norm": 9.39013671875,
"learning_rate": 4.093333333333334e-05,
"loss": 3.8608,
"step": 8500
},
{
"epoch": 0.576,
"grad_norm": 10.269105911254883,
"learning_rate": 4.0400000000000006e-05,
"loss": 3.8061,
"step": 9000
},
{
"epoch": 0.608,
"grad_norm": 9.637127876281738,
"learning_rate": 3.986666666666667e-05,
"loss": 3.7511,
"step": 9500
},
{
"epoch": 0.64,
"grad_norm": 8.74539852142334,
"learning_rate": 3.933333333333333e-05,
"loss": 3.7077,
"step": 10000
},
{
"epoch": 0.672,
"grad_norm": 8.93080997467041,
"learning_rate": 3.88e-05,
"loss": 3.6501,
"step": 10500
},
{
"epoch": 0.704,
"grad_norm": 8.28554916381836,
"learning_rate": 3.8266666666666664e-05,
"loss": 3.6125,
"step": 11000
},
{
"epoch": 0.736,
"grad_norm": 8.419025421142578,
"learning_rate": 3.773333333333334e-05,
"loss": 3.5814,
"step": 11500
},
{
"epoch": 0.768,
"grad_norm": 8.312236785888672,
"learning_rate": 3.72e-05,
"loss": 3.5464,
"step": 12000
},
{
"epoch": 0.8,
"grad_norm": 8.151102066040039,
"learning_rate": 3.6666666666666666e-05,
"loss": 3.5081,
"step": 12500
},
{
"epoch": 0.832,
"grad_norm": 9.357521057128906,
"learning_rate": 3.6133333333333335e-05,
"loss": 3.4693,
"step": 13000
},
{
"epoch": 0.864,
"grad_norm": 7.729284763336182,
"learning_rate": 3.56e-05,
"loss": 3.4405,
"step": 13500
},
{
"epoch": 0.896,
"grad_norm": 7.64942741394043,
"learning_rate": 3.506666666666667e-05,
"loss": 3.4151,
"step": 14000
},
{
"epoch": 0.928,
"grad_norm": 8.495372772216797,
"learning_rate": 3.453333333333334e-05,
"loss": 3.3753,
"step": 14500
},
{
"epoch": 0.96,
"grad_norm": 7.65497350692749,
"learning_rate": 3.4000000000000007e-05,
"loss": 3.353,
"step": 15000
},
{
"epoch": 0.992,
"grad_norm": 7.8971428871154785,
"learning_rate": 3.346666666666667e-05,
"loss": 3.338,
"step": 15500
},
{
"epoch": 1.024,
"grad_norm": 7.449124336242676,
"learning_rate": 3.293333333333333e-05,
"loss": 3.3014,
"step": 16000
},
{
"epoch": 1.056,
"grad_norm": 7.5090651512146,
"learning_rate": 3.24e-05,
"loss": 3.2747,
"step": 16500
},
{
"epoch": 1.088,
"grad_norm": 7.478085994720459,
"learning_rate": 3.1866666666666664e-05,
"loss": 3.2579,
"step": 17000
},
{
"epoch": 1.12,
"grad_norm": 7.932021617889404,
"learning_rate": 3.1333333333333334e-05,
"loss": 3.2359,
"step": 17500
},
{
"epoch": 1.152,
"grad_norm": 8.18863582611084,
"learning_rate": 3.08e-05,
"loss": 3.2205,
"step": 18000
},
{
"epoch": 1.184,
"grad_norm": 7.35761022567749,
"learning_rate": 3.0266666666666666e-05,
"loss": 3.199,
"step": 18500
},
{
"epoch": 1.216,
"grad_norm": 7.989797115325928,
"learning_rate": 2.9733333333333336e-05,
"loss": 3.1869,
"step": 19000
},
{
"epoch": 1.248,
"grad_norm": 7.642023086547852,
"learning_rate": 2.9199999999999998e-05,
"loss": 3.1599,
"step": 19500
},
{
"epoch": 1.28,
"grad_norm": 6.902944087982178,
"learning_rate": 2.8666666666666668e-05,
"loss": 3.1459,
"step": 20000
},
{
"epoch": 1.312,
"grad_norm": 7.496644020080566,
"learning_rate": 2.8133333333333334e-05,
"loss": 3.1397,
"step": 20500
},
{
"epoch": 1.3439999999999999,
"grad_norm": 7.395977020263672,
"learning_rate": 2.7600000000000003e-05,
"loss": 3.1104,
"step": 21000
},
{
"epoch": 1.376,
"grad_norm": 7.133719444274902,
"learning_rate": 2.706666666666667e-05,
"loss": 3.1079,
"step": 21500
},
{
"epoch": 1.408,
"grad_norm": 7.099576950073242,
"learning_rate": 2.6533333333333332e-05,
"loss": 3.092,
"step": 22000
},
{
"epoch": 1.44,
"grad_norm": 7.78513765335083,
"learning_rate": 2.6000000000000002e-05,
"loss": 3.0753,
"step": 22500
},
{
"epoch": 1.472,
"grad_norm": 6.83204460144043,
"learning_rate": 2.5466666666666668e-05,
"loss": 3.0676,
"step": 23000
},
{
"epoch": 1.504,
"grad_norm": 6.982757568359375,
"learning_rate": 2.4933333333333334e-05,
"loss": 3.0464,
"step": 23500
},
{
"epoch": 1.536,
"grad_norm": 6.814619541168213,
"learning_rate": 2.44e-05,
"loss": 3.0356,
"step": 24000
},
{
"epoch": 1.568,
"grad_norm": 7.202338695526123,
"learning_rate": 2.3866666666666666e-05,
"loss": 3.0258,
"step": 24500
},
{
"epoch": 1.6,
"grad_norm": 7.039158821105957,
"learning_rate": 2.3333333333333336e-05,
"loss": 3.012,
"step": 25000
},
{
"epoch": 1.6320000000000001,
"grad_norm": 7.325659275054932,
"learning_rate": 2.2800000000000002e-05,
"loss": 3.0007,
"step": 25500
},
{
"epoch": 1.6640000000000001,
"grad_norm": 8.060090065002441,
"learning_rate": 2.2266666666666668e-05,
"loss": 2.9872,
"step": 26000
},
{
"epoch": 1.696,
"grad_norm": 7.202187538146973,
"learning_rate": 2.1733333333333334e-05,
"loss": 2.9845,
"step": 26500
},
{
"epoch": 1.728,
"grad_norm": 7.800703525543213,
"learning_rate": 2.12e-05,
"loss": 2.9821,
"step": 27000
},
{
"epoch": 1.76,
"grad_norm": 7.207638740539551,
"learning_rate": 2.0666666666666666e-05,
"loss": 2.9652,
"step": 27500
},
{
"epoch": 1.792,
"grad_norm": 7.54185676574707,
"learning_rate": 2.0133333333333336e-05,
"loss": 2.9623,
"step": 28000
},
{
"epoch": 1.8239999999999998,
"grad_norm": 7.163204193115234,
"learning_rate": 1.9600000000000002e-05,
"loss": 2.9425,
"step": 28500
},
{
"epoch": 1.8559999999999999,
"grad_norm": 7.450079917907715,
"learning_rate": 1.9066666666666668e-05,
"loss": 2.9438,
"step": 29000
},
{
"epoch": 1.888,
"grad_norm": 7.517152309417725,
"learning_rate": 1.8533333333333334e-05,
"loss": 2.9288,
"step": 29500
},
{
"epoch": 1.92,
"grad_norm": 6.886777400970459,
"learning_rate": 1.8e-05,
"loss": 2.9286,
"step": 30000
},
{
"epoch": 1.952,
"grad_norm": 7.283176422119141,
"learning_rate": 1.7466666666666667e-05,
"loss": 2.9265,
"step": 30500
},
{
"epoch": 1.984,
"grad_norm": 6.9964213371276855,
"learning_rate": 1.6933333333333333e-05,
"loss": 2.9217,
"step": 31000
},
{
"epoch": 2.016,
"grad_norm": 6.313802719116211,
"learning_rate": 1.6400000000000002e-05,
"loss": 2.8975,
"step": 31500
},
{
"epoch": 2.048,
"grad_norm": 7.251451015472412,
"learning_rate": 1.586666666666667e-05,
"loss": 2.9001,
"step": 32000
},
{
"epoch": 2.08,
"grad_norm": 6.860323905944824,
"learning_rate": 1.5333333333333334e-05,
"loss": 2.8917,
"step": 32500
},
{
"epoch": 2.112,
"grad_norm": 7.383843421936035,
"learning_rate": 1.48e-05,
"loss": 2.8886,
"step": 33000
},
{
"epoch": 2.144,
"grad_norm": 7.962520599365234,
"learning_rate": 1.4266666666666667e-05,
"loss": 2.8834,
"step": 33500
},
{
"epoch": 2.176,
"grad_norm": 6.652215480804443,
"learning_rate": 1.3733333333333335e-05,
"loss": 2.8835,
"step": 34000
},
{
"epoch": 2.208,
"grad_norm": 6.979165554046631,
"learning_rate": 1.32e-05,
"loss": 2.8878,
"step": 34500
},
{
"epoch": 2.24,
"grad_norm": 6.656210422515869,
"learning_rate": 1.2666666666666668e-05,
"loss": 2.8787,
"step": 35000
},
{
"epoch": 2.2720000000000002,
"grad_norm": 6.977215766906738,
"learning_rate": 1.2133333333333335e-05,
"loss": 2.8657,
"step": 35500
},
{
"epoch": 2.304,
"grad_norm": 6.938176155090332,
"learning_rate": 1.16e-05,
"loss": 2.8677,
"step": 36000
},
{
"epoch": 2.336,
"grad_norm": 6.848135471343994,
"learning_rate": 1.1066666666666667e-05,
"loss": 2.8554,
"step": 36500
},
{
"epoch": 2.368,
"grad_norm": 7.359588623046875,
"learning_rate": 1.0533333333333335e-05,
"loss": 2.8542,
"step": 37000
},
{
"epoch": 2.4,
"grad_norm": 6.862154960632324,
"learning_rate": 1e-05,
"loss": 2.8506,
"step": 37500
},
{
"epoch": 2.432,
"grad_norm": 7.112462043762207,
"learning_rate": 9.466666666666667e-06,
"loss": 2.8383,
"step": 38000
},
{
"epoch": 2.464,
"grad_norm": 6.976600170135498,
"learning_rate": 8.933333333333333e-06,
"loss": 2.8482,
"step": 38500
},
{
"epoch": 2.496,
"grad_norm": 6.676475524902344,
"learning_rate": 8.400000000000001e-06,
"loss": 2.8419,
"step": 39000
},
{
"epoch": 2.528,
"grad_norm": 7.691751480102539,
"learning_rate": 7.866666666666667e-06,
"loss": 2.833,
"step": 39500
},
{
"epoch": 2.56,
"grad_norm": 6.772462844848633,
"learning_rate": 7.333333333333334e-06,
"loss": 2.833,
"step": 40000
},
{
"epoch": 2.592,
"grad_norm": 6.964785099029541,
"learning_rate": 6.800000000000001e-06,
"loss": 2.8197,
"step": 40500
},
{
"epoch": 2.624,
"grad_norm": 7.101240158081055,
"learning_rate": 6.266666666666666e-06,
"loss": 2.8218,
"step": 41000
},
{
"epoch": 2.656,
"grad_norm": 6.615237712860107,
"learning_rate": 5.733333333333333e-06,
"loss": 2.8257,
"step": 41500
},
{
"epoch": 2.6879999999999997,
"grad_norm": 7.214221954345703,
"learning_rate": 5.2e-06,
"loss": 2.825,
"step": 42000
},
{
"epoch": 2.7199999999999998,
"grad_norm": 6.964833736419678,
"learning_rate": 4.666666666666667e-06,
"loss": 2.8267,
"step": 42500
},
{
"epoch": 2.752,
"grad_norm": 6.813267707824707,
"learning_rate": 4.133333333333333e-06,
"loss": 2.8065,
"step": 43000
},
{
"epoch": 2.784,
"grad_norm": 7.196587562561035,
"learning_rate": 3.6e-06,
"loss": 2.815,
"step": 43500
},
{
"epoch": 2.816,
"grad_norm": 7.404820919036865,
"learning_rate": 3.066666666666667e-06,
"loss": 2.8261,
"step": 44000
},
{
"epoch": 2.848,
"grad_norm": 6.9792327880859375,
"learning_rate": 2.5333333333333334e-06,
"loss": 2.8261,
"step": 44500
},
{
"epoch": 2.88,
"grad_norm": 7.13853120803833,
"learning_rate": 2.0000000000000003e-06,
"loss": 2.8103,
"step": 45000
},
{
"epoch": 2.912,
"grad_norm": 7.038462162017822,
"learning_rate": 1.4666666666666667e-06,
"loss": 2.8194,
"step": 45500
},
{
"epoch": 2.944,
"grad_norm": 7.771182060241699,
"learning_rate": 9.333333333333334e-07,
"loss": 2.8209,
"step": 46000
},
{
"epoch": 2.976,
"grad_norm": 7.454243183135986,
"learning_rate": 4.0000000000000003e-07,
"loss": 2.8244,
"step": 46500
}
],
"logging_steps": 500,
"max_steps": 46875,
"num_input_tokens_seen": 0,
"num_train_epochs": 3,
"save_steps": 500,
"stateful_callbacks": {
"TrainerControl": {
"args": {
"should_epoch_stop": false,
"should_evaluate": false,
"should_log": false,
"should_save": true,
"should_training_stop": true
},
"attributes": {}
}
},
"total_flos": 3.99952244736e+17,
"train_batch_size": 16,
"trial_name": null,
"trial_params": null
}