|
{ |
|
"best_metric": null, |
|
"best_model_checkpoint": null, |
|
"epoch": 0.4266666666666667, |
|
"eval_steps": 500, |
|
"global_step": 400, |
|
"is_hyper_param_search": false, |
|
"is_local_process_zero": true, |
|
"is_world_process_zero": true, |
|
"log_history": [ |
|
{ |
|
"epoch": 0.021333333333333333, |
|
"grad_norm": 0.46613356471061707, |
|
"learning_rate": 0.00019678111587982831, |
|
"loss": 1.2799, |
|
"step": 20 |
|
}, |
|
{ |
|
"epoch": 0.042666666666666665, |
|
"grad_norm": 0.3468495309352875, |
|
"learning_rate": 0.0001924892703862661, |
|
"loss": 0.8919, |
|
"step": 40 |
|
}, |
|
{ |
|
"epoch": 0.064, |
|
"grad_norm": 0.4602198004722595, |
|
"learning_rate": 0.00018819742489270387, |
|
"loss": 0.8586, |
|
"step": 60 |
|
}, |
|
{ |
|
"epoch": 0.08533333333333333, |
|
"grad_norm": 0.480325311422348, |
|
"learning_rate": 0.00018390557939914164, |
|
"loss": 0.7571, |
|
"step": 80 |
|
}, |
|
{ |
|
"epoch": 0.10666666666666667, |
|
"grad_norm": 0.30179363489151, |
|
"learning_rate": 0.00017961373390557942, |
|
"loss": 0.7793, |
|
"step": 100 |
|
}, |
|
{ |
|
"epoch": 0.128, |
|
"grad_norm": 0.3483397364616394, |
|
"learning_rate": 0.00017532188841201717, |
|
"loss": 0.7647, |
|
"step": 120 |
|
}, |
|
{ |
|
"epoch": 0.14933333333333335, |
|
"grad_norm": 0.29965728521347046, |
|
"learning_rate": 0.00017103004291845494, |
|
"loss": 0.6741, |
|
"step": 140 |
|
}, |
|
{ |
|
"epoch": 0.17066666666666666, |
|
"grad_norm": 0.26644188165664673, |
|
"learning_rate": 0.00016673819742489272, |
|
"loss": 0.7586, |
|
"step": 160 |
|
}, |
|
{ |
|
"epoch": 0.192, |
|
"grad_norm": 0.2962466776371002, |
|
"learning_rate": 0.0001624463519313305, |
|
"loss": 0.7364, |
|
"step": 180 |
|
}, |
|
{ |
|
"epoch": 0.21333333333333335, |
|
"grad_norm": 0.36480244994163513, |
|
"learning_rate": 0.00015815450643776824, |
|
"loss": 0.7944, |
|
"step": 200 |
|
}, |
|
{ |
|
"epoch": 0.23466666666666666, |
|
"grad_norm": 0.23963908851146698, |
|
"learning_rate": 0.000153862660944206, |
|
"loss": 0.7055, |
|
"step": 220 |
|
}, |
|
{ |
|
"epoch": 0.256, |
|
"grad_norm": 0.3207215666770935, |
|
"learning_rate": 0.00014957081545064377, |
|
"loss": 0.7495, |
|
"step": 240 |
|
}, |
|
{ |
|
"epoch": 0.2773333333333333, |
|
"grad_norm": 0.34940779209136963, |
|
"learning_rate": 0.00014527896995708155, |
|
"loss": 0.7739, |
|
"step": 260 |
|
}, |
|
{ |
|
"epoch": 0.2986666666666667, |
|
"grad_norm": 0.2764255702495575, |
|
"learning_rate": 0.00014098712446351932, |
|
"loss": 0.7126, |
|
"step": 280 |
|
}, |
|
{ |
|
"epoch": 0.32, |
|
"grad_norm": 0.27612850069999695, |
|
"learning_rate": 0.0001366952789699571, |
|
"loss": 0.7308, |
|
"step": 300 |
|
}, |
|
{ |
|
"epoch": 0.3413333333333333, |
|
"grad_norm": 0.2778555154800415, |
|
"learning_rate": 0.00013240343347639485, |
|
"loss": 0.6974, |
|
"step": 320 |
|
}, |
|
{ |
|
"epoch": 0.3626666666666667, |
|
"grad_norm": 0.33450472354888916, |
|
"learning_rate": 0.00012811158798283262, |
|
"loss": 0.7557, |
|
"step": 340 |
|
}, |
|
{ |
|
"epoch": 0.384, |
|
"grad_norm": 0.2894728183746338, |
|
"learning_rate": 0.0001238197424892704, |
|
"loss": 0.7222, |
|
"step": 360 |
|
}, |
|
{ |
|
"epoch": 0.4053333333333333, |
|
"grad_norm": 0.34458762407302856, |
|
"learning_rate": 0.00011952789699570816, |
|
"loss": 0.7467, |
|
"step": 380 |
|
}, |
|
{ |
|
"epoch": 0.4266666666666667, |
|
"grad_norm": 0.42291197180747986, |
|
"learning_rate": 0.00011523605150214594, |
|
"loss": 0.6999, |
|
"step": 400 |
|
} |
|
], |
|
"logging_steps": 20, |
|
"max_steps": 937, |
|
"num_input_tokens_seen": 0, |
|
"num_train_epochs": 1, |
|
"save_steps": 200, |
|
"stateful_callbacks": { |
|
"TrainerControl": { |
|
"args": { |
|
"should_epoch_stop": false, |
|
"should_evaluate": false, |
|
"should_log": false, |
|
"should_save": true, |
|
"should_training_stop": false |
|
}, |
|
"attributes": {} |
|
} |
|
}, |
|
"total_flos": 9.63186370019328e+16, |
|
"train_batch_size": 2, |
|
"trial_name": null, |
|
"trial_params": null |
|
} |
|
|