|
{ |
|
"best_metric": 0.7950819672131147, |
|
"best_model_checkpoint": "./save_phi2_ft_lora/checkpoint-700", |
|
"epoch": 2.0, |
|
"eval_steps": 100, |
|
"global_step": 700, |
|
"is_hyper_param_search": false, |
|
"is_local_process_zero": true, |
|
"is_world_process_zero": true, |
|
"log_history": [ |
|
{ |
|
"epoch": 0.02857142857142857, |
|
"grad_norm": 0.18488438427448273, |
|
"learning_rate": 5e-06, |
|
"loss": 1.9926, |
|
"step": 10 |
|
}, |
|
{ |
|
"epoch": 0.05714285714285714, |
|
"grad_norm": 0.20217478275299072, |
|
"learning_rate": 1e-05, |
|
"loss": 2.0428, |
|
"step": 20 |
|
}, |
|
{ |
|
"epoch": 0.08571428571428572, |
|
"grad_norm": 0.22868461906909943, |
|
"learning_rate": 1.5e-05, |
|
"loss": 2.1981, |
|
"step": 30 |
|
}, |
|
{ |
|
"epoch": 0.11428571428571428, |
|
"grad_norm": 0.31630581617355347, |
|
"learning_rate": 2e-05, |
|
"loss": 2.1773, |
|
"step": 40 |
|
}, |
|
{ |
|
"epoch": 0.14285714285714285, |
|
"grad_norm": 0.46189257502555847, |
|
"learning_rate": 2.5e-05, |
|
"loss": 2.0399, |
|
"step": 50 |
|
}, |
|
{ |
|
"epoch": 0.17142857142857143, |
|
"grad_norm": 1.0216264724731445, |
|
"learning_rate": 3e-05, |
|
"loss": 2.1152, |
|
"step": 60 |
|
}, |
|
{ |
|
"epoch": 0.2, |
|
"grad_norm": 0.6140756607055664, |
|
"learning_rate": 3.5e-05, |
|
"loss": 2.0064, |
|
"step": 70 |
|
}, |
|
{ |
|
"epoch": 0.22857142857142856, |
|
"grad_norm": 0.7276609539985657, |
|
"learning_rate": 4e-05, |
|
"loss": 1.9443, |
|
"step": 80 |
|
}, |
|
{ |
|
"epoch": 0.2571428571428571, |
|
"grad_norm": 0.694882869720459, |
|
"learning_rate": 4.5e-05, |
|
"loss": 1.9579, |
|
"step": 90 |
|
}, |
|
{ |
|
"epoch": 0.2857142857142857, |
|
"grad_norm": 0.7517616748809814, |
|
"learning_rate": 5e-05, |
|
"loss": 1.9891, |
|
"step": 100 |
|
}, |
|
{ |
|
"epoch": 0.2857142857142857, |
|
"eval_accuracy": 0.7295081967213115, |
|
"step": 100 |
|
}, |
|
{ |
|
"epoch": 0.2857142857142857, |
|
"eval_loss": 1.9115574359893799, |
|
"eval_runtime": 333.2149, |
|
"eval_samples_per_second": 1.098, |
|
"eval_steps_per_second": 1.098, |
|
"step": 100 |
|
}, |
|
{ |
|
"epoch": 0.3142857142857143, |
|
"grad_norm": 0.8051323294639587, |
|
"learning_rate": 4.9166666666666665e-05, |
|
"loss": 1.8878, |
|
"step": 110 |
|
}, |
|
{ |
|
"epoch": 0.34285714285714286, |
|
"grad_norm": 0.8047056198120117, |
|
"learning_rate": 4.8333333333333334e-05, |
|
"loss": 1.9324, |
|
"step": 120 |
|
}, |
|
{ |
|
"epoch": 0.37142857142857144, |
|
"grad_norm": 0.7180447578430176, |
|
"learning_rate": 4.75e-05, |
|
"loss": 1.939, |
|
"step": 130 |
|
}, |
|
{ |
|
"epoch": 0.4, |
|
"grad_norm": 0.8593822717666626, |
|
"learning_rate": 4.666666666666667e-05, |
|
"loss": 1.821, |
|
"step": 140 |
|
}, |
|
{ |
|
"epoch": 0.42857142857142855, |
|
"grad_norm": 0.837947428226471, |
|
"learning_rate": 4.5833333333333334e-05, |
|
"loss": 1.8796, |
|
"step": 150 |
|
}, |
|
{ |
|
"epoch": 0.45714285714285713, |
|
"grad_norm": 0.8277564644813538, |
|
"learning_rate": 4.5e-05, |
|
"loss": 1.8104, |
|
"step": 160 |
|
}, |
|
{ |
|
"epoch": 0.4857142857142857, |
|
"grad_norm": 0.8004774451255798, |
|
"learning_rate": 4.4166666666666665e-05, |
|
"loss": 1.9447, |
|
"step": 170 |
|
}, |
|
{ |
|
"epoch": 0.5142857142857142, |
|
"grad_norm": 0.907889187335968, |
|
"learning_rate": 4.3333333333333334e-05, |
|
"loss": 1.9153, |
|
"step": 180 |
|
}, |
|
{ |
|
"epoch": 0.5428571428571428, |
|
"grad_norm": 0.8122074604034424, |
|
"learning_rate": 4.25e-05, |
|
"loss": 1.8258, |
|
"step": 190 |
|
}, |
|
{ |
|
"epoch": 0.5714285714285714, |
|
"grad_norm": 0.8643149137496948, |
|
"learning_rate": 4.166666666666667e-05, |
|
"loss": 1.9096, |
|
"step": 200 |
|
}, |
|
{ |
|
"epoch": 0.5714285714285714, |
|
"eval_accuracy": 0.7759562841530054, |
|
"step": 200 |
|
}, |
|
{ |
|
"epoch": 0.5714285714285714, |
|
"eval_loss": 1.8283634185791016, |
|
"eval_runtime": 333.2589, |
|
"eval_samples_per_second": 1.098, |
|
"eval_steps_per_second": 1.098, |
|
"step": 200 |
|
}, |
|
{ |
|
"epoch": 0.6, |
|
"grad_norm": 0.7891345024108887, |
|
"learning_rate": 4.0833333333333334e-05, |
|
"loss": 1.8198, |
|
"step": 210 |
|
}, |
|
{ |
|
"epoch": 0.6285714285714286, |
|
"grad_norm": 0.9142560362815857, |
|
"learning_rate": 4e-05, |
|
"loss": 1.822, |
|
"step": 220 |
|
}, |
|
{ |
|
"epoch": 0.6571428571428571, |
|
"grad_norm": 0.8956629037857056, |
|
"learning_rate": 3.9166666666666665e-05, |
|
"loss": 1.9947, |
|
"step": 230 |
|
}, |
|
{ |
|
"epoch": 0.6857142857142857, |
|
"grad_norm": 0.8790289163589478, |
|
"learning_rate": 3.8333333333333334e-05, |
|
"loss": 1.8011, |
|
"step": 240 |
|
}, |
|
{ |
|
"epoch": 0.7142857142857143, |
|
"grad_norm": 0.7958552837371826, |
|
"learning_rate": 3.7500000000000003e-05, |
|
"loss": 1.8926, |
|
"step": 250 |
|
}, |
|
{ |
|
"epoch": 0.7428571428571429, |
|
"grad_norm": 0.924050509929657, |
|
"learning_rate": 3.6666666666666666e-05, |
|
"loss": 1.7819, |
|
"step": 260 |
|
}, |
|
{ |
|
"epoch": 0.7714285714285715, |
|
"grad_norm": 0.8796949982643127, |
|
"learning_rate": 3.5833333333333335e-05, |
|
"loss": 1.9019, |
|
"step": 270 |
|
}, |
|
{ |
|
"epoch": 0.8, |
|
"grad_norm": 0.886051595211029, |
|
"learning_rate": 3.5e-05, |
|
"loss": 1.9703, |
|
"step": 280 |
|
}, |
|
{ |
|
"epoch": 0.8285714285714286, |
|
"grad_norm": 0.927409291267395, |
|
"learning_rate": 3.4166666666666666e-05, |
|
"loss": 1.7759, |
|
"step": 290 |
|
}, |
|
{ |
|
"epoch": 0.8571428571428571, |
|
"grad_norm": 0.9948813915252686, |
|
"learning_rate": 3.3333333333333335e-05, |
|
"loss": 1.8922, |
|
"step": 300 |
|
}, |
|
{ |
|
"epoch": 0.8571428571428571, |
|
"eval_accuracy": 0.7841530054644809, |
|
"step": 300 |
|
}, |
|
{ |
|
"epoch": 0.8571428571428571, |
|
"eval_loss": 1.7880818843841553, |
|
"eval_runtime": 333.1304, |
|
"eval_samples_per_second": 1.099, |
|
"eval_steps_per_second": 1.099, |
|
"step": 300 |
|
}, |
|
{ |
|
"epoch": 0.8857142857142857, |
|
"grad_norm": 1.0474625825881958, |
|
"learning_rate": 3.2500000000000004e-05, |
|
"loss": 1.8395, |
|
"step": 310 |
|
}, |
|
{ |
|
"epoch": 0.9142857142857143, |
|
"grad_norm": 0.9924995303153992, |
|
"learning_rate": 3.1666666666666666e-05, |
|
"loss": 1.7693, |
|
"step": 320 |
|
}, |
|
{ |
|
"epoch": 0.9428571428571428, |
|
"grad_norm": 0.9499343037605286, |
|
"learning_rate": 3.0833333333333335e-05, |
|
"loss": 1.7355, |
|
"step": 330 |
|
}, |
|
{ |
|
"epoch": 0.9714285714285714, |
|
"grad_norm": 0.956279456615448, |
|
"learning_rate": 3e-05, |
|
"loss": 1.8403, |
|
"step": 340 |
|
}, |
|
{ |
|
"epoch": 1.0, |
|
"grad_norm": 1.0404754877090454, |
|
"learning_rate": 2.916666666666667e-05, |
|
"loss": 1.697, |
|
"step": 350 |
|
}, |
|
{ |
|
"epoch": 1.0285714285714285, |
|
"grad_norm": 1.0445646047592163, |
|
"learning_rate": 2.8333333333333335e-05, |
|
"loss": 1.7473, |
|
"step": 360 |
|
}, |
|
{ |
|
"epoch": 1.0571428571428572, |
|
"grad_norm": 0.9327600002288818, |
|
"learning_rate": 2.7500000000000004e-05, |
|
"loss": 1.667, |
|
"step": 370 |
|
}, |
|
{ |
|
"epoch": 1.0857142857142856, |
|
"grad_norm": 0.9816291332244873, |
|
"learning_rate": 2.6666666666666667e-05, |
|
"loss": 1.7852, |
|
"step": 380 |
|
}, |
|
{ |
|
"epoch": 1.1142857142857143, |
|
"grad_norm": 1.0297495126724243, |
|
"learning_rate": 2.5833333333333336e-05, |
|
"loss": 1.7682, |
|
"step": 390 |
|
}, |
|
{ |
|
"epoch": 1.1428571428571428, |
|
"grad_norm": 1.0091726779937744, |
|
"learning_rate": 2.5e-05, |
|
"loss": 1.7433, |
|
"step": 400 |
|
}, |
|
{ |
|
"epoch": 1.1428571428571428, |
|
"eval_accuracy": 0.7650273224043715, |
|
"step": 400 |
|
}, |
|
{ |
|
"epoch": 1.1428571428571428, |
|
"eval_loss": 1.7643077373504639, |
|
"eval_runtime": 333.0906, |
|
"eval_samples_per_second": 1.099, |
|
"eval_steps_per_second": 1.099, |
|
"step": 400 |
|
}, |
|
{ |
|
"epoch": 1.1714285714285715, |
|
"grad_norm": 1.0174561738967896, |
|
"learning_rate": 2.4166666666666667e-05, |
|
"loss": 1.8829, |
|
"step": 410 |
|
}, |
|
{ |
|
"epoch": 1.2, |
|
"grad_norm": 1.0341657400131226, |
|
"learning_rate": 2.3333333333333336e-05, |
|
"loss": 1.7196, |
|
"step": 420 |
|
}, |
|
{ |
|
"epoch": 1.2285714285714286, |
|
"grad_norm": 0.9410291314125061, |
|
"learning_rate": 2.25e-05, |
|
"loss": 1.7932, |
|
"step": 430 |
|
}, |
|
{ |
|
"epoch": 1.2571428571428571, |
|
"grad_norm": 1.0426926612854004, |
|
"learning_rate": 2.1666666666666667e-05, |
|
"loss": 1.78, |
|
"step": 440 |
|
}, |
|
{ |
|
"epoch": 1.2857142857142856, |
|
"grad_norm": 1.0770841836929321, |
|
"learning_rate": 2.0833333333333336e-05, |
|
"loss": 1.6309, |
|
"step": 450 |
|
}, |
|
{ |
|
"epoch": 1.3142857142857143, |
|
"grad_norm": 1.0598176717758179, |
|
"learning_rate": 2e-05, |
|
"loss": 1.7488, |
|
"step": 460 |
|
}, |
|
{ |
|
"epoch": 1.342857142857143, |
|
"grad_norm": 1.1742558479309082, |
|
"learning_rate": 1.9166666666666667e-05, |
|
"loss": 1.8233, |
|
"step": 470 |
|
}, |
|
{ |
|
"epoch": 1.3714285714285714, |
|
"grad_norm": 1.126645803451538, |
|
"learning_rate": 1.8333333333333333e-05, |
|
"loss": 1.7465, |
|
"step": 480 |
|
}, |
|
{ |
|
"epoch": 1.4, |
|
"grad_norm": 0.9148754477500916, |
|
"learning_rate": 1.75e-05, |
|
"loss": 1.7949, |
|
"step": 490 |
|
}, |
|
{ |
|
"epoch": 1.4285714285714286, |
|
"grad_norm": 1.107389211654663, |
|
"learning_rate": 1.6666666666666667e-05, |
|
"loss": 1.7432, |
|
"step": 500 |
|
}, |
|
{ |
|
"epoch": 1.4285714285714286, |
|
"eval_accuracy": 0.7868852459016393, |
|
"step": 500 |
|
}, |
|
{ |
|
"epoch": 1.4285714285714286, |
|
"eval_loss": 1.748939871788025, |
|
"eval_runtime": 333.192, |
|
"eval_samples_per_second": 1.098, |
|
"eval_steps_per_second": 1.098, |
|
"step": 500 |
|
}, |
|
{ |
|
"epoch": 1.457142857142857, |
|
"grad_norm": 1.2002185583114624, |
|
"learning_rate": 1.5833333333333333e-05, |
|
"loss": 1.7826, |
|
"step": 510 |
|
}, |
|
{ |
|
"epoch": 1.4857142857142858, |
|
"grad_norm": 1.1252415180206299, |
|
"learning_rate": 1.5e-05, |
|
"loss": 1.7597, |
|
"step": 520 |
|
}, |
|
{ |
|
"epoch": 1.5142857142857142, |
|
"grad_norm": 1.1889337301254272, |
|
"learning_rate": 1.4166666666666668e-05, |
|
"loss": 1.7937, |
|
"step": 530 |
|
}, |
|
{ |
|
"epoch": 1.5428571428571427, |
|
"grad_norm": 1.2100496292114258, |
|
"learning_rate": 1.3333333333333333e-05, |
|
"loss": 1.8168, |
|
"step": 540 |
|
}, |
|
{ |
|
"epoch": 1.5714285714285714, |
|
"grad_norm": 1.190521478652954, |
|
"learning_rate": 1.25e-05, |
|
"loss": 1.788, |
|
"step": 550 |
|
}, |
|
{ |
|
"epoch": 1.6, |
|
"grad_norm": 1.0327638387680054, |
|
"learning_rate": 1.1666666666666668e-05, |
|
"loss": 1.7767, |
|
"step": 560 |
|
}, |
|
{ |
|
"epoch": 1.6285714285714286, |
|
"grad_norm": 1.1176255941390991, |
|
"learning_rate": 1.0833333333333334e-05, |
|
"loss": 1.6956, |
|
"step": 570 |
|
}, |
|
{ |
|
"epoch": 1.657142857142857, |
|
"grad_norm": 1.1072781085968018, |
|
"learning_rate": 1e-05, |
|
"loss": 1.6686, |
|
"step": 580 |
|
}, |
|
{ |
|
"epoch": 1.6857142857142857, |
|
"grad_norm": 1.0272276401519775, |
|
"learning_rate": 9.166666666666666e-06, |
|
"loss": 1.8453, |
|
"step": 590 |
|
}, |
|
{ |
|
"epoch": 1.7142857142857144, |
|
"grad_norm": 1.065024495124817, |
|
"learning_rate": 8.333333333333334e-06, |
|
"loss": 1.671, |
|
"step": 600 |
|
}, |
|
{ |
|
"epoch": 1.7142857142857144, |
|
"eval_accuracy": 0.7896174863387978, |
|
"step": 600 |
|
}, |
|
{ |
|
"epoch": 1.7142857142857144, |
|
"eval_loss": 1.7397360801696777, |
|
"eval_runtime": 333.0589, |
|
"eval_samples_per_second": 1.099, |
|
"eval_steps_per_second": 1.099, |
|
"step": 600 |
|
}, |
|
{ |
|
"epoch": 1.7428571428571429, |
|
"grad_norm": 1.1745575666427612, |
|
"learning_rate": 7.5e-06, |
|
"loss": 1.829, |
|
"step": 610 |
|
}, |
|
{ |
|
"epoch": 1.7714285714285714, |
|
"grad_norm": 1.0269488096237183, |
|
"learning_rate": 6.666666666666667e-06, |
|
"loss": 1.7173, |
|
"step": 620 |
|
}, |
|
{ |
|
"epoch": 1.8, |
|
"grad_norm": 1.1062535047531128, |
|
"learning_rate": 5.833333333333334e-06, |
|
"loss": 1.8612, |
|
"step": 630 |
|
}, |
|
{ |
|
"epoch": 1.8285714285714287, |
|
"grad_norm": 1.2334086894989014, |
|
"learning_rate": 5e-06, |
|
"loss": 1.7248, |
|
"step": 640 |
|
}, |
|
{ |
|
"epoch": 1.8571428571428572, |
|
"grad_norm": 1.1001238822937012, |
|
"learning_rate": 4.166666666666667e-06, |
|
"loss": 1.5851, |
|
"step": 650 |
|
}, |
|
{ |
|
"epoch": 1.8857142857142857, |
|
"grad_norm": 1.128665566444397, |
|
"learning_rate": 3.3333333333333333e-06, |
|
"loss": 1.7088, |
|
"step": 660 |
|
}, |
|
{ |
|
"epoch": 1.9142857142857141, |
|
"grad_norm": 1.0871235132217407, |
|
"learning_rate": 2.5e-06, |
|
"loss": 1.654, |
|
"step": 670 |
|
}, |
|
{ |
|
"epoch": 1.9428571428571428, |
|
"grad_norm": 1.0558490753173828, |
|
"learning_rate": 1.6666666666666667e-06, |
|
"loss": 1.7141, |
|
"step": 680 |
|
}, |
|
{ |
|
"epoch": 1.9714285714285715, |
|
"grad_norm": 1.0383915901184082, |
|
"learning_rate": 8.333333333333333e-07, |
|
"loss": 1.6771, |
|
"step": 690 |
|
}, |
|
{ |
|
"epoch": 2.0, |
|
"grad_norm": 1.1970326900482178, |
|
"learning_rate": 0.0, |
|
"loss": 1.7946, |
|
"step": 700 |
|
}, |
|
{ |
|
"epoch": 2.0, |
|
"eval_accuracy": 0.7950819672131147, |
|
"step": 700 |
|
}, |
|
{ |
|
"epoch": 2.0, |
|
"eval_loss": 1.7362613677978516, |
|
"eval_runtime": 333.1874, |
|
"eval_samples_per_second": 1.098, |
|
"eval_steps_per_second": 1.098, |
|
"step": 700 |
|
} |
|
], |
|
"logging_steps": 10, |
|
"max_steps": 700, |
|
"num_input_tokens_seen": 0, |
|
"num_train_epochs": 2, |
|
"save_steps": 100, |
|
"stateful_callbacks": { |
|
"TrainerControl": { |
|
"args": { |
|
"should_epoch_stop": false, |
|
"should_evaluate": false, |
|
"should_log": false, |
|
"should_save": true, |
|
"should_training_stop": true |
|
}, |
|
"attributes": {} |
|
} |
|
}, |
|
"total_flos": 9.2031141543936e+16, |
|
"train_batch_size": 1, |
|
"trial_name": null, |
|
"trial_params": null |
|
} |
|
|