|
{ |
|
"best_metric": 0.972972972972973, |
|
"best_model_checkpoint": "vivit-b-16x2-kinetics400-finetuned-ucf101-subset/checkpoint-300", |
|
"epoch": 1.2, |
|
"eval_steps": 500, |
|
"global_step": 375, |
|
"is_hyper_param_search": false, |
|
"is_local_process_zero": true, |
|
"is_world_process_zero": true, |
|
"log_history": [ |
|
{ |
|
"epoch": 0.02666666666666667, |
|
"grad_norm": 30.73906707763672, |
|
"learning_rate": 1.3157894736842106e-05, |
|
"loss": 2.5162, |
|
"step": 10 |
|
}, |
|
{ |
|
"epoch": 0.05333333333333334, |
|
"grad_norm": 30.56110382080078, |
|
"learning_rate": 2.6315789473684212e-05, |
|
"loss": 1.974, |
|
"step": 20 |
|
}, |
|
{ |
|
"epoch": 0.08, |
|
"grad_norm": 30.580888748168945, |
|
"learning_rate": 3.9473684210526316e-05, |
|
"loss": 1.7732, |
|
"step": 30 |
|
}, |
|
{ |
|
"epoch": 0.10666666666666667, |
|
"grad_norm": 24.04612159729004, |
|
"learning_rate": 4.9703264094955494e-05, |
|
"loss": 1.4326, |
|
"step": 40 |
|
}, |
|
{ |
|
"epoch": 0.13333333333333333, |
|
"grad_norm": 13.380224227905273, |
|
"learning_rate": 4.821958456973294e-05, |
|
"loss": 0.9701, |
|
"step": 50 |
|
}, |
|
{ |
|
"epoch": 0.16, |
|
"grad_norm": 27.399700164794922, |
|
"learning_rate": 4.673590504451038e-05, |
|
"loss": 0.8552, |
|
"step": 60 |
|
}, |
|
{ |
|
"epoch": 0.18666666666666668, |
|
"grad_norm": 31.170425415039062, |
|
"learning_rate": 4.525222551928784e-05, |
|
"loss": 0.6236, |
|
"step": 70 |
|
}, |
|
{ |
|
"epoch": 0.21333333333333335, |
|
"grad_norm": 0.6463847160339355, |
|
"learning_rate": 4.3768545994065286e-05, |
|
"loss": 0.3492, |
|
"step": 80 |
|
}, |
|
{ |
|
"epoch": 0.24, |
|
"grad_norm": 6.623310565948486, |
|
"learning_rate": 4.228486646884273e-05, |
|
"loss": 0.4079, |
|
"step": 90 |
|
}, |
|
{ |
|
"epoch": 0.26666666666666666, |
|
"grad_norm": 15.640702247619629, |
|
"learning_rate": 4.080118694362018e-05, |
|
"loss": 0.6108, |
|
"step": 100 |
|
}, |
|
{ |
|
"epoch": 0.29333333333333333, |
|
"grad_norm": 4.277254104614258, |
|
"learning_rate": 3.9317507418397627e-05, |
|
"loss": 0.0964, |
|
"step": 110 |
|
}, |
|
{ |
|
"epoch": 0.32, |
|
"grad_norm": 0.38755565881729126, |
|
"learning_rate": 3.783382789317508e-05, |
|
"loss": 0.3366, |
|
"step": 120 |
|
}, |
|
{ |
|
"epoch": 0.3466666666666667, |
|
"grad_norm": 1.2960447072982788, |
|
"learning_rate": 3.635014836795252e-05, |
|
"loss": 0.4302, |
|
"step": 130 |
|
}, |
|
{ |
|
"epoch": 0.37333333333333335, |
|
"grad_norm": 1.9863858222961426, |
|
"learning_rate": 3.4866468842729974e-05, |
|
"loss": 0.2443, |
|
"step": 140 |
|
}, |
|
{ |
|
"epoch": 0.4, |
|
"grad_norm": 16.24022102355957, |
|
"learning_rate": 3.338278931750742e-05, |
|
"loss": 0.1272, |
|
"step": 150 |
|
}, |
|
{ |
|
"epoch": 0.4266666666666667, |
|
"grad_norm": 1.1514637470245361, |
|
"learning_rate": 3.189910979228487e-05, |
|
"loss": 0.4169, |
|
"step": 160 |
|
}, |
|
{ |
|
"epoch": 0.4533333333333333, |
|
"grad_norm": 1.1362906694412231, |
|
"learning_rate": 3.0415430267062318e-05, |
|
"loss": 0.1192, |
|
"step": 170 |
|
}, |
|
{ |
|
"epoch": 0.48, |
|
"grad_norm": 0.12466049939393997, |
|
"learning_rate": 2.8931750741839762e-05, |
|
"loss": 0.4113, |
|
"step": 180 |
|
}, |
|
{ |
|
"epoch": 0.5066666666666667, |
|
"grad_norm": 0.7614925503730774, |
|
"learning_rate": 2.744807121661721e-05, |
|
"loss": 0.0469, |
|
"step": 190 |
|
}, |
|
{ |
|
"epoch": 0.5333333333333333, |
|
"grad_norm": 0.4682028889656067, |
|
"learning_rate": 2.5964391691394662e-05, |
|
"loss": 0.0311, |
|
"step": 200 |
|
}, |
|
{ |
|
"epoch": 0.56, |
|
"grad_norm": 0.858252227306366, |
|
"learning_rate": 2.4480712166172106e-05, |
|
"loss": 0.017, |
|
"step": 210 |
|
}, |
|
{ |
|
"epoch": 0.5866666666666667, |
|
"grad_norm": 0.2377556562423706, |
|
"learning_rate": 2.2997032640949558e-05, |
|
"loss": 0.0082, |
|
"step": 220 |
|
}, |
|
{ |
|
"epoch": 0.6133333333333333, |
|
"grad_norm": 0.10321161895990372, |
|
"learning_rate": 2.1513353115727002e-05, |
|
"loss": 0.0069, |
|
"step": 230 |
|
}, |
|
{ |
|
"epoch": 0.64, |
|
"grad_norm": 1.6798615455627441, |
|
"learning_rate": 2.0029673590504454e-05, |
|
"loss": 0.0098, |
|
"step": 240 |
|
}, |
|
{ |
|
"epoch": 0.6666666666666666, |
|
"grad_norm": 0.1340479999780655, |
|
"learning_rate": 1.85459940652819e-05, |
|
"loss": 0.0083, |
|
"step": 250 |
|
}, |
|
{ |
|
"epoch": 0.6933333333333334, |
|
"grad_norm": 0.24002894759178162, |
|
"learning_rate": 1.706231454005935e-05, |
|
"loss": 0.0324, |
|
"step": 260 |
|
}, |
|
{ |
|
"epoch": 0.72, |
|
"grad_norm": 0.1034119501709938, |
|
"learning_rate": 1.5578635014836794e-05, |
|
"loss": 0.011, |
|
"step": 270 |
|
}, |
|
{ |
|
"epoch": 0.7466666666666667, |
|
"grad_norm": 0.1348913013935089, |
|
"learning_rate": 1.4094955489614246e-05, |
|
"loss": 0.2374, |
|
"step": 280 |
|
}, |
|
{ |
|
"epoch": 0.7733333333333333, |
|
"grad_norm": 0.19884160161018372, |
|
"learning_rate": 1.2611275964391692e-05, |
|
"loss": 0.0041, |
|
"step": 290 |
|
}, |
|
{ |
|
"epoch": 0.8, |
|
"grad_norm": 0.0887996107339859, |
|
"learning_rate": 1.112759643916914e-05, |
|
"loss": 0.327, |
|
"step": 300 |
|
}, |
|
{ |
|
"epoch": 0.8, |
|
"eval_accuracy": 0.972972972972973, |
|
"eval_loss": 0.041303958743810654, |
|
"eval_runtime": 27.5663, |
|
"eval_samples_per_second": 1.342, |
|
"eval_steps_per_second": 0.363, |
|
"step": 300 |
|
}, |
|
{ |
|
"epoch": 1.0266666666666666, |
|
"grad_norm": 0.4455372393131256, |
|
"learning_rate": 9.643916913946588e-06, |
|
"loss": 0.0062, |
|
"step": 310 |
|
}, |
|
{ |
|
"epoch": 1.0533333333333332, |
|
"grad_norm": 0.0666133463382721, |
|
"learning_rate": 8.160237388724036e-06, |
|
"loss": 0.0063, |
|
"step": 320 |
|
}, |
|
{ |
|
"epoch": 1.08, |
|
"grad_norm": 0.16947615146636963, |
|
"learning_rate": 6.676557863501484e-06, |
|
"loss": 0.0026, |
|
"step": 330 |
|
}, |
|
{ |
|
"epoch": 1.1066666666666667, |
|
"grad_norm": 0.07509300112724304, |
|
"learning_rate": 5.192878338278932e-06, |
|
"loss": 0.0029, |
|
"step": 340 |
|
}, |
|
{ |
|
"epoch": 1.1333333333333333, |
|
"grad_norm": 0.06688421964645386, |
|
"learning_rate": 3.7091988130563796e-06, |
|
"loss": 0.0038, |
|
"step": 350 |
|
}, |
|
{ |
|
"epoch": 1.16, |
|
"grad_norm": 1.4143649339675903, |
|
"learning_rate": 2.225519287833828e-06, |
|
"loss": 0.0548, |
|
"step": 360 |
|
}, |
|
{ |
|
"epoch": 1.1866666666666668, |
|
"grad_norm": 0.1942415088415146, |
|
"learning_rate": 7.41839762611276e-07, |
|
"loss": 0.0028, |
|
"step": 370 |
|
}, |
|
{ |
|
"epoch": 1.2, |
|
"eval_accuracy": 0.972972972972973, |
|
"eval_loss": 0.024778272956609726, |
|
"eval_runtime": 28.2328, |
|
"eval_samples_per_second": 1.311, |
|
"eval_steps_per_second": 0.354, |
|
"step": 375 |
|
}, |
|
{ |
|
"epoch": 1.2, |
|
"step": 375, |
|
"total_flos": 9.6083444588544e+17, |
|
"train_loss": 0.3870846853355567, |
|
"train_runtime": 685.2516, |
|
"train_samples_per_second": 0.547, |
|
"train_steps_per_second": 0.547 |
|
}, |
|
{ |
|
"epoch": 1.2, |
|
"eval_accuracy": 0.9770114942528736, |
|
"eval_loss": 0.08467210084199905, |
|
"eval_runtime": 66.0112, |
|
"eval_samples_per_second": 1.318, |
|
"eval_steps_per_second": 0.333, |
|
"step": 375 |
|
} |
|
], |
|
"logging_steps": 10, |
|
"max_steps": 375, |
|
"num_input_tokens_seen": 0, |
|
"num_train_epochs": 9223372036854775807, |
|
"save_steps": 500, |
|
"stateful_callbacks": { |
|
"TrainerControl": { |
|
"args": { |
|
"should_epoch_stop": false, |
|
"should_evaluate": false, |
|
"should_log": false, |
|
"should_save": true, |
|
"should_training_stop": true |
|
}, |
|
"attributes": {} |
|
} |
|
}, |
|
"total_flos": 9.6083444588544e+17, |
|
"train_batch_size": 1, |
|
"trial_name": null, |
|
"trial_params": null |
|
} |
|
|