izaitova commited on
Commit
b0cf993
·
verified ·
1 Parent(s): 9c27a79

End of training

Browse files
Files changed (2) hide show
  1. README.md +45 -45
  2. model.safetensors +1 -1
README.md CHANGED
@@ -17,58 +17,58 @@ should probably proofread and complete it, then remove this comment. -->
17
 
18
  This model is a fine-tuned version of [Goader/liberta-large](https://huggingface.co/Goader/liberta-large) on the universal_dependencies dataset.
19
  It achieves the following results on the evaluation set:
20
- - Loss: 1.1968
21
- - : {'precision': 0.25, 'recall': 0.07692307692307693, 'f1': 0.11764705882352941, 'number': 13}
22
- - Arataxis: {'precision': 0.4, 'recall': 0.21505376344086022, 'f1': 0.27972027972027974, 'number': 93}
23
- - Arataxis:discourse: {'precision': 0.4444444444444444, 'recall': 0.23529411764705882, 'f1': 0.30769230769230765, 'number': 17}
24
  - Arataxis:rel: {'precision': 0.0, 'recall': 0.0, 'f1': 0.0, 'number': 5}
25
- - Ark: {'precision': 0.6533333333333333, 'recall': 0.620253164556962, 'f1': 0.6363636363636364, 'number': 158}
26
- - Ase: {'precision': 0.7796833773087071, 'recall': 0.7172330097087378, 'f1': 0.7471554993678887, 'number': 824}
27
- - Bj: {'precision': 0.7590027700831025, 'recall': 0.6539379474940334, 'f1': 0.7025641025641026, 'number': 419}
28
- - Bl: {'precision': 0.6888888888888889, 'recall': 0.6048780487804878, 'f1': 0.6441558441558441, 'number': 615}
29
- - C: {'precision': 0.7081967213114754, 'recall': 0.6390532544378699, 'f1': 0.6718506998444791, 'number': 338}
30
- - Cl: {'precision': 0.5333333333333333, 'recall': 0.25, 'f1': 0.3404255319148936, 'number': 32}
31
  - Cl:adv: {'precision': 0.0, 'recall': 0.0, 'f1': 0.0, 'number': 3}
32
- - Cl:relcl: {'precision': 0.6728971962616822, 'recall': 0.5806451612903226, 'f1': 0.6233766233766234, 'number': 124}
33
- - Comp: {'precision': 0.6481481481481481, 'recall': 0.5932203389830508, 'f1': 0.6194690265486725, 'number': 118}
34
- - Comp:sp: {'precision': 0.56, 'recall': 0.5, 'f1': 0.5283018867924528, 'number': 28}
35
- - Dvcl: {'precision': 0.7123287671232876, 'recall': 0.5842696629213483, 'f1': 0.6419753086419753, 'number': 89}
36
  - Dvcl:sp: {'precision': 0.0, 'recall': 0.0, 'f1': 0.0, 'number': 2}
37
  - Dvcl:svc: {'precision': 0.0, 'recall': 0.0, 'f1': 0.0, 'number': 3}
38
- - Dvmod: {'precision': 0.6989247311827957, 'recall': 0.6532663316582915, 'f1': 0.6753246753246753, 'number': 398}
39
- - Dvmod:det: {'precision': 0.0, 'recall': 0.0, 'f1': 0.0, 'number': 2}
40
- - Et: {'precision': 0.7627118644067796, 'recall': 0.6958762886597938, 'f1': 0.7277628032345013, 'number': 194}
41
- - Et:numgov: {'precision': 0.8, 'recall': 0.8888888888888888, 'f1': 0.8421052631578948, 'number': 9}
42
  - Et:nummod: {'precision': 0.0, 'recall': 0.0, 'f1': 0.0, 'number': 1}
43
- - Iscourse: {'precision': 0.62, 'recall': 0.512396694214876, 'f1': 0.5610859728506787, 'number': 121}
44
  - Islocated: {'precision': 0.0, 'recall': 0.0, 'f1': 0.0, 'number': 4}
45
- - Ixed: {'precision': 0.45454545454545453, 'recall': 0.2631578947368421, 'f1': 0.3333333333333333, 'number': 19}
46
  - Lat:abs: {'precision': 0.0, 'recall': 0.0, 'f1': 0.0, 'number': 2}
47
- - Lat:foreign: {'precision': 0.0, 'recall': 0.0, 'f1': 0.0, 'number': 19}
48
- - Lat:name: {'precision': 0.5833333333333334, 'recall': 0.4117647058823529, 'f1': 0.4827586206896552, 'number': 51}
49
- - Lat:range: {'precision': 1.0, 'recall': 0.09090909090909091, 'f1': 0.16666666666666669, 'number': 11}
50
  - Lat:repeat: {'precision': 0.0, 'recall': 0.0, 'f1': 0.0, 'number': 3}
51
- - Lat:title: {'precision': 0.4375, 'recall': 0.2517985611510791, 'f1': 0.319634703196347, 'number': 139}
52
- - Mod: {'precision': 0.6534365924491772, 'recall': 0.5779109589041096, 'f1': 0.6133575647432985, 'number': 1168}
53
- - Obj: {'precision': 0.3684210526315789, 'recall': 0.5, 'f1': 0.4242424242424242, 'number': 14}
54
  - Ocative: {'precision': 0.0, 'recall': 0.0, 'f1': 0.0, 'number': 1}
55
  - Oeswith: {'precision': 0.0, 'recall': 0.0, 'f1': 0.0, 'number': 1}
56
- - Ompound: {'precision': 0.35, 'recall': 0.12727272727272726, 'f1': 0.18666666666666665, 'number': 55}
57
- - Onj: {'precision': 0.5606936416184971, 'recall': 0.45011600928074247, 'f1': 0.49935649935649934, 'number': 431}
58
- - Oot: {'precision': 0.8991596638655462, 'recall': 0.856, 'f1': 0.8770491803278688, 'number': 500}
59
- - Op: {'precision': 0.7837837837837838, 'recall': 0.6904761904761905, 'f1': 0.7341772151898734, 'number': 42}
60
- - Ppos: {'precision': 0.2153846153846154, 'recall': 0.2, 'f1': 0.20740740740740743, 'number': 70}
61
- - Rphan: {'precision': 0.6666666666666666, 'recall': 0.16666666666666666, 'f1': 0.26666666666666666, 'number': 12}
62
- - Subj: {'precision': 0.7688356164383562, 'recall': 0.7230273752012882, 'f1': 0.7452282157676348, 'number': 621}
63
- - Ummod: {'precision': 0.43243243243243246, 'recall': 0.47058823529411764, 'f1': 0.4507042253521127, 'number': 34}
64
- - Ummod:gov: {'precision': 0.5384615384615384, 'recall': 0.5833333333333334, 'f1': 0.5599999999999999, 'number': 36}
65
- - Unct: {'precision': 0.7325495958853784, 'recall': 0.6154320987654321, 'f1': 0.6689030526668903, 'number': 1620}
66
- - Ux: {'precision': 0.9, 'recall': 0.5625, 'f1': 0.6923076923076923, 'number': 16}
67
- - Xpl: {'precision': 0.5714285714285714, 'recall': 0.5714285714285714, 'f1': 0.5714285714285714, 'number': 7}
68
- - Overall Precision: 0.7053
69
- - Overall Recall: 0.6096
70
- - Overall F1: 0.6540
71
- - Overall Accuracy: 0.7087
72
 
73
  ## Model description
74
 
@@ -88,12 +88,12 @@ More information needed
88
 
89
  The following hyperparameters were used during training:
90
  - learning_rate: 5e-05
91
- - train_batch_size: 8
92
  - eval_batch_size: 8
93
  - seed: 42
94
  - optimizer: Adam with betas=(0.9,0.999) and epsilon=1e-08
95
  - lr_scheduler_type: linear
96
- - num_epochs: 20
97
 
98
  ### Training results
99
 
@@ -103,5 +103,5 @@ The following hyperparameters were used during training:
103
 
104
  - Transformers 4.39.3
105
  - Pytorch 1.11.0a0+17540c5
106
- - Datasets 2.20.0
107
  - Tokenizers 0.15.2
 
17
 
18
  This model is a fine-tuned version of [Goader/liberta-large](https://huggingface.co/Goader/liberta-large) on the universal_dependencies dataset.
19
  It achieves the following results on the evaluation set:
20
+ - Loss: 0.6796
21
+ - : {'precision': 0.6666666666666666, 'recall': 0.15384615384615385, 'f1': 0.25, 'number': 13}
22
+ - Arataxis: {'precision': 0.5490196078431373, 'recall': 0.3010752688172043, 'f1': 0.38888888888888895, 'number': 93}
23
+ - Arataxis:discourse: {'precision': 0.42857142857142855, 'recall': 0.35294117647058826, 'f1': 0.3870967741935484, 'number': 17}
24
  - Arataxis:rel: {'precision': 0.0, 'recall': 0.0, 'f1': 0.0, 'number': 5}
25
+ - Ark: {'precision': 0.7448275862068966, 'recall': 0.6835443037974683, 'f1': 0.712871287128713, 'number': 158}
26
+ - Ase: {'precision': 0.8467852257181943, 'recall': 0.7512135922330098, 'f1': 0.7961414790996785, 'number': 824}
27
+ - Bj: {'precision': 0.7874659400544959, 'recall': 0.6897374701670644, 'f1': 0.7353689567430025, 'number': 419}
28
+ - Bl: {'precision': 0.808300395256917, 'recall': 0.6650406504065041, 'f1': 0.7297056199821588, 'number': 615}
29
+ - C: {'precision': 0.8027210884353742, 'recall': 0.6982248520710059, 'f1': 0.7468354430379747, 'number': 338}
30
+ - Cl: {'precision': 0.8461538461538461, 'recall': 0.34375, 'f1': 0.4888888888888889, 'number': 32}
31
  - Cl:adv: {'precision': 0.0, 'recall': 0.0, 'f1': 0.0, 'number': 3}
32
+ - Cl:relcl: {'precision': 0.7383177570093458, 'recall': 0.6370967741935484, 'f1': 0.6839826839826839, 'number': 124}
33
+ - Comp: {'precision': 0.75, 'recall': 0.711864406779661, 'f1': 0.7304347826086958, 'number': 118}
34
+ - Comp:sp: {'precision': 0.6818181818181818, 'recall': 0.5357142857142857, 'f1': 0.6, 'number': 28}
35
+ - Dvcl: {'precision': 0.7466666666666667, 'recall': 0.6292134831460674, 'f1': 0.6829268292682926, 'number': 89}
36
  - Dvcl:sp: {'precision': 0.0, 'recall': 0.0, 'f1': 0.0, 'number': 2}
37
  - Dvcl:svc: {'precision': 0.0, 'recall': 0.0, 'f1': 0.0, 'number': 3}
38
+ - Dvmod: {'precision': 0.7583333333333333, 'recall': 0.6859296482412061, 'f1': 0.7203166226912929, 'number': 398}
39
+ - Dvmod:det: {'precision': 1.0, 'recall': 0.5, 'f1': 0.6666666666666666, 'number': 2}
40
+ - Et: {'precision': 0.8235294117647058, 'recall': 0.7216494845360825, 'f1': 0.7692307692307693, 'number': 194}
41
+ - Et:numgov: {'precision': 0.6363636363636364, 'recall': 0.7777777777777778, 'f1': 0.7000000000000001, 'number': 9}
42
  - Et:nummod: {'precision': 0.0, 'recall': 0.0, 'f1': 0.0, 'number': 1}
43
+ - Iscourse: {'precision': 0.6372549019607843, 'recall': 0.5371900826446281, 'f1': 0.5829596412556053, 'number': 121}
44
  - Islocated: {'precision': 0.0, 'recall': 0.0, 'f1': 0.0, 'number': 4}
45
+ - Ixed: {'precision': 0.25, 'recall': 0.10526315789473684, 'f1': 0.14814814814814814, 'number': 19}
46
  - Lat:abs: {'precision': 0.0, 'recall': 0.0, 'f1': 0.0, 'number': 2}
47
+ - Lat:foreign: {'precision': 0.3333333333333333, 'recall': 0.15789473684210525, 'f1': 0.21428571428571427, 'number': 19}
48
+ - Lat:name: {'precision': 0.6666666666666666, 'recall': 0.43137254901960786, 'f1': 0.5238095238095237, 'number': 51}
49
+ - Lat:range: {'precision': 0.5555555555555556, 'recall': 0.45454545454545453, 'f1': 0.5, 'number': 11}
50
  - Lat:repeat: {'precision': 0.0, 'recall': 0.0, 'f1': 0.0, 'number': 3}
51
+ - Lat:title: {'precision': 0.5, 'recall': 0.3381294964028777, 'f1': 0.4034334763948498, 'number': 139}
52
+ - Mod: {'precision': 0.7354392892398816, 'recall': 0.6378424657534246, 'f1': 0.6831728564878496, 'number': 1168}
53
+ - Obj: {'precision': 0.5, 'recall': 0.6428571428571429, 'f1': 0.5625000000000001, 'number': 14}
54
  - Ocative: {'precision': 0.0, 'recall': 0.0, 'f1': 0.0, 'number': 1}
55
  - Oeswith: {'precision': 0.0, 'recall': 0.0, 'f1': 0.0, 'number': 1}
56
+ - Ompound: {'precision': 0.6206896551724138, 'recall': 0.32727272727272727, 'f1': 0.42857142857142855, 'number': 55}
57
+ - Onj: {'precision': 0.6871165644171779, 'recall': 0.5197215777262181, 'f1': 0.5918097754293263, 'number': 431}
58
+ - Oot: {'precision': 0.9298969072164949, 'recall': 0.902, 'f1': 0.915736040609137, 'number': 500}
59
+ - Op: {'precision': 0.75, 'recall': 0.6428571428571429, 'f1': 0.6923076923076924, 'number': 42}
60
+ - Ppos: {'precision': 0.35714285714285715, 'recall': 0.21428571428571427, 'f1': 0.2678571428571429, 'number': 70}
61
+ - Rphan: {'precision': 0.3333333333333333, 'recall': 0.08333333333333333, 'f1': 0.13333333333333333, 'number': 12}
62
+ - Subj: {'precision': 0.8471001757469244, 'recall': 0.7761674718196457, 'f1': 0.8100840336134454, 'number': 621}
63
+ - Ummod: {'precision': 0.5294117647058824, 'recall': 0.5294117647058824, 'f1': 0.5294117647058824, 'number': 34}
64
+ - Ummod:gov: {'precision': 0.56, 'recall': 0.3888888888888889, 'f1': 0.45901639344262296, 'number': 36}
65
+ - Unct: {'precision': 0.8179775280898877, 'recall': 0.674074074074074, 'f1': 0.7390862944162436, 'number': 1620}
66
+ - Ux: {'precision': 0.6363636363636364, 'recall': 0.4375, 'f1': 0.5185185185185185, 'number': 16}
67
+ - Xpl: {'precision': 0.625, 'recall': 0.7142857142857143, 'f1': 0.6666666666666666, 'number': 7}
68
+ - Overall Precision: 0.7829
69
+ - Overall Recall: 0.6620
70
+ - Overall F1: 0.7174
71
+ - Overall Accuracy: 0.7711
72
 
73
  ## Model description
74
 
 
88
 
89
  The following hyperparameters were used during training:
90
  - learning_rate: 5e-05
91
+ - train_batch_size: 16
92
  - eval_batch_size: 8
93
  - seed: 42
94
  - optimizer: Adam with betas=(0.9,0.999) and epsilon=1e-08
95
  - lr_scheduler_type: linear
96
+ - num_epochs: 10
97
 
98
  ### Training results
99
 
 
103
 
104
  - Transformers 4.39.3
105
  - Pytorch 1.11.0a0+17540c5
106
+ - Datasets 2.21.0
107
  - Tokenizers 0.15.2
model.safetensors CHANGED
@@ -1,3 +1,3 @@
1
  version https://git-lfs.github.com/spec/v1
2
- oid sha256:2e2f9d4aa73176c8690224b69d0cbbd8c487f2dad52e68d445bced3b0b7986f9
3
  size 1342707664
 
1
  version https://git-lfs.github.com/spec/v1
2
+ oid sha256:50aa28a1a3b5c8553bac6de3f6f63ea8553bc3041063100bdc26709ae899f6e5
3
  size 1342707664