elodiesune commited on
Commit
f1aa587
·
verified ·
1 Parent(s): b624f23

Model save

Browse files
Files changed (3) hide show
  1. README.md +65 -45
  2. adapter_model.safetensors +1 -1
  3. training_args.bin +2 -2
README.md CHANGED
@@ -19,38 +19,38 @@ should probably proofread and complete it, then remove this comment. -->
19
 
20
  This model is a fine-tuned version of [facebook/esm2_t6_8M_UR50D](https://huggingface.co/facebook/esm2_t6_8M_UR50D) on an unknown dataset.
21
  It achieves the following results on the evaluation set:
22
- - Loss: 0.1828
23
- - Rmse: 1.3057
24
- - Mae: 0.9676
25
- - Spearmanr Corr: 0.8519
26
- - Spearmanr Corr P Value: 0.0000
27
- - Pearsonr Corr: 0.8936
28
- - Pearsonr Corr P Value: 0.0000
29
- - Spearmanr Corr Of Deltas: 0.8712
30
- - Spearmanr Corr Of Deltas P Value: 0.0
31
- - Pearsonr Corr Of Deltas: 0.8932
32
- - Pearsonr Corr Of Deltas P Value: 0.0
33
- - Ranking F1 Score: 0.7640
34
- - Ranking Mcc: 0.6329
35
- - Rmse Enriched: 0.3328
36
- - Mae Enriched: 0.1009
37
- - Spearmanr Corr Enriched: -0.0212
38
- - Spearmanr Corr Enriched P Value: 0.7120
39
- - Pearsonr Corr Enriched: 0.0168
40
- - Pearsonr Corr Enriched P Value: 0.7695
41
- - Spearmanr Corr Of Deltas Enriched: -0.0213
42
- - Spearmanr Corr Of Deltas Enriched P Value: 0.0000
43
- - Pearsonr Corr Of Deltas Enriched: 0.0105
44
- - Pearsonr Corr Of Deltas Enriched P Value: 0.0238
45
- - Ranking F1 Score Enriched: 0.0070
46
- - Ranking Mcc Enriched: -0.0067
47
  - Classification Thresh: 0.5
48
- - Mcc: 0.8893
49
- - F1 Score: 0.9402
50
- - Acc: 0.9448
51
- - Auc: 0.9781
52
- - Precision: 0.9437
53
- - Recall: 0.9455
54
 
55
  ## Model description
56
 
@@ -69,7 +69,7 @@ More information needed
69
  ### Training hyperparameters
70
 
71
  The following hyperparameters were used during training:
72
- - learning_rate: 0.001
73
  - train_batch_size: 8
74
  - eval_batch_size: 8
75
  - seed: 42
@@ -82,19 +82,39 @@ The following hyperparameters were used during training:
82
 
83
  ### Training results
84
 
85
- | Training Loss | Epoch | Step | Validation Loss | Rmse | Mae | Spearmanr Corr | Spearmanr Corr P Value | Pearsonr Corr | Pearsonr Corr P Value | Spearmanr Corr Of Deltas | Spearmanr Corr Of Deltas P Value | Pearsonr Corr Of Deltas | Pearsonr Corr Of Deltas P Value | Ranking F1 Score | Ranking Mcc | Rmse Enriched | Mae Enriched | Spearmanr Corr Enriched | Spearmanr Corr Enriched P Value | Pearsonr Corr Enriched | Pearsonr Corr Enriched P Value | Spearmanr Corr Of Deltas Enriched | Spearmanr Corr Of Deltas Enriched P Value | Pearsonr Corr Of Deltas Enriched | Pearsonr Corr Of Deltas Enriched P Value | Ranking F1 Score Enriched | Ranking Mcc Enriched | Classification Thresh | Mcc | F1 Score | Acc | Auc | Precision | Recall |
86
- |:-------------:|:-----:|:----:|:---------------:|:------:|:------:|:--------------:|:----------------------:|:-------------:|:---------------------:|:------------------------:|:--------------------------------:|:-----------------------:|:-------------------------------:|:----------------:|:-----------:|:-------------:|:------------:|:-----------------------:|:-------------------------------:|:----------------------:|:------------------------------:|:---------------------------------:|:-----------------------------------------:|:--------------------------------:|:----------------------------------------:|:-------------------------:|:--------------------:|:---------------------:|:------:|:--------:|:------:|:------:|:---------:|:------:|
87
- | 0.4744 | 1.0 | 335 | 0.2204 | 1.2146 | 0.9287 | 0.8345 | 0.0000 | 0.8644 | 0.0000 | 0.8427 | 0.0 | 0.8638 | 0.0 | 0.7535 | 0.6154 | 0.5256 | 0.3052 | -0.0491 | 0.3924 | -0.0107 | 0.8518 | -0.0443 | 0.0000 | -0.0158 | 0.0007 | 0.0048 | -0.0216 | 0.01 | 0.8352 | 0.9066 | 0.9179 | 0.9702 | 0.9208 | 0.9144 |
88
- | 0.2856 | 2.0 | 670 | 0.2159 | 1.3143 | 0.9756 | 0.8301 | 0.0000 | 0.8757 | 0.0000 | 0.8501 | 0.0 | 0.8752 | 0.0 | 0.7458 | 0.6026 | 0.4886 | 0.1839 | -0.0148 | 0.7973 | 0.0253 | 0.6600 | -0.0072 | 0.1225 | 0.0231 | 0.0000 | 0.0063 | -0.0116 | 0.3 | 0.8648 | 0.9246 | 0.9328 | 0.9744 | 0.9342 | 0.9305 |
89
- | 0.2415 | 3.0 | 1005 | 0.1751 | 1.2217 | 0.9352 | 0.8437 | 0.0000 | 0.8977 | 0.0000 | 0.8697 | 0.0 | 0.8973 | 0.0 | 0.7555 | 0.6187 | 0.3297 | 0.1524 | -0.0411 | 0.4749 | 0.0159 | 0.7818 | -0.0365 | 0.0000 | 0.0095 | 0.0405 | 0.0050 | -0.0204 | 0.3 | 0.8918 | 0.9414 | 0.9463 | 0.9770 | 0.9455 | 0.9464 |
90
- | 0.2345 | 4.0 | 1340 | 0.1869 | 1.2521 | 0.9313 | 0.8469 | 0.0000 | 0.8859 | 0.0000 | 0.8680 | 0.0 | 0.8854 | 0.0 | 0.7606 | 0.6271 | 0.4073 | 0.1542 | 0.0233 | 0.6852 | 0.0240 | 0.6766 | 0.0288 | 0.0000 | 0.0182 | 0.0001 | 0.0087 | 0.0053 | 0.3 | 0.8766 | 0.9327 | 0.9388 | 0.9786 | 0.9384 | 0.9382 |
91
- | 0.2242 | 5.0 | 1675 | 0.1761 | 1.2067 | 0.9313 | 0.8304 | 0.0000 | 0.8968 | 0.0000 | 0.8607 | 0.0 | 0.8963 | 0.0 | 0.7412 | 0.5947 | 0.3551 | 0.1941 | -0.0104 | 0.8567 | 0.0159 | 0.7822 | -0.0139 | 0.0027 | 0.0090 | 0.0532 | 0.0079 | -0.0006 | 0.5 | 0.8947 | 0.9427 | 0.9478 | 0.9766 | 0.9472 | 0.9475 |
92
- | 0.1845 | 6.0 | 2010 | 0.1655 | 1.2685 | 0.9459 | 0.8486 | 0.0000 | 0.8996 | 0.0000 | 0.8750 | 0.0 | 0.8991 | 0.0 | 0.7615 | 0.6288 | 0.4082 | 0.1647 | 0.0078 | 0.8915 | 0.0235 | 0.6830 | 0.0096 | 0.0379 | 0.0186 | 0.0001 | 0.0085 | 0.0040 | 0.2 | 0.8886 | 0.9388 | 0.9448 | 0.9782 | 0.9450 | 0.9437 |
93
- | 0.1933 | 7.0 | 2345 | 0.1999 | 1.3220 | 0.9762 | 0.8338 | 0.0000 | 0.8857 | 0.0000 | 0.8617 | 0.0 | 0.8852 | 0.0 | 0.7503 | 0.6101 | 0.4461 | 0.1626 | -0.0051 | 0.9297 | 0.0235 | 0.6828 | 0.0007 | 0.8758 | 0.0173 | 0.0002 | 0.0076 | -0.0024 | 0.1 | 0.8826 | 0.9360 | 0.9418 | 0.9707 | 0.9414 | 0.9412 |
94
- | 0.2323 | 8.0 | 2680 | 0.1912 | 1.2274 | 0.9298 | 0.8362 | 0.0000 | 0.8846 | 0.0000 | 0.8562 | 0.0 | 0.8841 | 0.0 | 0.7461 | 0.6030 | 0.5002 | 0.2814 | 0.0501 | 0.3836 | 0.0323 | 0.5738 | 0.0373 | 0.0000 | 0.0269 | 0.0000 | 0.0119 | 0.0278 | 0.1 | 0.8710 | 0.9277 | 0.9358 | 0.9795 | 0.9377 | 0.9333 |
95
- | 0.1706 | 9.0 | 3015 | 0.3637 | 1.1873 | 0.9135 | 0.8473 | 0.0000 | 0.7821 | 0.0000 | 0.8159 | 0.0 | 0.7810 | 0.0 | 0.7607 | 0.6274 | 0.8092 | 0.5524 | -0.0164 | 0.7757 | 0.0404 | 0.4826 | 0.0031 | 0.5037 | 0.0345 | 0.0000 | 0.0064 | -0.0109 | 0.1 | 0.7485 | 0.8404 | 0.8701 | 0.9740 | 0.8887 | 0.8603 |
96
- | 0.2132 | 10.0 | 3350 | 0.1819 | 1.2570 | 0.9619 | 0.8476 | 0.0000 | 0.8988 | 0.0000 | 0.8735 | 0.0 | 0.8983 | 0.0 | 0.7590 | 0.6247 | 0.2774 | 0.1046 | 0.0330 | 0.5660 | 0.0259 | 0.6517 | 0.0270 | 0.0000 | 0.0199 | 0.0000 | 0.0102 | 0.0153 | 0.01 | 0.8893 | 0.9402 | 0.9448 | 0.9811 | 0.9437 | 0.9455 |
97
- | 0.1832 | 11.0 | 3685 | 0.1828 | 1.3057 | 0.9676 | 0.8519 | 0.0000 | 0.8936 | 0.0000 | 0.8712 | 0.0 | 0.8932 | 0.0 | 0.7640 | 0.6329 | 0.3328 | 0.1009 | -0.0212 | 0.7120 | 0.0168 | 0.7695 | -0.0213 | 0.0000 | 0.0105 | 0.0238 | 0.0070 | -0.0067 | 0.5 | 0.8893 | 0.9402 | 0.9448 | 0.9781 | 0.9437 | 0.9455 |
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
98
 
99
 
100
  ### Framework versions
 
19
 
20
  This model is a fine-tuned version of [facebook/esm2_t6_8M_UR50D](https://huggingface.co/facebook/esm2_t6_8M_UR50D) on an unknown dataset.
21
  It achieves the following results on the evaluation set:
22
+ - Loss: 0.8744
23
+ - Rmse: 0.9351
24
+ - Mae: 0.9082
25
+ - Spearmanr Corr: nan
26
+ - Spearmanr Corr P Value: nan
27
+ - Pearsonr Corr: nan
28
+ - Pearsonr Corr P Value: nan
29
+ - Spearmanr Corr Of Deltas: nan
30
+ - Spearmanr Corr Of Deltas P Value: nan
31
+ - Pearsonr Corr Of Deltas: nan
32
+ - Pearsonr Corr Of Deltas P Value: nan
33
+ - Ranking F1 Score: 0.0
34
+ - Ranking Mcc: 0.0
35
+ - Rmse Enriched: 1.1132
36
+ - Mae Enriched: 1.1132
37
+ - Spearmanr Corr Enriched: nan
38
+ - Spearmanr Corr Enriched P Value: nan
39
+ - Pearsonr Corr Enriched: nan
40
+ - Pearsonr Corr Enriched P Value: nan
41
+ - Spearmanr Corr Of Deltas Enriched: nan
42
+ - Spearmanr Corr Of Deltas Enriched P Value: nan
43
+ - Pearsonr Corr Of Deltas Enriched: nan
44
+ - Pearsonr Corr Of Deltas Enriched P Value: nan
45
+ - Ranking F1 Score Enriched: 0.0
46
+ - Ranking Mcc Enriched: 0.0
47
  - Classification Thresh: 0.5
48
+ - Mcc: 0.0
49
+ - F1 Score: 0.0
50
+ - Acc: 0.5448
51
+ - Auc: 0.5
52
+ - Precision: 0.2724
53
+ - Recall: 0.5
54
 
55
  ## Model description
56
 
 
69
  ### Training hyperparameters
70
 
71
  The following hyperparameters were used during training:
72
+ - learning_rate: 0.1
73
  - train_batch_size: 8
74
  - eval_batch_size: 8
75
  - seed: 42
 
82
 
83
  ### Training results
84
 
85
+ | Training Loss | Epoch | Step | Validation Loss | Rmse | Mae | Spearmanr Corr | Spearmanr Corr P Value | Pearsonr Corr | Pearsonr Corr P Value | Spearmanr Corr Of Deltas | Spearmanr Corr Of Deltas P Value | Pearsonr Corr Of Deltas | Pearsonr Corr Of Deltas P Value | Ranking F1 Score | Ranking Mcc | Rmse Enriched | Mae Enriched | Spearmanr Corr Enriched | Spearmanr Corr Enriched P Value | Pearsonr Corr Enriched | Pearsonr Corr Enriched P Value | Spearmanr Corr Of Deltas Enriched | Spearmanr Corr Of Deltas Enriched P Value | Pearsonr Corr Of Deltas Enriched | Pearsonr Corr Of Deltas Enriched P Value | Ranking F1 Score Enriched | Ranking Mcc Enriched | Classification Thresh | Mcc | F1 Score | Acc | Auc | Precision | Recall |
86
+ |:-------------:|:-----:|:-----:|:---------------:|:------:|:------:|:--------------:|:----------------------:|:-------------:|:---------------------:|:------------------------:|:--------------------------------:|:-----------------------:|:-------------------------------:|:----------------:|:-----------:|:-------------:|:------------:|:-----------------------:|:-------------------------------:|:----------------------:|:------------------------------:|:---------------------------------:|:-----------------------------------------:|:--------------------------------:|:----------------------------------------:|:-------------------------:|:--------------------:|:---------------------:|:---:|:--------:|:------:|:------:|:---------:|:------:|
87
+ | 0.9757 | 1.0 | 335 | 0.8805 | 0.9384 | 0.9260 | 0.1765 | 0.0000 | 0.1841 | 0.0000 | 0.1764 | 0.0 | 0.1829 | 0.0 | 0.3085 | 0.0994 | 0.8694 | 0.8694 | -0.0570 | 0.3214 | -0.0560 | 0.3300 | -0.0564 | 0.0000 | -0.0558 | 0.0000 | 0.0004 | -0.0332 | 0.5 | 0.0 | 0.0 | 0.5448 | 0.5833 | 0.2724 | 0.5 |
88
+ | 0.9623 | 2.0 | 670 | 0.9395 | 0.9693 | 0.8980 | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | 0.0 | 1.2814 | 1.2814 | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | 0.0 | 0.5 | 0.0 | 0.0 | 0.5448 | 0.5 | 0.2724 | 0.5 |
89
+ | 1.0629 | 3.0 | 1005 | 1.3044 | 1.1421 | 0.8760 | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | 0.0 | 1.6686 | 1.6686 | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | 0.0 | 0.5 | 0.0 | 0.0 | 0.5448 | 0.5 | 0.2724 | 0.5 |
90
+ | 1.1253 | 4.0 | 1340 | 1.2135 | 1.1016 | 0.8801 | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | 0.0 | 1.5964 | 1.5964 | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | 0.0 | 0.5 | 0.0 | 0.0 | 0.5448 | 0.5 | 0.2724 | 0.5 |
91
+ | 1.1795 | 5.0 | 1675 | 0.8632 | 0.9291 | 0.9174 | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | 0.0 | 0.9756 | 0.9756 | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | 0.0 | 0.5 | 0.0 | 0.0 | 0.5448 | 0.5 | 0.2724 | 0.5 |
92
+ | 1.1739 | 6.0 | 2010 | 0.8957 | 0.9464 | 0.9037 | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | 0.0 | 1.1862 | 1.1862 | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | 0.0 | 0.5 | 0.0 | 0.0 | 0.5448 | 0.5 | 0.2724 | 0.5 |
93
+ | 2.7995 | 7.0 | 2345 | 0.8684 | 0.9319 | 0.9210 | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | 0.0 | 0.9266 | 0.9266 | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | 0.0 | 0.5 | 0.0 | 0.0 | 0.5448 | 0.5 | 0.2724 | 0.5 |
94
+ | 1.0472 | 8.0 | 2680 | 1.0553 | 1.0273 | 0.9533 | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | 0.0 | 0.5646 | 0.5646 | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | 0.0 | 0.5 | 0.0 | 0.0 | 0.5448 | 0.5 | 0.2724 | 0.5 |
95
+ | 1.0783 | 9.0 | 3015 | 1.2430 | 1.1149 | 0.8787 | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | 0.0 | 1.6208 | 1.6208 | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | 0.0 | 0.5 | 0.0 | 0.0 | 0.5448 | 0.5 | 0.2724 | 0.5 |
96
+ | 0.9656 | 10.0 | 3350 | 0.8624 | 0.9287 | 0.9152 | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | 0.0 | 1.0073 | 1.0072 | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | 0.0 | 0.5 | 0.0 | 0.0 | 0.5448 | 0.5 | 0.2724 | 0.5 |
97
+ | 1.2348 | 11.0 | 3685 | 1.1586 | 1.0764 | 0.8828 | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | 0.0 | 1.5480 | 1.5480 | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | 0.0 | 0.5 | 0.0 | 0.0 | 0.5448 | 0.5 | 0.2724 | 0.5 |
98
+ | 0.9899 | 12.0 | 4020 | 0.8626 | 0.9287 | 0.9146 | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | 0.0 | 1.0156 | 1.0155 | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | 0.0 | 0.5 | 0.0 | 0.0 | 0.5448 | 0.5 | 0.2724 | 0.5 |
99
+ | 1.0165 | 13.0 | 4355 | 1.1301 | 1.0630 | 0.9603 | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | 0.0 | 0.4865 | 0.4865 | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | 0.0 | 0.5 | 0.0 | 0.0 | 0.5448 | 0.5 | 0.2724 | 0.5 |
100
+ | 1.0648 | 14.0 | 4690 | 1.0519 | 1.0256 | 0.8890 | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | 0.0 | 1.4391 | 1.4391 | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | 0.0 | 0.5 | 0.0 | 0.0 | 0.5448 | 0.5 | 0.2724 | 0.5 |
101
+ | 1.3008 | 15.0 | 5025 | 3.3846 | 1.8397 | 1.5890 | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | 0.0 | 2.5920 | 2.5920 | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | 0.0 | 0.5 | 0.0 | 0.0 | 0.5448 | 0.5 | 0.2724 | 0.5 |
102
+ | 1.1505 | 16.0 | 5360 | 0.8714 | 0.9335 | 0.9092 | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | 0.0 | 1.0987 | 1.0987 | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | 0.0 | 0.5 | 0.0 | 0.0 | 0.5448 | 0.5 | 0.2724 | 0.5 |
103
+ | 1.1522 | 17.0 | 5695 | 1.5739 | 1.2546 | 0.9895 | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | 0.0 | 0.1604 | 0.1603 | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | 0.0 | 0.5 | 0.0 | 0.6256 | 0.4552 | 0.5 | 0.2276 | 0.5 |
104
+ | 1.0012 | 18.0 | 6030 | 3.2349 | 1.7986 | 1.5413 | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | 0.0 | 2.5441 | 2.5441 | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | 0.0 | 0.5 | 0.0 | 0.0 | 0.5448 | 0.5 | 0.2724 | 0.5 |
105
+ | 1.1073 | 19.0 | 6365 | 0.9015 | 0.9495 | 0.9028 | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | 0.0 | 1.2016 | 1.2016 | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | 0.0 | 0.5 | 0.0 | 0.0 | 0.5448 | 0.5 | 0.2724 | 0.5 |
106
+ | 0.9681 | 20.0 | 6700 | 0.9108 | 0.9544 | 0.9336 | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | 0.0 | 0.7839 | 0.7839 | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | 0.0 | 0.5 | 0.0 | 0.0 | 0.5448 | 0.5 | 0.2724 | 0.5 |
107
+ | 1.0465 | 21.0 | 7035 | 1.0870 | 1.0426 | 0.8868 | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | 0.0 | 1.4777 | 1.4777 | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | 0.0 | 0.5 | 0.0 | 0.0 | 0.5448 | 0.5 | 0.2724 | 0.5 |
108
+ | 0.9831 | 22.0 | 7370 | 0.8820 | 0.9392 | 0.9265 | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | 0.0 | 0.8638 | 0.8638 | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | 0.0 | 0.5 | 0.0 | 0.0 | 0.5448 | 0.5 | 0.2724 | 0.5 |
109
+ | 0.9377 | 23.0 | 7705 | 0.8646 | 0.9298 | 0.9123 | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | 0.0 | 1.0506 | 1.0506 | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | 0.0 | 0.5 | 0.0 | 0.0 | 0.5448 | 0.5 | 0.2724 | 0.5 |
110
+ | 1.0435 | 24.0 | 8040 | 0.8731 | 0.9344 | 0.9232 | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | 0.0 | 0.9005 | 0.9005 | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | 0.0 | 0.5 | 0.0 | 0.0 | 0.5448 | 0.5 | 0.2724 | 0.5 |
111
+ | 1.0537 | 25.0 | 8375 | 0.8628 | 0.9289 | 0.9167 | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | 0.0 | 0.9849 | 0.9849 | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | 0.0 | 0.5 | 0.0 | 0.0 | 0.5448 | 0.5 | 0.2724 | 0.5 |
112
+ | 1.1299 | 26.0 | 8710 | 0.9318 | 0.9653 | 0.9375 | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | 0.0 | 0.7404 | 0.7404 | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | 0.0 | 0.5 | 0.0 | 0.0 | 0.5448 | 0.5 | 0.2724 | 0.5 |
113
+ | 1.0194 | 27.0 | 9045 | 0.9064 | 0.9520 | 0.9327 | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | 0.0 | 0.7942 | 0.7942 | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | 0.0 | 0.5 | 0.0 | 0.0 | 0.5448 | 0.5 | 0.2724 | 0.5 |
114
+ | 0.9194 | 28.0 | 9380 | 1.0536 | 1.0265 | 0.9531 | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | 0.0 | 0.5666 | 0.5666 | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | 0.0 | 0.5 | 0.0 | 0.0 | 0.5448 | 0.5 | 0.2724 | 0.5 |
115
+ | 0.9385 | 29.0 | 9715 | 0.8727 | 0.9342 | 0.9230 | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | 0.0 | 0.9022 | 0.9022 | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | 0.0 | 0.5 | 0.0 | 0.0 | 0.5448 | 0.5 | 0.2724 | 0.5 |
116
+ | 0.9392 | 30.0 | 10050 | 0.8625 | 0.9287 | 0.9147 | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | 0.0 | 1.0149 | 1.0149 | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | 0.0 | 0.5 | 0.0 | 0.0 | 0.5448 | 0.5 | 0.2724 | 0.5 |
117
+ | 0.937 | 31.0 | 10385 | 0.8744 | 0.9351 | 0.9082 | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | 0.0 | 1.1132 | 1.1132 | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | 0.0 | 0.5 | 0.0 | 0.0 | 0.5448 | 0.5 | 0.2724 | 0.5 |
118
 
119
 
120
  ### Framework versions
adapter_model.safetensors CHANGED
@@ -1,3 +1,3 @@
1
  version https://git-lfs.github.com/spec/v1
2
- oid sha256:8642ea2afa5e7afa530d00bda32ee565219baf65866038165ea59c28f1a6102e
3
  size 5412288
 
1
  version https://git-lfs.github.com/spec/v1
2
+ oid sha256:c893cc091206a4d25be9cf17234a0dff1b3d2821b644644c4bd4c8e49eb50692
3
  size 5412288
training_args.bin CHANGED
@@ -1,3 +1,3 @@
1
  version https://git-lfs.github.com/spec/v1
2
- oid sha256:747b81e5cfd2855e17aa0b1547cd6b510ee0852988352866db1b0edf0d80bffd
3
- size 5240
 
1
  version https://git-lfs.github.com/spec/v1
2
+ oid sha256:de4339219a42826470bcc960e48587555fdd8872da9548bfcafccdcb3cf65cdf
3
+ size 5304