elodiesune
commited on
Model save
Browse files- README.md +65 -45
- adapter_model.safetensors +1 -1
- training_args.bin +2 -2
README.md
CHANGED
@@ -19,38 +19,38 @@ should probably proofread and complete it, then remove this comment. -->
|
|
19 |
|
20 |
This model is a fine-tuned version of [facebook/esm2_t6_8M_UR50D](https://huggingface.co/facebook/esm2_t6_8M_UR50D) on an unknown dataset.
|
21 |
It achieves the following results on the evaluation set:
|
22 |
-
- Loss: 0.
|
23 |
-
- Rmse:
|
24 |
-
- Mae: 0.
|
25 |
-
- Spearmanr Corr:
|
26 |
-
- Spearmanr Corr P Value:
|
27 |
-
- Pearsonr Corr:
|
28 |
-
- Pearsonr Corr P Value:
|
29 |
-
- Spearmanr Corr Of Deltas:
|
30 |
-
- Spearmanr Corr Of Deltas P Value:
|
31 |
-
- Pearsonr Corr Of Deltas:
|
32 |
-
- Pearsonr Corr Of Deltas P Value:
|
33 |
-
- Ranking F1 Score: 0.
|
34 |
-
- Ranking Mcc: 0.
|
35 |
-
- Rmse Enriched:
|
36 |
-
- Mae Enriched:
|
37 |
-
- Spearmanr Corr Enriched:
|
38 |
-
- Spearmanr Corr Enriched P Value:
|
39 |
-
- Pearsonr Corr Enriched:
|
40 |
-
- Pearsonr Corr Enriched P Value:
|
41 |
-
- Spearmanr Corr Of Deltas Enriched:
|
42 |
-
- Spearmanr Corr Of Deltas Enriched P Value:
|
43 |
-
- Pearsonr Corr Of Deltas Enriched:
|
44 |
-
- Pearsonr Corr Of Deltas Enriched P Value:
|
45 |
-
- Ranking F1 Score Enriched: 0.
|
46 |
-
- Ranking Mcc Enriched:
|
47 |
- Classification Thresh: 0.5
|
48 |
-
- Mcc: 0.
|
49 |
-
- F1 Score: 0.
|
50 |
-
- Acc: 0.
|
51 |
-
- Auc: 0.
|
52 |
-
- Precision: 0.
|
53 |
-
- Recall: 0.
|
54 |
|
55 |
## Model description
|
56 |
|
@@ -69,7 +69,7 @@ More information needed
|
|
69 |
### Training hyperparameters
|
70 |
|
71 |
The following hyperparameters were used during training:
|
72 |
-
- learning_rate: 0.
|
73 |
- train_batch_size: 8
|
74 |
- eval_batch_size: 8
|
75 |
- seed: 42
|
@@ -82,19 +82,39 @@ The following hyperparameters were used during training:
|
|
82 |
|
83 |
### Training results
|
84 |
|
85 |
-
| Training Loss | Epoch | Step
|
86 |
-
|
87 |
-
| 0.
|
88 |
-
| 0.
|
89 |
-
|
|
90 |
-
|
|
91 |
-
|
|
92 |
-
|
|
93 |
-
|
|
94 |
-
|
|
95 |
-
|
|
96 |
-
| 0.
|
97 |
-
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
98 |
|
99 |
|
100 |
### Framework versions
|
|
|
19 |
|
20 |
This model is a fine-tuned version of [facebook/esm2_t6_8M_UR50D](https://huggingface.co/facebook/esm2_t6_8M_UR50D) on an unknown dataset.
|
21 |
It achieves the following results on the evaluation set:
|
22 |
+
- Loss: 0.8744
|
23 |
+
- Rmse: 0.9351
|
24 |
+
- Mae: 0.9082
|
25 |
+
- Spearmanr Corr: nan
|
26 |
+
- Spearmanr Corr P Value: nan
|
27 |
+
- Pearsonr Corr: nan
|
28 |
+
- Pearsonr Corr P Value: nan
|
29 |
+
- Spearmanr Corr Of Deltas: nan
|
30 |
+
- Spearmanr Corr Of Deltas P Value: nan
|
31 |
+
- Pearsonr Corr Of Deltas: nan
|
32 |
+
- Pearsonr Corr Of Deltas P Value: nan
|
33 |
+
- Ranking F1 Score: 0.0
|
34 |
+
- Ranking Mcc: 0.0
|
35 |
+
- Rmse Enriched: 1.1132
|
36 |
+
- Mae Enriched: 1.1132
|
37 |
+
- Spearmanr Corr Enriched: nan
|
38 |
+
- Spearmanr Corr Enriched P Value: nan
|
39 |
+
- Pearsonr Corr Enriched: nan
|
40 |
+
- Pearsonr Corr Enriched P Value: nan
|
41 |
+
- Spearmanr Corr Of Deltas Enriched: nan
|
42 |
+
- Spearmanr Corr Of Deltas Enriched P Value: nan
|
43 |
+
- Pearsonr Corr Of Deltas Enriched: nan
|
44 |
+
- Pearsonr Corr Of Deltas Enriched P Value: nan
|
45 |
+
- Ranking F1 Score Enriched: 0.0
|
46 |
+
- Ranking Mcc Enriched: 0.0
|
47 |
- Classification Thresh: 0.5
|
48 |
+
- Mcc: 0.0
|
49 |
+
- F1 Score: 0.0
|
50 |
+
- Acc: 0.5448
|
51 |
+
- Auc: 0.5
|
52 |
+
- Precision: 0.2724
|
53 |
+
- Recall: 0.5
|
54 |
|
55 |
## Model description
|
56 |
|
|
|
69 |
### Training hyperparameters
|
70 |
|
71 |
The following hyperparameters were used during training:
|
72 |
+
- learning_rate: 0.1
|
73 |
- train_batch_size: 8
|
74 |
- eval_batch_size: 8
|
75 |
- seed: 42
|
|
|
82 |
|
83 |
### Training results
|
84 |
|
85 |
+
| Training Loss | Epoch | Step | Validation Loss | Rmse | Mae | Spearmanr Corr | Spearmanr Corr P Value | Pearsonr Corr | Pearsonr Corr P Value | Spearmanr Corr Of Deltas | Spearmanr Corr Of Deltas P Value | Pearsonr Corr Of Deltas | Pearsonr Corr Of Deltas P Value | Ranking F1 Score | Ranking Mcc | Rmse Enriched | Mae Enriched | Spearmanr Corr Enriched | Spearmanr Corr Enriched P Value | Pearsonr Corr Enriched | Pearsonr Corr Enriched P Value | Spearmanr Corr Of Deltas Enriched | Spearmanr Corr Of Deltas Enriched P Value | Pearsonr Corr Of Deltas Enriched | Pearsonr Corr Of Deltas Enriched P Value | Ranking F1 Score Enriched | Ranking Mcc Enriched | Classification Thresh | Mcc | F1 Score | Acc | Auc | Precision | Recall |
|
86 |
+
|:-------------:|:-----:|:-----:|:---------------:|:------:|:------:|:--------------:|:----------------------:|:-------------:|:---------------------:|:------------------------:|:--------------------------------:|:-----------------------:|:-------------------------------:|:----------------:|:-----------:|:-------------:|:------------:|:-----------------------:|:-------------------------------:|:----------------------:|:------------------------------:|:---------------------------------:|:-----------------------------------------:|:--------------------------------:|:----------------------------------------:|:-------------------------:|:--------------------:|:---------------------:|:---:|:--------:|:------:|:------:|:---------:|:------:|
|
87 |
+
| 0.9757 | 1.0 | 335 | 0.8805 | 0.9384 | 0.9260 | 0.1765 | 0.0000 | 0.1841 | 0.0000 | 0.1764 | 0.0 | 0.1829 | 0.0 | 0.3085 | 0.0994 | 0.8694 | 0.8694 | -0.0570 | 0.3214 | -0.0560 | 0.3300 | -0.0564 | 0.0000 | -0.0558 | 0.0000 | 0.0004 | -0.0332 | 0.5 | 0.0 | 0.0 | 0.5448 | 0.5833 | 0.2724 | 0.5 |
|
88 |
+
| 0.9623 | 2.0 | 670 | 0.9395 | 0.9693 | 0.8980 | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | 0.0 | 1.2814 | 1.2814 | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | 0.0 | 0.5 | 0.0 | 0.0 | 0.5448 | 0.5 | 0.2724 | 0.5 |
|
89 |
+
| 1.0629 | 3.0 | 1005 | 1.3044 | 1.1421 | 0.8760 | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | 0.0 | 1.6686 | 1.6686 | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | 0.0 | 0.5 | 0.0 | 0.0 | 0.5448 | 0.5 | 0.2724 | 0.5 |
|
90 |
+
| 1.1253 | 4.0 | 1340 | 1.2135 | 1.1016 | 0.8801 | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | 0.0 | 1.5964 | 1.5964 | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | 0.0 | 0.5 | 0.0 | 0.0 | 0.5448 | 0.5 | 0.2724 | 0.5 |
|
91 |
+
| 1.1795 | 5.0 | 1675 | 0.8632 | 0.9291 | 0.9174 | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | 0.0 | 0.9756 | 0.9756 | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | 0.0 | 0.5 | 0.0 | 0.0 | 0.5448 | 0.5 | 0.2724 | 0.5 |
|
92 |
+
| 1.1739 | 6.0 | 2010 | 0.8957 | 0.9464 | 0.9037 | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | 0.0 | 1.1862 | 1.1862 | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | 0.0 | 0.5 | 0.0 | 0.0 | 0.5448 | 0.5 | 0.2724 | 0.5 |
|
93 |
+
| 2.7995 | 7.0 | 2345 | 0.8684 | 0.9319 | 0.9210 | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | 0.0 | 0.9266 | 0.9266 | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | 0.0 | 0.5 | 0.0 | 0.0 | 0.5448 | 0.5 | 0.2724 | 0.5 |
|
94 |
+
| 1.0472 | 8.0 | 2680 | 1.0553 | 1.0273 | 0.9533 | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | 0.0 | 0.5646 | 0.5646 | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | 0.0 | 0.5 | 0.0 | 0.0 | 0.5448 | 0.5 | 0.2724 | 0.5 |
|
95 |
+
| 1.0783 | 9.0 | 3015 | 1.2430 | 1.1149 | 0.8787 | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | 0.0 | 1.6208 | 1.6208 | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | 0.0 | 0.5 | 0.0 | 0.0 | 0.5448 | 0.5 | 0.2724 | 0.5 |
|
96 |
+
| 0.9656 | 10.0 | 3350 | 0.8624 | 0.9287 | 0.9152 | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | 0.0 | 1.0073 | 1.0072 | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | 0.0 | 0.5 | 0.0 | 0.0 | 0.5448 | 0.5 | 0.2724 | 0.5 |
|
97 |
+
| 1.2348 | 11.0 | 3685 | 1.1586 | 1.0764 | 0.8828 | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | 0.0 | 1.5480 | 1.5480 | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | 0.0 | 0.5 | 0.0 | 0.0 | 0.5448 | 0.5 | 0.2724 | 0.5 |
|
98 |
+
| 0.9899 | 12.0 | 4020 | 0.8626 | 0.9287 | 0.9146 | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | 0.0 | 1.0156 | 1.0155 | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | 0.0 | 0.5 | 0.0 | 0.0 | 0.5448 | 0.5 | 0.2724 | 0.5 |
|
99 |
+
| 1.0165 | 13.0 | 4355 | 1.1301 | 1.0630 | 0.9603 | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | 0.0 | 0.4865 | 0.4865 | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | 0.0 | 0.5 | 0.0 | 0.0 | 0.5448 | 0.5 | 0.2724 | 0.5 |
|
100 |
+
| 1.0648 | 14.0 | 4690 | 1.0519 | 1.0256 | 0.8890 | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | 0.0 | 1.4391 | 1.4391 | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | 0.0 | 0.5 | 0.0 | 0.0 | 0.5448 | 0.5 | 0.2724 | 0.5 |
|
101 |
+
| 1.3008 | 15.0 | 5025 | 3.3846 | 1.8397 | 1.5890 | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | 0.0 | 2.5920 | 2.5920 | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | 0.0 | 0.5 | 0.0 | 0.0 | 0.5448 | 0.5 | 0.2724 | 0.5 |
|
102 |
+
| 1.1505 | 16.0 | 5360 | 0.8714 | 0.9335 | 0.9092 | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | 0.0 | 1.0987 | 1.0987 | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | 0.0 | 0.5 | 0.0 | 0.0 | 0.5448 | 0.5 | 0.2724 | 0.5 |
|
103 |
+
| 1.1522 | 17.0 | 5695 | 1.5739 | 1.2546 | 0.9895 | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | 0.0 | 0.1604 | 0.1603 | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | 0.0 | 0.5 | 0.0 | 0.6256 | 0.4552 | 0.5 | 0.2276 | 0.5 |
|
104 |
+
| 1.0012 | 18.0 | 6030 | 3.2349 | 1.7986 | 1.5413 | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | 0.0 | 2.5441 | 2.5441 | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | 0.0 | 0.5 | 0.0 | 0.0 | 0.5448 | 0.5 | 0.2724 | 0.5 |
|
105 |
+
| 1.1073 | 19.0 | 6365 | 0.9015 | 0.9495 | 0.9028 | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | 0.0 | 1.2016 | 1.2016 | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | 0.0 | 0.5 | 0.0 | 0.0 | 0.5448 | 0.5 | 0.2724 | 0.5 |
|
106 |
+
| 0.9681 | 20.0 | 6700 | 0.9108 | 0.9544 | 0.9336 | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | 0.0 | 0.7839 | 0.7839 | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | 0.0 | 0.5 | 0.0 | 0.0 | 0.5448 | 0.5 | 0.2724 | 0.5 |
|
107 |
+
| 1.0465 | 21.0 | 7035 | 1.0870 | 1.0426 | 0.8868 | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | 0.0 | 1.4777 | 1.4777 | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | 0.0 | 0.5 | 0.0 | 0.0 | 0.5448 | 0.5 | 0.2724 | 0.5 |
|
108 |
+
| 0.9831 | 22.0 | 7370 | 0.8820 | 0.9392 | 0.9265 | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | 0.0 | 0.8638 | 0.8638 | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | 0.0 | 0.5 | 0.0 | 0.0 | 0.5448 | 0.5 | 0.2724 | 0.5 |
|
109 |
+
| 0.9377 | 23.0 | 7705 | 0.8646 | 0.9298 | 0.9123 | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | 0.0 | 1.0506 | 1.0506 | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | 0.0 | 0.5 | 0.0 | 0.0 | 0.5448 | 0.5 | 0.2724 | 0.5 |
|
110 |
+
| 1.0435 | 24.0 | 8040 | 0.8731 | 0.9344 | 0.9232 | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | 0.0 | 0.9005 | 0.9005 | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | 0.0 | 0.5 | 0.0 | 0.0 | 0.5448 | 0.5 | 0.2724 | 0.5 |
|
111 |
+
| 1.0537 | 25.0 | 8375 | 0.8628 | 0.9289 | 0.9167 | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | 0.0 | 0.9849 | 0.9849 | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | 0.0 | 0.5 | 0.0 | 0.0 | 0.5448 | 0.5 | 0.2724 | 0.5 |
|
112 |
+
| 1.1299 | 26.0 | 8710 | 0.9318 | 0.9653 | 0.9375 | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | 0.0 | 0.7404 | 0.7404 | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | 0.0 | 0.5 | 0.0 | 0.0 | 0.5448 | 0.5 | 0.2724 | 0.5 |
|
113 |
+
| 1.0194 | 27.0 | 9045 | 0.9064 | 0.9520 | 0.9327 | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | 0.0 | 0.7942 | 0.7942 | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | 0.0 | 0.5 | 0.0 | 0.0 | 0.5448 | 0.5 | 0.2724 | 0.5 |
|
114 |
+
| 0.9194 | 28.0 | 9380 | 1.0536 | 1.0265 | 0.9531 | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | 0.0 | 0.5666 | 0.5666 | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | 0.0 | 0.5 | 0.0 | 0.0 | 0.5448 | 0.5 | 0.2724 | 0.5 |
|
115 |
+
| 0.9385 | 29.0 | 9715 | 0.8727 | 0.9342 | 0.9230 | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | 0.0 | 0.9022 | 0.9022 | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | 0.0 | 0.5 | 0.0 | 0.0 | 0.5448 | 0.5 | 0.2724 | 0.5 |
|
116 |
+
| 0.9392 | 30.0 | 10050 | 0.8625 | 0.9287 | 0.9147 | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | 0.0 | 1.0149 | 1.0149 | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | 0.0 | 0.5 | 0.0 | 0.0 | 0.5448 | 0.5 | 0.2724 | 0.5 |
|
117 |
+
| 0.937 | 31.0 | 10385 | 0.8744 | 0.9351 | 0.9082 | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | 0.0 | 1.1132 | 1.1132 | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | 0.0 | 0.5 | 0.0 | 0.0 | 0.5448 | 0.5 | 0.2724 | 0.5 |
|
118 |
|
119 |
|
120 |
### Framework versions
|
adapter_model.safetensors
CHANGED
@@ -1,3 +1,3 @@
|
|
1 |
version https://git-lfs.github.com/spec/v1
|
2 |
-
oid sha256:
|
3 |
size 5412288
|
|
|
1 |
version https://git-lfs.github.com/spec/v1
|
2 |
+
oid sha256:c893cc091206a4d25be9cf17234a0dff1b3d2821b644644c4bd4c8e49eb50692
|
3 |
size 5412288
|
training_args.bin
CHANGED
@@ -1,3 +1,3 @@
|
|
1 |
version https://git-lfs.github.com/spec/v1
|
2 |
-
oid sha256:
|
3 |
-
size
|
|
|
1 |
version https://git-lfs.github.com/spec/v1
|
2 |
+
oid sha256:de4339219a42826470bcc960e48587555fdd8872da9548bfcafccdcb3cf65cdf
|
3 |
+
size 5304
|