File size: 26,776 Bytes
d8f883a f8e91f1 d8f883a f8e91f1 f1aa587 f8e91f1 f1aa587 f8e91f1 f1aa587 f8e91f1 f1aa587 f8e91f1 |
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75 76 77 78 79 80 81 82 83 84 85 86 87 88 89 90 91 92 93 94 95 96 97 98 99 100 101 102 103 104 105 106 107 108 109 110 111 112 113 114 115 116 117 118 119 120 121 122 123 124 125 126 |
---
license: mit
base_model: facebook/esm2_t6_8M_UR50D
tags:
- generated_from_trainer
metrics:
- precision
- recall
library_name: peft
model-index:
- name: esm_ft_Aerin_Yang_et_al_2023
results: []
---
<!-- This model card has been generated automatically according to the information the Trainer had access to. You
should probably proofread and complete it, then remove this comment. -->
# esm_ft_Aerin_Yang_et_al_2023
This model is a fine-tuned version of [facebook/esm2_t6_8M_UR50D](https://huggingface.co/facebook/esm2_t6_8M_UR50D) on an unknown dataset.
It achieves the following results on the evaluation set:
- Loss: 0.8744
- Rmse: 0.9351
- Mae: 0.9082
- Spearmanr Corr: nan
- Spearmanr Corr P Value: nan
- Pearsonr Corr: nan
- Pearsonr Corr P Value: nan
- Spearmanr Corr Of Deltas: nan
- Spearmanr Corr Of Deltas P Value: nan
- Pearsonr Corr Of Deltas: nan
- Pearsonr Corr Of Deltas P Value: nan
- Ranking F1 Score: 0.0
- Ranking Mcc: 0.0
- Rmse Enriched: 1.1132
- Mae Enriched: 1.1132
- Spearmanr Corr Enriched: nan
- Spearmanr Corr Enriched P Value: nan
- Pearsonr Corr Enriched: nan
- Pearsonr Corr Enriched P Value: nan
- Spearmanr Corr Of Deltas Enriched: nan
- Spearmanr Corr Of Deltas Enriched P Value: nan
- Pearsonr Corr Of Deltas Enriched: nan
- Pearsonr Corr Of Deltas Enriched P Value: nan
- Ranking F1 Score Enriched: 0.0
- Ranking Mcc Enriched: 0.0
- Classification Thresh: 0.5
- Mcc: 0.0
- F1 Score: 0.0
- Acc: 0.5448
- Auc: 0.5
- Precision: 0.2724
- Recall: 0.5
## Model description
More information needed
## Intended uses & limitations
More information needed
## Training and evaluation data
More information needed
## Training procedure
### Training hyperparameters
The following hyperparameters were used during training:
- learning_rate: 0.1
- train_batch_size: 8
- eval_batch_size: 8
- seed: 42
- distributed_type: not_parallel
- optimizer: Adam with betas=(0.9,0.999) and epsilon=1e-08
- lr_scheduler_type: linear
- lr_scheduler_warmup_steps: 200
- num_epochs: 100
- mixed_precision_training: Native AMP
### Training results
| Training Loss | Epoch | Step | Validation Loss | Rmse | Mae | Spearmanr Corr | Spearmanr Corr P Value | Pearsonr Corr | Pearsonr Corr P Value | Spearmanr Corr Of Deltas | Spearmanr Corr Of Deltas P Value | Pearsonr Corr Of Deltas | Pearsonr Corr Of Deltas P Value | Ranking F1 Score | Ranking Mcc | Rmse Enriched | Mae Enriched | Spearmanr Corr Enriched | Spearmanr Corr Enriched P Value | Pearsonr Corr Enriched | Pearsonr Corr Enriched P Value | Spearmanr Corr Of Deltas Enriched | Spearmanr Corr Of Deltas Enriched P Value | Pearsonr Corr Of Deltas Enriched | Pearsonr Corr Of Deltas Enriched P Value | Ranking F1 Score Enriched | Ranking Mcc Enriched | Classification Thresh | Mcc | F1 Score | Acc | Auc | Precision | Recall |
|:-------------:|:-----:|:-----:|:---------------:|:------:|:------:|:--------------:|:----------------------:|:-------------:|:---------------------:|:------------------------:|:--------------------------------:|:-----------------------:|:-------------------------------:|:----------------:|:-----------:|:-------------:|:------------:|:-----------------------:|:-------------------------------:|:----------------------:|:------------------------------:|:---------------------------------:|:-----------------------------------------:|:--------------------------------:|:----------------------------------------:|:-------------------------:|:--------------------:|:---------------------:|:---:|:--------:|:------:|:------:|:---------:|:------:|
| 0.9757 | 1.0 | 335 | 0.8805 | 0.9384 | 0.9260 | 0.1765 | 0.0000 | 0.1841 | 0.0000 | 0.1764 | 0.0 | 0.1829 | 0.0 | 0.3085 | 0.0994 | 0.8694 | 0.8694 | -0.0570 | 0.3214 | -0.0560 | 0.3300 | -0.0564 | 0.0000 | -0.0558 | 0.0000 | 0.0004 | -0.0332 | 0.5 | 0.0 | 0.0 | 0.5448 | 0.5833 | 0.2724 | 0.5 |
| 0.9623 | 2.0 | 670 | 0.9395 | 0.9693 | 0.8980 | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | 0.0 | 1.2814 | 1.2814 | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | 0.0 | 0.5 | 0.0 | 0.0 | 0.5448 | 0.5 | 0.2724 | 0.5 |
| 1.0629 | 3.0 | 1005 | 1.3044 | 1.1421 | 0.8760 | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | 0.0 | 1.6686 | 1.6686 | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | 0.0 | 0.5 | 0.0 | 0.0 | 0.5448 | 0.5 | 0.2724 | 0.5 |
| 1.1253 | 4.0 | 1340 | 1.2135 | 1.1016 | 0.8801 | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | 0.0 | 1.5964 | 1.5964 | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | 0.0 | 0.5 | 0.0 | 0.0 | 0.5448 | 0.5 | 0.2724 | 0.5 |
| 1.1795 | 5.0 | 1675 | 0.8632 | 0.9291 | 0.9174 | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | 0.0 | 0.9756 | 0.9756 | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | 0.0 | 0.5 | 0.0 | 0.0 | 0.5448 | 0.5 | 0.2724 | 0.5 |
| 1.1739 | 6.0 | 2010 | 0.8957 | 0.9464 | 0.9037 | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | 0.0 | 1.1862 | 1.1862 | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | 0.0 | 0.5 | 0.0 | 0.0 | 0.5448 | 0.5 | 0.2724 | 0.5 |
| 2.7995 | 7.0 | 2345 | 0.8684 | 0.9319 | 0.9210 | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | 0.0 | 0.9266 | 0.9266 | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | 0.0 | 0.5 | 0.0 | 0.0 | 0.5448 | 0.5 | 0.2724 | 0.5 |
| 1.0472 | 8.0 | 2680 | 1.0553 | 1.0273 | 0.9533 | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | 0.0 | 0.5646 | 0.5646 | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | 0.0 | 0.5 | 0.0 | 0.0 | 0.5448 | 0.5 | 0.2724 | 0.5 |
| 1.0783 | 9.0 | 3015 | 1.2430 | 1.1149 | 0.8787 | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | 0.0 | 1.6208 | 1.6208 | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | 0.0 | 0.5 | 0.0 | 0.0 | 0.5448 | 0.5 | 0.2724 | 0.5 |
| 0.9656 | 10.0 | 3350 | 0.8624 | 0.9287 | 0.9152 | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | 0.0 | 1.0073 | 1.0072 | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | 0.0 | 0.5 | 0.0 | 0.0 | 0.5448 | 0.5 | 0.2724 | 0.5 |
| 1.2348 | 11.0 | 3685 | 1.1586 | 1.0764 | 0.8828 | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | 0.0 | 1.5480 | 1.5480 | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | 0.0 | 0.5 | 0.0 | 0.0 | 0.5448 | 0.5 | 0.2724 | 0.5 |
| 0.9899 | 12.0 | 4020 | 0.8626 | 0.9287 | 0.9146 | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | 0.0 | 1.0156 | 1.0155 | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | 0.0 | 0.5 | 0.0 | 0.0 | 0.5448 | 0.5 | 0.2724 | 0.5 |
| 1.0165 | 13.0 | 4355 | 1.1301 | 1.0630 | 0.9603 | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | 0.0 | 0.4865 | 0.4865 | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | 0.0 | 0.5 | 0.0 | 0.0 | 0.5448 | 0.5 | 0.2724 | 0.5 |
| 1.0648 | 14.0 | 4690 | 1.0519 | 1.0256 | 0.8890 | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | 0.0 | 1.4391 | 1.4391 | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | 0.0 | 0.5 | 0.0 | 0.0 | 0.5448 | 0.5 | 0.2724 | 0.5 |
| 1.3008 | 15.0 | 5025 | 3.3846 | 1.8397 | 1.5890 | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | 0.0 | 2.5920 | 2.5920 | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | 0.0 | 0.5 | 0.0 | 0.0 | 0.5448 | 0.5 | 0.2724 | 0.5 |
| 1.1505 | 16.0 | 5360 | 0.8714 | 0.9335 | 0.9092 | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | 0.0 | 1.0987 | 1.0987 | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | 0.0 | 0.5 | 0.0 | 0.0 | 0.5448 | 0.5 | 0.2724 | 0.5 |
| 1.1522 | 17.0 | 5695 | 1.5739 | 1.2546 | 0.9895 | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | 0.0 | 0.1604 | 0.1603 | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | 0.0 | 0.5 | 0.0 | 0.6256 | 0.4552 | 0.5 | 0.2276 | 0.5 |
| 1.0012 | 18.0 | 6030 | 3.2349 | 1.7986 | 1.5413 | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | 0.0 | 2.5441 | 2.5441 | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | 0.0 | 0.5 | 0.0 | 0.0 | 0.5448 | 0.5 | 0.2724 | 0.5 |
| 1.1073 | 19.0 | 6365 | 0.9015 | 0.9495 | 0.9028 | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | 0.0 | 1.2016 | 1.2016 | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | 0.0 | 0.5 | 0.0 | 0.0 | 0.5448 | 0.5 | 0.2724 | 0.5 |
| 0.9681 | 20.0 | 6700 | 0.9108 | 0.9544 | 0.9336 | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | 0.0 | 0.7839 | 0.7839 | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | 0.0 | 0.5 | 0.0 | 0.0 | 0.5448 | 0.5 | 0.2724 | 0.5 |
| 1.0465 | 21.0 | 7035 | 1.0870 | 1.0426 | 0.8868 | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | 0.0 | 1.4777 | 1.4777 | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | 0.0 | 0.5 | 0.0 | 0.0 | 0.5448 | 0.5 | 0.2724 | 0.5 |
| 0.9831 | 22.0 | 7370 | 0.8820 | 0.9392 | 0.9265 | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | 0.0 | 0.8638 | 0.8638 | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | 0.0 | 0.5 | 0.0 | 0.0 | 0.5448 | 0.5 | 0.2724 | 0.5 |
| 0.9377 | 23.0 | 7705 | 0.8646 | 0.9298 | 0.9123 | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | 0.0 | 1.0506 | 1.0506 | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | 0.0 | 0.5 | 0.0 | 0.0 | 0.5448 | 0.5 | 0.2724 | 0.5 |
| 1.0435 | 24.0 | 8040 | 0.8731 | 0.9344 | 0.9232 | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | 0.0 | 0.9005 | 0.9005 | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | 0.0 | 0.5 | 0.0 | 0.0 | 0.5448 | 0.5 | 0.2724 | 0.5 |
| 1.0537 | 25.0 | 8375 | 0.8628 | 0.9289 | 0.9167 | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | 0.0 | 0.9849 | 0.9849 | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | 0.0 | 0.5 | 0.0 | 0.0 | 0.5448 | 0.5 | 0.2724 | 0.5 |
| 1.1299 | 26.0 | 8710 | 0.9318 | 0.9653 | 0.9375 | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | 0.0 | 0.7404 | 0.7404 | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | 0.0 | 0.5 | 0.0 | 0.0 | 0.5448 | 0.5 | 0.2724 | 0.5 |
| 1.0194 | 27.0 | 9045 | 0.9064 | 0.9520 | 0.9327 | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | 0.0 | 0.7942 | 0.7942 | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | 0.0 | 0.5 | 0.0 | 0.0 | 0.5448 | 0.5 | 0.2724 | 0.5 |
| 0.9194 | 28.0 | 9380 | 1.0536 | 1.0265 | 0.9531 | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | 0.0 | 0.5666 | 0.5666 | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | 0.0 | 0.5 | 0.0 | 0.0 | 0.5448 | 0.5 | 0.2724 | 0.5 |
| 0.9385 | 29.0 | 9715 | 0.8727 | 0.9342 | 0.9230 | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | 0.0 | 0.9022 | 0.9022 | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | 0.0 | 0.5 | 0.0 | 0.0 | 0.5448 | 0.5 | 0.2724 | 0.5 |
| 0.9392 | 30.0 | 10050 | 0.8625 | 0.9287 | 0.9147 | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | 0.0 | 1.0149 | 1.0149 | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | 0.0 | 0.5 | 0.0 | 0.0 | 0.5448 | 0.5 | 0.2724 | 0.5 |
| 0.937 | 31.0 | 10385 | 0.8744 | 0.9351 | 0.9082 | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | 0.0 | 1.1132 | 1.1132 | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | 0.0 | 0.5 | 0.0 | 0.0 | 0.5448 | 0.5 | 0.2724 | 0.5 |
### Framework versions
- PEFT 0.13.2
- Transformers 4.41.2
- Pytorch 2.5.1+cu118
- Datasets 3.1.0
- Tokenizers 0.19.1 |