Update README.md
Browse files
README.md
CHANGED
@@ -6,6 +6,13 @@ metrics:
|
|
6 |
- accuracy
|
7 |
- f1
|
8 |
library_name: transformers
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
9 |
---
|
10 |
# DistilBERT-pMHC
|
11 |
|
@@ -13,6 +20,10 @@ library_name: transformers
|
|
13 |
|
14 |
Este modelo fue creado realizando el principio de destilación BERT y poniéndolo en prácitica con un modelo proteínico como lo es el ProteinBERT.
|
15 |
|
|
|
|
|
|
|
|
|
16 |
## Model Details
|
17 |
|
18 |
### Model Description
|
@@ -22,5 +33,5 @@ Este modelo fue creado realizando el principio de destilación BERT y poniéndol
|
|
22 |
|
23 |
|
24 |
- **Developed by:** Jose Alfredo Grados Chuquitaype
|
25 |
-
- **Model type:**
|
26 |
-
- **Language(s) (NLP):** English
|
|
|
6 |
- accuracy
|
7 |
- f1
|
8 |
library_name: transformers
|
9 |
+
pipeline_tag: text-classification
|
10 |
+
tags:
|
11 |
+
- prediction
|
12 |
+
- peptide
|
13 |
+
- mhc
|
14 |
+
- hlab
|
15 |
+
- distilbert
|
16 |
---
|
17 |
# DistilBERT-pMHC
|
18 |
|
|
|
20 |
|
21 |
Este modelo fue creado realizando el principio de destilación BERT y poniéndolo en prácitica con un modelo proteínico como lo es el ProteinBERT.
|
22 |
|
23 |
+
Se usó de referencia la Destilación de un modelo RoBERTa. Lo que se hizo fue dividir a la mitad las capas del modelo y tener de entrada un modelo maestro y uno estudiante que sería el resultante:
|
24 |
+
|
25 |
+
![image/png](https://cdn-uploads.huggingface.co/production/uploads/64767104fb22e3b77f3f6d49/dlsTNDk7HJJP7OIjk9hor.png)
|
26 |
+
|
27 |
## Model Details
|
28 |
|
29 |
### Model Description
|
|
|
33 |
|
34 |
|
35 |
- **Developed by:** Jose Alfredo Grados Chuquitaype
|
36 |
+
- **Model type:** Predicción
|
37 |
+
- **Language(s) (NLP):** English
|