jalbarracin commited on
Commit
2a74cc0
1 Parent(s): 83d0e75

Update README.md

Browse files
Files changed (1) hide show
  1. README.md +23 -22
README.md CHANGED
@@ -17,33 +17,17 @@ widget:
17
  example_title: "Escribir email"
18
  ---
19
 
20
- Esta es una versión más pequeña del modelo google/mt5-base con embeddings solo en español y algunas en inglés obtenidas de https://huggingface.co/JorgeSarry/
21
- El número de parámetros del modelo es de 244 millones de parámetros, lo que da como resultado un modelo de 0,9 GB, el 42 % del original.
22
-
23
- Puedes usar este modelo utilizando el tag "instrut5:"
24
-
25
- La gran ventaja es que produce buenos resultados, muchas veces en menos de 1 segundo en CPU.
26
-
27
- =====
28
-
29
- This is a smaller version of the google/mt5-base model with only Spanish and some English embeddings obtained from https://huggingface.co/JorgeSarry/
30
- The number of model parameters is 244M parameters, resulting on a model of 0.9GB - 42% of the original one.
31
-
32
- You can use this model starging with the tag "instrut5:"
33
-
34
- The best advantage is that this model produces good results, some times in less than 1 second on CPU
35
-
36
- ---
37
 
38
  # Spanish Alpaca mT5
39
 
40
- This repository contains a mT5 fine-tuned model on the [Bertin Project - Alpaca Spanish](https://huggingface.co/datasets/bertin-project/alpaca-spanish) cleaned version dataset.
 
41
 
42
- # Usage
43
 
44
- ## Using the model
45
 
46
- The model was trained on the following kind of code that shows the prompt as 'input_text' and the output:
47
 
48
  ```python
49
  from transformers import AutoTokenizer, AutoModelForSeq2SeqLM
@@ -82,4 +66,21 @@ El output de este ejemplo:
82
  ```
83
  # Colab Notebook de ejemplo
84
 
85
- Puedes acceder al notebook para que pruebes el modelo aqui: [Modelo Spanish Alpaca mT5] (https://colab.research.google.com/drive/1yWwMH0Opk1C10emYTfYhDWEPVNE7insw)
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
17
  example_title: "Escribir email"
18
  ---
19
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
20
 
21
  # Spanish Alpaca mT5
22
 
23
+ Este repositorio contiene un modelo mT5 entrenado con el dataset [Bertin Project - Alpaca Spanish](https://huggingface.co/datasets/bertin-project/alpaca-spanish) que además ha sido limpiado y editado por el autor.
24
+ Puede ponerse en contacto con el autor a través de su cuenta de twitter: @jalbarracin
25
 
26
+ # Uso
27
 
28
+ ## Usando el modelo
29
 
30
+ El modelo mT5 en español puede usarse en python siguiendo este ejemplo:
31
 
32
  ```python
33
  from transformers import AutoTokenizer, AutoModelForSeq2SeqLM
 
66
  ```
67
  # Colab Notebook de ejemplo
68
 
69
+ Puedes acceder al notebook para que pruebes el modelo aqui: [Modelo Spanish Alpaca mT5] (https://colab.research.google.com/drive/1yWwMH0Opk1C10emYTfYhDWEPVNE7insw)
70
+
71
+
72
+ Este modelo ha sido entrenado con la base de datos es una versión más pequeña del modelo google/mt5-base con embeddings solo en español y algunas en inglés obtenidas de https://huggingface.co/JorgeSarry/
73
+ El número de parámetros del modelo es de 244 millones de parámetros, lo que da como resultado un modelo de 0,9 GB, el 42 % del original.
74
+
75
+ Puedes usar este modelo utilizando el tag "instrut5:"
76
+
77
+ La gran ventaja es que produce buenos resultados, muchas veces en menos de 1 segundo en CPU.
78
+
79
+ =====
80
+
81
+ This is a smaller version of the google/mt5-base model with only Spanish and some English embeddings obtained from https://huggingface.co/JorgeSarry/
82
+ The number of model parameters is 244M parameters, resulting on a model of 0.9GB - 42% of the original one.
83
+
84
+ You can use this model starging with the tag "instrut5:"
85
+
86
+ The best advantage is that this model produces good results, some times in less than 1 second on CPU