avacaondata commited on
Commit
310feac
verified
1 Parent(s): 8d83f4c

Update README.md

Browse files
Files changed (1) hide show
  1. README.md +64 -11
README.md CHANGED
@@ -1,22 +1,75 @@
1
  ---
2
- language:
3
- - en
4
  license: apache-2.0
5
  tags:
6
  - text-generation-inference
7
  - transformers
8
- - unsloth
9
  - gemma
10
- - trl
11
- base_model: avacaondata/leniachat-2b-instruct-es-v0
 
 
 
12
  ---
13
 
14
- # Uploaded model
15
 
16
- - **Developed by:** avacaondata
17
- - **License:** apache-2.0
18
- - **Finetuned from model :** avacaondata/leniachat-2b-instruct-es-v0
19
 
20
- This gemma model was trained 2x faster with [Unsloth](https://github.com/unslothai/unsloth) and Huggingface's TRL library.
21
 
22
- [<img src="https://raw.githubusercontent.com/unslothai/unsloth/main/images/unsloth%20made%20with%20love.png" width="200"/>](https://github.com/unslothai/unsloth)
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
  ---
2
+ language: es
 
3
  license: apache-2.0
4
  tags:
5
  - text-generation-inference
6
  - transformers
 
7
  - gemma
8
+ - chat
9
+ - qa
10
+ - multi-task-learning
11
+ - instruction-tuning
12
+ base_model: google/gemma-2b
13
  ---
14
 
15
+ # Modelo LenguajeNatural.AI Chat e Instrucciones 2B
16
 
17
+ ## Desarrollado por
 
 
18
 
19
+ Este modelo ha sido desarrollado por **LenguajeNatural.AI**, con el objetivo de proporcionar a la comunidad de habla hispana herramientas avanzadas para la generaci贸n de texto, chat e instrucciones. Es el primero de una serie de modelos que planeamos lanzar.
20
 
21
+ ## Licencia
22
+
23
+ Este modelo se distribuye bajo la licencia Apache 2.0.
24
+
25
+ ## Modelo Base
26
+
27
+ Este modelo se ha afinado a partir de `avacaondata/leniachat-2b-instruct-es-v0`, incorporando caracter铆sticas avanzadas para una mejor generaci贸n de texto y comprensi贸n en tareas de chat e instrucciones.
28
+
29
+ ## Idioma
30
+
31
+ El modelo ha sido entrenado exclusivamente en espa帽ol, con el objetivo de maximizar su efectividad en aplicaciones destinadas a usuarios de habla hispana.
32
+
33
+ ## Entrenamiento
34
+
35
+ El modelo se ha entrenado en tres fases distintas para asegurar un rendimiento 贸ptimo en una amplia gama de tareas:
36
+
37
+ 1. **Aprendizaje multi-tarea en espa帽ol**: Utilizando m煤ltiples conjuntos de datos supervisados para un entrenamiento al estilo FLAN.
38
+ 2. **Entrenamiento de instrucciones de alta calidad**: Afinando el modelo para entender y generar respuestas a instrucciones complejas.
39
+ 3. **Entrenamiento de chat y QA abstractivo**: Optimizando el modelo para conversaciones fluidas y la generaci贸n de respuestas a preguntas abstractas.
40
+
41
+ ## Usos Intendidos y Limitaciones
42
+
43
+ Este modelo est谩 dise帽ado para ser utilizado en aplicaciones de generaci贸n de texto, chatbots, y asistentes virtuales en espa帽ol. Aunque ha sido entrenado para minimizar sesgos y errores, recomendamos evaluar su desempe帽o en su contexto espec铆fico de uso. Los usuarios deben ser conscientes de las limitaciones inherentes a los modelos de lenguaje y utilizar este modelo de manera responsable.
44
+
45
+ ## 驴C贸mo empezar?
46
+
47
+ Puedes empezar a utilizar este modelo a trav茅s de la API de Hugging Face o integrarlo en tus aplicaciones utilizando la biblioteca `transformers`. Aqu铆 tienes un ejemplo de c贸mo cargar el modelo:
48
+
49
+ ```python
50
+ from transformers import AutoModelForCausalLM, AutoTokenizer
51
+ import torch
52
+
53
+ model_name = "LenguajeNaturalAI/leniachat-gemma-2b-v0"
54
+ tokenizer = AutoTokenizer.from_pretrained(model_name)
55
+ model = AutoModelForCausalLM.from_pretrained(model_name)
56
+
57
+ # Generar texto
58
+ messages = [
59
+ {"role": "system", "content": "Eres un asistente que ayuda al usuario a lo largo de la conversaci贸n resolviendo sus dudas."},
60
+ {"role": "user", "content": "驴Qu茅 fue la revoluci贸n industrial?"}
61
+ ]
62
+ input_ids = tokenizer.apply_chat_template(messages, tokenize=True, return_tensors="pt")
63
+ with torch.no_grad():
64
+ output = model.generate(**input_ids, max_length=50)
65
+ print(tokenizer.decode(output[0], skip_special_tokens=True))
66
+ ```
67
+
68
+ ## Evaluaci贸n
69
+ Para asegurar la calidad del modelo, se ha realizado una evaluaci贸n exhaustiva en varios conjuntos de datos, mostrando una mejora significativa en la generaci贸n de texto y la comprensi贸n de instrucciones en espa帽ol. Los detalles espec铆ficos de la evaluaci贸n est谩n disponibles en nuestro repositorio.
70
+
71
+ ## Contribuciones
72
+ Animamos a la comunidad a contribuir con retroalimentaci贸n, sugerencias, y mejoras para este modelo. La colaboraci贸n es fundamental para el avance de la inteligencia artificial accesible y 茅tica.
73
+
74
+ ## Futuras Versiones
75
+ Planeamos continuar mejorando este modelo y lanzar versiones futuras con capacidades ampliadas. Mantente atento a nuestras actualizaciones.