File size: 3,611 Bytes
ab8d775 310feac ab8d775 310feac ab8d775 310feac ab8d775 310feac ab8d775 310feac ab8d775 310feac |
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75 76 |
---
language: es
license: apache-2.0
tags:
- text-generation-inference
- transformers
- gemma
- chat
- qa
- multi-task-learning
- instruction-tuning
base_model: google/gemma-2b
---
# Modelo LenguajeNatural.AI Chat e Instrucciones 2B
## Desarrollado por
Este modelo ha sido desarrollado por **LenguajeNatural.AI**, con el objetivo de proporcionar a la comunidad de habla hispana herramientas avanzadas para la generaci贸n de texto, chat e instrucciones. Es el primero de una serie de modelos que planeamos lanzar.
## Licencia
Este modelo se distribuye bajo la licencia Apache 2.0.
## Modelo Base
Este modelo se ha afinado a partir de `avacaondata/leniachat-2b-instruct-es-v0`, incorporando caracter铆sticas avanzadas para una mejor generaci贸n de texto y comprensi贸n en tareas de chat e instrucciones.
## Idioma
El modelo ha sido entrenado exclusivamente en espa帽ol, con el objetivo de maximizar su efectividad en aplicaciones destinadas a usuarios de habla hispana.
## Entrenamiento
El modelo se ha entrenado en tres fases distintas para asegurar un rendimiento 贸ptimo en una amplia gama de tareas:
1. **Aprendizaje multi-tarea en espa帽ol**: Utilizando m煤ltiples conjuntos de datos supervisados para un entrenamiento al estilo FLAN.
2. **Entrenamiento de instrucciones de alta calidad**: Afinando el modelo para entender y generar respuestas a instrucciones complejas.
3. **Entrenamiento de chat y QA abstractivo**: Optimizando el modelo para conversaciones fluidas y la generaci贸n de respuestas a preguntas abstractas.
## Usos Intendidos y Limitaciones
Este modelo est谩 dise帽ado para ser utilizado en aplicaciones de generaci贸n de texto, chatbots, y asistentes virtuales en espa帽ol. Aunque ha sido entrenado para minimizar sesgos y errores, recomendamos evaluar su desempe帽o en su contexto espec铆fico de uso. Los usuarios deben ser conscientes de las limitaciones inherentes a los modelos de lenguaje y utilizar este modelo de manera responsable.
## 驴C贸mo empezar?
Puedes empezar a utilizar este modelo a trav茅s de la API de Hugging Face o integrarlo en tus aplicaciones utilizando la biblioteca `transformers`. Aqu铆 tienes un ejemplo de c贸mo cargar el modelo:
```python
from transformers import AutoModelForCausalLM, AutoTokenizer
import torch
model_name = "LenguajeNaturalAI/leniachat-gemma-2b-v0"
tokenizer = AutoTokenizer.from_pretrained(model_name)
model = AutoModelForCausalLM.from_pretrained(model_name)
# Generar texto
messages = [
{"role": "system", "content": "Eres un asistente que ayuda al usuario a lo largo de la conversaci贸n resolviendo sus dudas."},
{"role": "user", "content": "驴Qu茅 fue la revoluci贸n industrial?"}
]
input_ids = tokenizer.apply_chat_template(messages, tokenize=True, return_tensors="pt")
with torch.no_grad():
output = model.generate(**input_ids, max_length=50)
print(tokenizer.decode(output[0], skip_special_tokens=True))
```
## Evaluaci贸n
Para asegurar la calidad del modelo, se ha realizado una evaluaci贸n exhaustiva en varios conjuntos de datos, mostrando una mejora significativa en la generaci贸n de texto y la comprensi贸n de instrucciones en espa帽ol. Los detalles espec铆ficos de la evaluaci贸n est谩n disponibles en nuestro repositorio.
## Contribuciones
Animamos a la comunidad a contribuir con retroalimentaci贸n, sugerencias, y mejoras para este modelo. La colaboraci贸n es fundamental para el avance de la inteligencia artificial accesible y 茅tica.
## Futuras Versiones
Planeamos continuar mejorando este modelo y lanzar versiones futuras con capacidades ampliadas. Mantente atento a nuestras actualizaciones.
|