SAVIO-4bits-Turbo / README.md
HashTagDev's picture
Des(HashTag): Model Card has been created
2c16027 verified
---
language:
- es
base_model:
- corneille97/llama-2-7b-4bits-turbo
---
# S.A.V.I.O: Sistema de Acesoria Virtual e Inteligencia en Operaciones
SAVIO es un modelo de lenguaje ajustado espec铆ficamente para tareas de an谩lisis y respuesta en contexto, con integraci贸n de capacidades de RAG (Retrieval-Augmented Generation). Este modelo est谩 dise帽ado para procesar preguntas complejas en base a documentos proporcionados por el usuario y responde con precisi贸n adapt谩ndose al contenido.
# Basado en
+ LLaMA 2 from Meta IA
+ Adaptado a quantizaci贸n de 4bits en: "corneille97/llama-2-7b-4bits-turbo"
El modelo base elegido proporciona una combinaci贸n 贸ptima de rendimiento y eficiencia en memoria, haciendo de SAVIO una soluci贸n ligera y potente.
# Caracter铆sticas Principales
Fine-Tuning Espec铆fico: SAVIO ha sido afinado con un conjunto de datos personalizado relacionado con ventas y an谩lisis empresarial.
Integraci贸n de RAG: El modelo permite la inclusi贸n de archivos en formatos .pdf, .xlsx, y .csv para responder preguntas basadas en datos espec铆ficos.
Eficiencia en Memoria: Utiliza t茅cnicas avanzadas como cuantizaci贸n a 4 bits y almacenamiento optimizado con SafeTensors y GUFF.
Compatibilidad Extensa: Dise帽ado para despliegues en entornos limitados, desde servidores hasta bots de Telegram.
# Herramientas Usadas
+ Transformers: Para la carga y manipulaci贸n del modelo base.
+ UnsLoth: Para cuantizaci贸n eficiente y soporte de t茅cnicas avanzadas como LoRA.
+ PEFT: Para la implementaci贸n de Fine-Tuning eficiente con LoRA.
+ RAG Framework: Integraci贸n para generaci贸n aumentada por recuperaci贸n.
+ Datasets y Pandas: Manejo de datos personalizados en formatos .csv.
+ Accelerate y BitsAndBytes: Optimizaci贸n en el entrenamiento y uso del modelo.
+ Torch y Safetensors: Guardado eficiente del modelo ajustado.
# Uso
SAVIO puede ser utilizado tanto localmente como en la nube para tareas como:
+ Responder preguntas sobre datos de ventas en tiempo real.
+ Integraci贸n en aplicaciones empresariales para an谩lisis y reportes.
+ Despliegue como bot de atenci贸n en plataformas como Telegram.
# Ejemplo(python):
from transformers import AutoTokenizer
from unsloth import FastLanguageModel
# Cargar el modelo
model = FastLanguageModel.from_pretrained("usuario/SAVIO")
tokenizer = AutoTokenizer.from_pretrained("usuario/SAVIO")
# Pregunta
question = "驴Cu谩les fueron las ventas totales del 煤ltimo trimestre?"
# Generar respuesta
inputs = tokenizer(question, return_tensors="pt").to("cuda")
output = model.generate(**inputs, max_new_tokens=100)
response = tokenizer.decode(output[0], skip_special_tokens=True)
print(response)
# Licencia
Sin licencia, uso aplicado de acuerdo con los terminos de uso de Llama (Meta IA)
# Contribuciones
Si deseas contribuir o reportar un problema, visita el repositorio asociado o contacta al equipo de desarrollo.