S.A.V.I.O: Sistema de Acesoria Virtual e Inteligencia en Operaciones
SAVIO es un modelo de lenguaje ajustado espec铆ficamente para tareas de an谩lisis y respuesta en contexto, con integraci贸n de capacidades de RAG (Retrieval-Augmented Generation). Este modelo est谩 dise帽ado para procesar preguntas complejas en base a documentos proporcionados por el usuario y responde con precisi贸n adapt谩ndose al contenido.
Basado en
- LLaMA 2 from Meta IA
- Adaptado a quantizaci贸n de 4bits en: "corneille97/llama-2-7b-4bits-turbo" El modelo base elegido proporciona una combinaci贸n 贸ptima de rendimiento y eficiencia en memoria, haciendo de SAVIO una soluci贸n ligera y potente.
Caracter铆sticas Principales
Fine-Tuning Espec铆fico: SAVIO ha sido afinado con un conjunto de datos personalizado relacionado con ventas y an谩lisis empresarial. Integraci贸n de RAG: El modelo permite la inclusi贸n de archivos en formatos .pdf, .xlsx, y .csv para responder preguntas basadas en datos espec铆ficos. Eficiencia en Memoria: Utiliza t茅cnicas avanzadas como cuantizaci贸n a 4 bits y almacenamiento optimizado con SafeTensors y GUFF. Compatibilidad Extensa: Dise帽ado para despliegues en entornos limitados, desde servidores hasta bots de Telegram.
Herramientas Usadas
- Transformers: Para la carga y manipulaci贸n del modelo base.
- UnsLoth: Para cuantizaci贸n eficiente y soporte de t茅cnicas avanzadas como LoRA.
- PEFT: Para la implementaci贸n de Fine-Tuning eficiente con LoRA.
- RAG Framework: Integraci贸n para generaci贸n aumentada por recuperaci贸n.
- Datasets y Pandas: Manejo de datos personalizados en formatos .csv.
- Accelerate y BitsAndBytes: Optimizaci贸n en el entrenamiento y uso del modelo.
- Torch y Safetensors: Guardado eficiente del modelo ajustado.
Uso
SAVIO puede ser utilizado tanto localmente como en la nube para tareas como:
- Responder preguntas sobre datos de ventas en tiempo real.
- Integraci贸n en aplicaciones empresariales para an谩lisis y reportes.
- Despliegue como bot de atenci贸n en plataformas como Telegram.
Ejemplo(python):
from transformers import AutoTokenizer from unsloth import FastLanguageModel
Cargar el modelo
model = FastLanguageModel.from_pretrained("usuario/SAVIO") tokenizer = AutoTokenizer.from_pretrained("usuario/SAVIO")
Pregunta
question = "驴Cu谩les fueron las ventas totales del 煤ltimo trimestre?"
Generar respuesta
inputs = tokenizer(question, return_tensors="pt").to("cuda") output = model.generate(**inputs, max_new_tokens=100) response = tokenizer.decode(output[0], skip_special_tokens=True) print(response)
Licencia
Sin licencia, uso aplicado de acuerdo con los terminos de uso de Llama (Meta IA)
Contribuciones
Si deseas contribuir o reportar un problema, visita el repositorio asociado o contacta al equipo de desarrollo.
- Downloads last month
- 2
8-bit
Model tree for HashTagDev/SAVIO-4bits-Turbo
Base model
corneille97/llama-2-7b-4bits-turbo