S.A.V.I.O: Sistema de Acesoria Virtual e Inteligencia en Operaciones

SAVIO es un modelo de lenguaje ajustado espec铆ficamente para tareas de an谩lisis y respuesta en contexto, con integraci贸n de capacidades de RAG (Retrieval-Augmented Generation). Este modelo est谩 dise帽ado para procesar preguntas complejas en base a documentos proporcionados por el usuario y responde con precisi贸n adapt谩ndose al contenido.

Basado en

  • LLaMA 2 from Meta IA
  • Adaptado a quantizaci贸n de 4bits en: "corneille97/llama-2-7b-4bits-turbo" El modelo base elegido proporciona una combinaci贸n 贸ptima de rendimiento y eficiencia en memoria, haciendo de SAVIO una soluci贸n ligera y potente.

Caracter铆sticas Principales

Fine-Tuning Espec铆fico: SAVIO ha sido afinado con un conjunto de datos personalizado relacionado con ventas y an谩lisis empresarial. Integraci贸n de RAG: El modelo permite la inclusi贸n de archivos en formatos .pdf, .xlsx, y .csv para responder preguntas basadas en datos espec铆ficos. Eficiencia en Memoria: Utiliza t茅cnicas avanzadas como cuantizaci贸n a 4 bits y almacenamiento optimizado con SafeTensors y GUFF. Compatibilidad Extensa: Dise帽ado para despliegues en entornos limitados, desde servidores hasta bots de Telegram.

Herramientas Usadas

  • Transformers: Para la carga y manipulaci贸n del modelo base.
  • UnsLoth: Para cuantizaci贸n eficiente y soporte de t茅cnicas avanzadas como LoRA.
  • PEFT: Para la implementaci贸n de Fine-Tuning eficiente con LoRA.
  • RAG Framework: Integraci贸n para generaci贸n aumentada por recuperaci贸n.
  • Datasets y Pandas: Manejo de datos personalizados en formatos .csv.
  • Accelerate y BitsAndBytes: Optimizaci贸n en el entrenamiento y uso del modelo.
  • Torch y Safetensors: Guardado eficiente del modelo ajustado.

Uso

SAVIO puede ser utilizado tanto localmente como en la nube para tareas como:

  • Responder preguntas sobre datos de ventas en tiempo real.
  • Integraci贸n en aplicaciones empresariales para an谩lisis y reportes.
  • Despliegue como bot de atenci贸n en plataformas como Telegram.

Ejemplo(python):

from transformers import AutoTokenizer from unsloth import FastLanguageModel

Cargar el modelo

model = FastLanguageModel.from_pretrained("usuario/SAVIO") tokenizer = AutoTokenizer.from_pretrained("usuario/SAVIO")

Pregunta

question = "驴Cu谩les fueron las ventas totales del 煤ltimo trimestre?"

Generar respuesta

inputs = tokenizer(question, return_tensors="pt").to("cuda") output = model.generate(**inputs, max_new_tokens=100) response = tokenizer.decode(output[0], skip_special_tokens=True) print(response)

Licencia

Sin licencia, uso aplicado de acuerdo con los terminos de uso de Llama (Meta IA)

Contribuciones

Si deseas contribuir o reportar un problema, visita el repositorio asociado o contacta al equipo de desarrollo.

Downloads last month
2
GGUF
Model size
6.74B params
Architecture
llama
Hardware compatibility
Log In to view the estimation

8-bit

Inference Providers NEW
This model isn't deployed by any Inference Provider. 馃檵 Ask for provider support

Model tree for HashTagDev/SAVIO-4bits-Turbo

Quantized
(1)
this model