|
--- |
|
language: |
|
- es |
|
base_model: |
|
- corneille97/llama-2-7b-4bits-turbo |
|
--- |
|
# S.A.V.I.O: Sistema de Acesoria Virtual e Inteligencia en Operaciones |
|
SAVIO es un modelo de lenguaje ajustado espec铆ficamente para tareas de an谩lisis y respuesta en contexto, con integraci贸n de capacidades de RAG (Retrieval-Augmented Generation). Este modelo est谩 dise帽ado para procesar preguntas complejas en base a documentos proporcionados por el usuario y responde con precisi贸n adapt谩ndose al contenido. |
|
|
|
# Basado en |
|
+ LLaMA 2 from Meta IA |
|
+ Adaptado a quantizaci贸n de 4bits en: "corneille97/llama-2-7b-4bits-turbo" |
|
El modelo base elegido proporciona una combinaci贸n 贸ptima de rendimiento y eficiencia en memoria, haciendo de SAVIO una soluci贸n ligera y potente. |
|
|
|
# Caracter铆sticas Principales |
|
Fine-Tuning Espec铆fico: SAVIO ha sido afinado con un conjunto de datos personalizado relacionado con ventas y an谩lisis empresarial. |
|
Integraci贸n de RAG: El modelo permite la inclusi贸n de archivos en formatos .pdf, .xlsx, y .csv para responder preguntas basadas en datos espec铆ficos. |
|
Eficiencia en Memoria: Utiliza t茅cnicas avanzadas como cuantizaci贸n a 4 bits y almacenamiento optimizado con SafeTensors y GUFF. |
|
Compatibilidad Extensa: Dise帽ado para despliegues en entornos limitados, desde servidores hasta bots de Telegram. |
|
|
|
# Herramientas Usadas |
|
+ Transformers: Para la carga y manipulaci贸n del modelo base. |
|
+ UnsLoth: Para cuantizaci贸n eficiente y soporte de t茅cnicas avanzadas como LoRA. |
|
+ PEFT: Para la implementaci贸n de Fine-Tuning eficiente con LoRA. |
|
+ RAG Framework: Integraci贸n para generaci贸n aumentada por recuperaci贸n. |
|
+ Datasets y Pandas: Manejo de datos personalizados en formatos .csv. |
|
+ Accelerate y BitsAndBytes: Optimizaci贸n en el entrenamiento y uso del modelo. |
|
+ Torch y Safetensors: Guardado eficiente del modelo ajustado. |
|
|
|
# Uso |
|
SAVIO puede ser utilizado tanto localmente como en la nube para tareas como: |
|
+ Responder preguntas sobre datos de ventas en tiempo real. |
|
+ Integraci贸n en aplicaciones empresariales para an谩lisis y reportes. |
|
+ Despliegue como bot de atenci贸n en plataformas como Telegram. |
|
|
|
# Ejemplo(python): |
|
from transformers import AutoTokenizer |
|
from unsloth import FastLanguageModel |
|
|
|
# Cargar el modelo |
|
model = FastLanguageModel.from_pretrained("usuario/SAVIO") |
|
tokenizer = AutoTokenizer.from_pretrained("usuario/SAVIO") |
|
|
|
# Pregunta |
|
question = "驴Cu谩les fueron las ventas totales del 煤ltimo trimestre?" |
|
|
|
# Generar respuesta |
|
inputs = tokenizer(question, return_tensors="pt").to("cuda") |
|
output = model.generate(**inputs, max_new_tokens=100) |
|
response = tokenizer.decode(output[0], skip_special_tokens=True) |
|
print(response) |
|
|
|
# Licencia |
|
Sin licencia, uso aplicado de acuerdo con los terminos de uso de Llama (Meta IA) |
|
|
|
# Contribuciones |
|
Si deseas contribuir o reportar un problema, visita el repositorio asociado o contacta al equipo de desarrollo. |