File size: 1,080 Bytes
2d751cb
 
8e635a7
ec02098
 
8e635a7
6cda33c
 
ec02098
 
 
 
2d751cb
ec02098
699aefd
5e1716d
 
8e635a7
2d751cb
 
 
 
 
 
 
 
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
import gradio as gr
from transformers import AutoModelForCausalLM, AutoTokenizer

# Cargar el tokenizer del modelo base
tokenizer = AutoTokenizer.from_pretrained("unsloth/meta-llama-3.1-8b-bnb-4bit")

# Cargar el modelo base sin usar bitsandbytes ni 4-bit
model = AutoModelForCausalLM.from_pretrained("unsloth/meta-llama-3.1-8b-bnb-4bit", device_map="cpu")

# Cargar el adaptador LoRA
model.load_adapter("JuanCabs/lapepav1", source="hf")

# Funci贸n para generar texto con el modelo
def generar_respuesta(prompt):
    inputs = tokenizer(prompt, return_tensors="pt")
    outputs = model.generate(**inputs, max_length=100)
    return tokenizer.decode(outputs[0], skip_special_tokens=True)

# Crear la interfaz de Gradio
interface = gr.Interface(fn=generar_respuesta, inputs="text", outputs="text", 
                         title="Generaci贸n de Texto con Lora y Llama 3.1",
                         description="Introduce un texto y genera una respuesta usando un modelo con LoRA.")

# Lanzar la aplicaci贸n en Hugging Face Spaces
if __name__ == "__main__":
    interface.launch()