File size: 2,167 Bytes
4e21e38
 
 
 
 
 
 
 
638b6bb
 
 
 
 
 
 
 
 
 
 
4e21e38
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
638b6bb
 
 
 
 
 
 
 
 
 
 
 
4e21e38
 
eb55e34
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
from vllm import LLM
from vllm.sampling_params import SamplingParams
from fastapi import FastAPI
from uvicorn import run

app = FastAPI()

model_name = "Hjgugugjhuhjggg/mergekit-ties-tzamfyy"

# Verifica si mergekit tiene el atributo correcto
try:
    import mergekit
    if hasattr(mergekit, "MergeKitModel"):
        mergekit_model = mergekit.MergeKitModel(model_name)
    else:
        raise ImportError("MergeKitModel no encontrado en mergekit. Verifica la instalación.")
except ImportError as e:
    print(f"Error importando mergekit: {e}")
    mergekit_model = None

SYSTEM_PROMPT = "¡Hola! Soy un modelo de lenguaje avanzado. Estoy aquí para ayudarte con cualquier pregunta o tema que desees discutir. ¿En qué puedo ayudarte hoy?"


def divide_texto(texto, max_tokens=512):
    mensajes = []
    texto_actual = ""
    tokens_actuales = 0
    for palabra in texto.split():
        if tokens_actuales + len(palabra) > max_tokens:
            mensajes.append(texto_actual.strip())
            texto_actual = palabra + " "
            tokens_actuales = len(palabra) + 1
        else:
            texto_actual += palabra + " "
            tokens_actuales += len(palabra) + 1
    if texto_actual.strip():
        mensajes.append(texto_actual.strip())
    return mensajes

@app.post("/chat")
async def chat(texto: str):
    mensajes = divide_texto(texto)

    mensaje = {"role": "user", "content": []}

    for mensaje_texto in mensajes:
        mensaje["content"].append({"type": "text", "text": mensaje_texto})

    messages = [
        {"role": "system", "content": SYSTEM_PROMPT},
        mensaje,
    ]

    sampling_params = SamplingParams(max_tokens=512)

    try:
        llm = LLM(
            model=mergekit_model if mergekit_model else model_name,
            config_format="llama",
            load_format="llama",
            tokenizer_mode="llama",
            tensor_parallel_size=8
        )
        outputs = llm.chat(messages, sampling_params=sampling_params)
        return {"response": outputs[0].outputs[0].text}
    except Exception as e:
        return {"error": str(e)}

if __name__ == "__main__":
    run(app, host="0.0.0.0", port=7860)