Ggggg / app.py
Hjgugugjhuhjggg's picture
Update app.py
eb55e34 verified
from vllm import LLM
from vllm.sampling_params import SamplingParams
from fastapi import FastAPI
from uvicorn import run
app = FastAPI()
model_name = "Hjgugugjhuhjggg/mergekit-ties-tzamfyy"
# Verifica si mergekit tiene el atributo correcto
try:
import mergekit
if hasattr(mergekit, "MergeKitModel"):
mergekit_model = mergekit.MergeKitModel(model_name)
else:
raise ImportError("MergeKitModel no encontrado en mergekit. Verifica la instalación.")
except ImportError as e:
print(f"Error importando mergekit: {e}")
mergekit_model = None
SYSTEM_PROMPT = "¡Hola! Soy un modelo de lenguaje avanzado. Estoy aquí para ayudarte con cualquier pregunta o tema que desees discutir. ¿En qué puedo ayudarte hoy?"
def divide_texto(texto, max_tokens=512):
mensajes = []
texto_actual = ""
tokens_actuales = 0
for palabra in texto.split():
if tokens_actuales + len(palabra) > max_tokens:
mensajes.append(texto_actual.strip())
texto_actual = palabra + " "
tokens_actuales = len(palabra) + 1
else:
texto_actual += palabra + " "
tokens_actuales += len(palabra) + 1
if texto_actual.strip():
mensajes.append(texto_actual.strip())
return mensajes
@app.post("/chat")
async def chat(texto: str):
mensajes = divide_texto(texto)
mensaje = {"role": "user", "content": []}
for mensaje_texto in mensajes:
mensaje["content"].append({"type": "text", "text": mensaje_texto})
messages = [
{"role": "system", "content": SYSTEM_PROMPT},
mensaje,
]
sampling_params = SamplingParams(max_tokens=512)
try:
llm = LLM(
model=mergekit_model if mergekit_model else model_name,
config_format="llama",
load_format="llama",
tokenizer_mode="llama",
tensor_parallel_size=8
)
outputs = llm.chat(messages, sampling_params=sampling_params)
return {"response": outputs[0].outputs[0].text}
except Exception as e:
return {"error": str(e)}
if __name__ == "__main__":
run(app, host="0.0.0.0", port=7860)