Update app.py
Browse files
app.py
CHANGED
@@ -7,7 +7,7 @@ client = InferenceClient("mistralai/Mixtral-8x7B-Instruct-v0.1")
|
|
7 |
|
8 |
|
9 |
# Función para formatear el prompt con historial
|
10 |
-
def format_prompt(message, history, system_prompt
|
11 |
prompt = "<s>"
|
12 |
for user_prompt, bot_response in history:
|
13 |
prompt += f"[INST] {user_prompt} [/INST]"
|
@@ -17,7 +17,7 @@ def format_prompt(message, history, system_prompt="Asistente para los usuarios y
|
|
17 |
|
18 |
# Función para generar respuestas dada una serie de parámetros
|
19 |
def generate(
|
20 |
-
prompt, history, system_prompt, temperature=0.9, max_new_tokens=4096, top_p=0.95, repetition_penalty=1.0,):
|
21 |
# Ajustar valores de temperatura y top_p para asegurar que estén en el rango adecuado
|
22 |
temperature = float(temperature)
|
23 |
if temperature < 1e-2:
|
|
|
7 |
|
8 |
|
9 |
# Función para formatear el prompt con historial
|
10 |
+
def format_prompt(message, history, system_prompt):
|
11 |
prompt = "<s>"
|
12 |
for user_prompt, bot_response in history:
|
13 |
prompt += f"[INST] {user_prompt} [/INST]"
|
|
|
17 |
|
18 |
# Función para generar respuestas dada una serie de parámetros
|
19 |
def generate(
|
20 |
+
prompt, history, system_prompt="Asistente para los usuarios y clientes de la empresa Canal de Isabel II, https://oficinavirtual.canaldeisabelsegunda.es/", temperature=0.9, max_new_tokens=4096, top_p=0.95, repetition_penalty=1.0,):
|
21 |
# Ajustar valores de temperatura y top_p para asegurar que estén en el rango adecuado
|
22 |
temperature = float(temperature)
|
23 |
if temperature < 1e-2:
|