askbyte commited on
Commit
ea665d9
·
verified ·
1 Parent(s): 26e838b

Update app.py

Browse files
Files changed (1) hide show
  1. app.py +10 -2
app.py CHANGED
@@ -9,10 +9,18 @@ def generate_response(user_message):
9
  if not user_message.strip():
10
  return "Por favor, escribe una pregunta para que pueda ayudarte."
11
 
 
 
 
 
 
12
  # Cargar el prompt del sistema
13
  with open("prompt.txt", "r", encoding="utf-8") as f:
14
  system_prompt = f.read().strip()
15
 
 
 
 
16
  # Configurar la solicitud a DeepInfra
17
  api_key = os.environ.get("DEEPINFRA_API_KEY", "")
18
  if not api_key:
@@ -31,9 +39,9 @@ def generate_response(user_message):
31
 
32
  # Usar un modelo que sí está disponible en DeepInfra
33
  data = {
34
- "model": "meta-llama/Llama-2-7b-chat-hf", # Modelo disponible en DeepInfra
35
  "messages": messages,
36
- "max_tokens": 500,
37
  "temperature": 0.7,
38
  "top_p": 0.9
39
  }
 
9
  if not user_message.strip():
10
  return "Por favor, escribe una pregunta para que pueda ayudarte."
11
 
12
+ # Detectar si es un saludo simple
13
+ saludos = ["hola", "buenos días", "buenas", "saludos", "hey", "qué tal", "como estás"]
14
+ if user_message.lower().strip() in saludos:
15
+ return "¡Hola! Soy BITER, tu mentor de negocios. ¿En qué puedo ayudarte hoy? Puedes preguntarme sobre estrategia, marketing, financiación o desarrollo de producto."
16
+
17
  # Cargar el prompt del sistema
18
  with open("prompt.txt", "r", encoding="utf-8") as f:
19
  system_prompt = f.read().strip()
20
 
21
+ # Añadir instrucciones para respuestas concisas
22
+ system_prompt += "\n\nIMPORTANTE: Tus respuestas deben ser concisas (máximo 3-4 párrafos). Evita listas largas y sé directo. Adapta la longitud de tu respuesta a la complejidad de la pregunta."
23
+
24
  # Configurar la solicitud a DeepInfra
25
  api_key = os.environ.get("DEEPINFRA_API_KEY", "")
26
  if not api_key:
 
39
 
40
  # Usar un modelo que sí está disponible en DeepInfra
41
  data = {
42
+ "model": "meta-llama/Llama-2-7b-chat-hf",
43
  "messages": messages,
44
+ "max_tokens": 300, # Reducido para respuestas más cortas
45
  "temperature": 0.7,
46
  "top_p": 0.9
47
  }