JeCabrera commited on
Commit
76612f3
verified
1 Parent(s): b01ef58

Update app.py

Browse files
Files changed (1) hide show
  1. app.py +13 -8
app.py CHANGED
@@ -15,15 +15,20 @@ model = genai.GenerativeModel("gemini-2.0-flash")
15
  def chat_stream(message, history):
16
  """Env铆a el mensaje del usuario a Gemini con historial y devuelve la respuesta en streaming."""
17
  try:
18
- # Convertir el historial a formato adecuado para el modelo de Gemini
19
- chat_history = [{"role": "user", "parts": [msg[0]]} for msg in history] + [{"role": "user", "parts": [message]}]
20
-
21
- # Usar streaming para obtener la respuesta en fragmentos
22
- response_stream = model.generate_content(chat_history, stream=True)
 
 
 
 
23
 
24
- # Devolver los fragmentos como un flujo (streaming) en el chat
25
- for chunk in response_stream:
26
- yield chunk.text # Genera cada fragmento uno por uno
 
27
 
28
  except Exception as e:
29
  yield f"Error: {e}"
 
15
  def chat_stream(message, history):
16
  """Env铆a el mensaje del usuario a Gemini con historial y devuelve la respuesta en streaming."""
17
  try:
18
+ # Crear una conversaci贸n nueva
19
+ chat = model.start_chat()
20
+
21
+ # Agregar el historial previo a la conversaci贸n
22
+ for user_msg, assistant_msg in history:
23
+ chat.send_message(user_msg)
24
+
25
+ # Enviar el mensaje actual y obtener la respuesta en streaming
26
+ response = chat.send_message(message, stream=True)
27
 
28
+ # Devolver los fragmentos como un flujo
29
+ for chunk in response:
30
+ if chunk.text: # Verificar que el chunk tiene texto
31
+ yield chunk.text
32
 
33
  except Exception as e:
34
  yield f"Error: {e}"