JeCabrera commited on
Commit
b01ef58
verified
1 Parent(s): 093162a

Update app.py

Browse files
Files changed (1) hide show
  1. app.py +5 -5
app.py CHANGED
@@ -6,20 +6,20 @@ from dotenv import load_dotenv
6
  # Cargar variables de entorno
7
  load_dotenv()
8
 
9
- # Configurar la API de Google
10
  genai.configure(api_key=os.getenv("GOOGLE_API_KEY"))
11
 
12
  # Crear la sesi贸n de chat con el modelo de Gemini
13
- chat = client.chats.create(model="gemini-2.0-flash")
14
 
15
  def chat_stream(message, history):
16
  """Env铆a el mensaje del usuario a Gemini con historial y devuelve la respuesta en streaming."""
17
  try:
18
- # A帽adir el mensaje al historial
19
- chat.send_message(message)
20
 
21
  # Usar streaming para obtener la respuesta en fragmentos
22
- response_stream = chat.send_message_stream(message)
23
 
24
  # Devolver los fragmentos como un flujo (streaming) en el chat
25
  for chunk in response_stream:
 
6
  # Cargar variables de entorno
7
  load_dotenv()
8
 
9
+ # Configurar la API de Google con la clave
10
  genai.configure(api_key=os.getenv("GOOGLE_API_KEY"))
11
 
12
  # Crear la sesi贸n de chat con el modelo de Gemini
13
+ model = genai.GenerativeModel("gemini-2.0-flash")
14
 
15
  def chat_stream(message, history):
16
  """Env铆a el mensaje del usuario a Gemini con historial y devuelve la respuesta en streaming."""
17
  try:
18
+ # Convertir el historial a formato adecuado para el modelo de Gemini
19
+ chat_history = [{"role": "user", "parts": [msg[0]]} for msg in history] + [{"role": "user", "parts": [message]}]
20
 
21
  # Usar streaming para obtener la respuesta en fragmentos
22
+ response_stream = model.generate_content(chat_history, stream=True)
23
 
24
  # Devolver los fragmentos como un flujo (streaming) en el chat
25
  for chunk in response_stream: