Spaces:
Running
Running
Update app.py
Browse files
app.py
CHANGED
@@ -6,20 +6,20 @@ from dotenv import load_dotenv
|
|
6 |
# Cargar variables de entorno
|
7 |
load_dotenv()
|
8 |
|
9 |
-
# Configurar la API de Google
|
10 |
genai.configure(api_key=os.getenv("GOOGLE_API_KEY"))
|
11 |
|
12 |
# Crear la sesi贸n de chat con el modelo de Gemini
|
13 |
-
|
14 |
|
15 |
def chat_stream(message, history):
|
16 |
"""Env铆a el mensaje del usuario a Gemini con historial y devuelve la respuesta en streaming."""
|
17 |
try:
|
18 |
-
#
|
19 |
-
|
20 |
|
21 |
# Usar streaming para obtener la respuesta en fragmentos
|
22 |
-
response_stream =
|
23 |
|
24 |
# Devolver los fragmentos como un flujo (streaming) en el chat
|
25 |
for chunk in response_stream:
|
|
|
6 |
# Cargar variables de entorno
|
7 |
load_dotenv()
|
8 |
|
9 |
+
# Configurar la API de Google con la clave
|
10 |
genai.configure(api_key=os.getenv("GOOGLE_API_KEY"))
|
11 |
|
12 |
# Crear la sesi贸n de chat con el modelo de Gemini
|
13 |
+
model = genai.GenerativeModel("gemini-2.0-flash")
|
14 |
|
15 |
def chat_stream(message, history):
|
16 |
"""Env铆a el mensaje del usuario a Gemini con historial y devuelve la respuesta en streaming."""
|
17 |
try:
|
18 |
+
# Convertir el historial a formato adecuado para el modelo de Gemini
|
19 |
+
chat_history = [{"role": "user", "parts": [msg[0]]} for msg in history] + [{"role": "user", "parts": [message]}]
|
20 |
|
21 |
# Usar streaming para obtener la respuesta en fragmentos
|
22 |
+
response_stream = model.generate_content(chat_history, stream=True)
|
23 |
|
24 |
# Devolver los fragmentos como un flujo (streaming) en el chat
|
25 |
for chunk in response_stream:
|