gnosticdev commited on
Commit
ca60894
verified
1 Parent(s): 8e1bdee

Update app.py

Browse files
Files changed (1) hide show
  1. app.py +30 -7
app.py CHANGED
@@ -1,6 +1,7 @@
1
  import os
2
  import streamlit as st
3
  import json
 
4
  from streamlit_option_menu import option_menu
5
  from gemini_utility import (load_gemini_pro, gemini_pro_vision_responce)
6
  from PIL import Image
@@ -47,6 +48,16 @@ def download_chat_history(history):
47
  chat_text += f"{message.role}: {message.parts[0].text}\n"
48
  return chat_text
49
 
 
 
 
 
 
 
 
 
 
 
50
  if selected == "System Prompt":
51
  st.title("Configuraci贸n del System Prompt")
52
 
@@ -105,21 +116,29 @@ elif selected == "Chatbot":
105
  with st.chat_message(translate_role_to_streamlit(message.role)):
106
  st.markdown(message.parts[0].text)
107
 
108
- # Campo de entrada
109
  user_prompt = st.chat_input("Preguntame algo...")
110
  if user_prompt:
111
  st.chat_message("user").markdown(user_prompt)
112
 
113
- # Aqu铆 es donde puedes modificar la l贸gica para que el bot consulte las URLs
114
  urls = st.session_state.get('cookie_urls', [])
 
 
115
  if urls:
116
  # L贸gica para consultar las URLs y obtener informaci贸n
117
- # Esto es un ejemplo, necesitar谩s implementar la l贸gica real para hacer las solicitudes HTTP
118
  for url in urls:
119
- # Aqu铆 podr铆as hacer una solicitud HTTP a cada URL y procesar la respuesta
120
- # Por ejemplo, usando requests.get(url) y luego analizando el contenido
121
- pass
122
-
 
 
 
 
 
 
 
123
  gemini_response = st.session_state.chat_session.send_message(user_prompt)
124
  with st.chat_message("assistant"):
125
  st.markdown(gemini_response.text)
@@ -152,3 +171,7 @@ elif selected == "Image Captioning":
152
  st.info(caption)
153
 
154
  # Fin del script
 
 
 
 
 
1
  import os
2
  import streamlit as st
3
  import json
4
+ import requests
5
  from streamlit_option_menu import option_menu
6
  from gemini_utility import (load_gemini_pro, gemini_pro_vision_responce)
7
  from PIL import Image
 
48
  chat_text += f"{message.role}: {message.parts[0].text}\n"
49
  return chat_text
50
 
51
+ # Funci贸n para obtener contenido de URLs
52
+ def fetch_url_content(url):
53
+ try:
54
+ response = requests.get(url)
55
+ response.raise_for_status() # Lanza un error si la respuesta es un c贸digo de error
56
+ return response.text # Devuelve el contenido de la p谩gina
57
+ except requests.RequestException as e:
58
+ st.error(f"Error al acceder a {url}: {e}")
59
+ return None
60
+
61
  if selected == "System Prompt":
62
  st.title("Configuraci贸n del System Prompt")
63
 
 
116
  with st.chat_message(translate_role_to_streamlit(message.role)):
117
  st.markdown(message.parts[0].text)
118
 
119
+ # Campo de entrada
120
  user_prompt = st.chat_input("Preguntame algo...")
121
  if user_prompt:
122
  st.chat_message("user").markdown(user_prompt)
123
 
124
+ # Obtener las URLs guardadas
125
  urls = st.session_state.get('cookie_urls', [])
126
+ fetched_contents = []
127
+
128
  if urls:
129
  # L贸gica para consultar las URLs y obtener informaci贸n
 
130
  for url in urls:
131
+ content = fetch_url_content(url)
132
+ if content:
133
+ fetched_contents.append(content)
134
+
135
+ # Aqu铆 puedes procesar el contenido obtenido de las URLs
136
+ # Por ejemplo, podr铆as resumirlo o extraer informaci贸n relevante
137
+ # Para este ejemplo, simplemente unimos el contenido
138
+ combined_content = "\n\n".join(fetched_contents)
139
+ user_prompt += f"\n\nInformaci贸n adicional de URLs:\n{combined_content}"
140
+
141
+ # Enviar el mensaje del usuario al modelo
142
  gemini_response = st.session_state.chat_session.send_message(user_prompt)
143
  with st.chat_message("assistant"):
144
  st.markdown(gemini_response.text)
 
171
  st.info(caption)
172
 
173
  # Fin del script
174
+
175
+
176
+
177
+