carlosdimare commited on
Commit
b2d14e6
verified
1 Parent(s): 034da1b

Update app.py

Browse files
Files changed (1) hide show
  1. app.py +7 -74
app.py CHANGED
@@ -1,77 +1,10 @@
1
- import gradio as gr
2
- from huggingface_hub import InferenceClient
3
- import requests
4
-
5
- # Configura tu cliente de modelo de Hugging Face
6
- client = InferenceClient("HuggingFaceH4/zephyr-7b-beta")
7
-
8
- # Tu clave de API de Google Custom Search
9
- GOOGLE_API_KEY = "AIzaSyDI48Q_Ez8-KXQ6Dfe_r7JyOkk-dloER0I"
10
- # Tu ID de motor de b煤squeda
11
- SEARCH_ENGINE_ID = "030a88810b398467c"
12
-
13
- def web_search(query):
14
- # Realiza la b煤squeda en Google
15
- url = f"https://www.googleapis.com/customsearch/v1?q={query}&key={GOOGLE_API_KEY}&cx={SEARCH_ENGINE_ID}"
16
-
17
- try:
18
- response = requests.get(url)
19
- response.raise_for_status() # Lanza un error si la respuesta no es exitosa
20
- results = response.json()
21
-
22
- if "items" in results:
23
- # Devuelve un resumen de los primeros resultados
24
- search_results = []
25
- for item in results["items"]:
26
- title = item.get("title", "No title")
27
- link = item.get("link", "")
28
- snippet = item.get("snippet", "")
29
- search_results.append(f"{title}: {snippet} ({link})")
30
- return "\n".join(search_results) # Devuelve los resultados como texto
31
- else:
32
- return "No se encontraron resultados relevantes."
33
-
34
- except requests.exceptions.RequestException as e:
35
- # Maneja errores de la API, como problemas de conexi贸n
36
- return f"Error al realizar la b煤squeda: {e}"
37
 
38
- # Define la funci贸n del chatbot con navegaci贸n web
39
- def respond(message, history, system_message, max_tokens, temperature, top_p):
40
- # Prepara el contexto de la conversaci贸n para el modelo
41
- messages = [{"role": "system", "content": system_message}]
42
- for val in history:
43
- if val[0]:
44
- messages.append({"role": "user", "content": val[0]})
45
- if val[1]:
46
- messages.append({"role": "assistant", "content": val[1]})
47
 
48
- # Realiza la b煤squeda en la web
49
- search_summary = web_search(message)
50
-
51
- # Incluye los resultados de la b煤squeda en el contexto para el modelo
52
- messages.append({"role": "system", "content": f"Search results:\n{search_summary}"})
53
-
54
- # Genera la respuesta del modelo
55
- response = client.text_completion(
56
- prompt=message, max_tokens=max_tokens, temperature=temperature, top_p=top_p
57
- )
58
 
59
- return response
60
-
61
- # Interfaz de Gradio
62
- with gr.Blocks() as demo:
63
- chatbot = gr.Chatbot()
64
- msg = gr.Textbox()
65
- clear = gr.Button("Clear")
66
-
67
- def chat_interface(user_message, history=[]):
68
- output = respond(
69
- user_message, history, "You are a helpful assistant.", 200, 0.7, 0.9
70
- )
71
- history.append((user_message, output))
72
- return history, chatbot.update(history)
73
-
74
- msg.submit(chat_interface, inputs=[msg, chatbot], outputs=[chatbot, chatbot])
75
- clear.click(lambda: [], None, chatbot)
76
-
77
- demo.launch()
 
1
+ from transformers import pipeline
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
2
 
3
+ pipe = pipeline("text-generation", model="carlosdimare/qclase")
 
 
 
 
 
 
 
 
4
 
5
+ def responder(prompt):
6
+ respuesta = pipe(prompt, max_new_tokens=200, do_sample=True)[0]["generated_text"]
7
+ return respuesta
 
 
 
 
 
 
 
8
 
9
+ import gradio as gr
10
+ gr.Interface(fn=responder, inputs="text", outputs="text").launch()