Update README.md
Browse files
README.md
CHANGED
@@ -1,14 +1,71 @@
|
|
1 |
|
2 |
-
# Chatbot LLM con API de Hugging Face
|
3 |
|
4 |
-
## Descripción
|
5 |
Este proyecto es un chatbot interactivo que utiliza un modelo de lenguaje de Hugging Face para responder preguntas en tiempo real. La aplicación está construida con Gradio, lo que permite al usuario interactuar fácilmente con el modelo a través de una interfaz gráfica.
|
6 |
|
7 |
-
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
8 |
- **Modelo:** `microsoft/Phi-3-mini-4k-instruct`
|
9 |
- **Fuente:** Hugging Face
|
10 |
|
11 |
-
|
|
|
|
|
|
|
|
|
12 |
La aplicación realiza peticiones a la API de Hugging Face utilizando los siguientes parámetros:
|
13 |
- **`messages`**: Lista de mensajes en formato JSON. Ejemplo:
|
14 |
```json
|
@@ -18,48 +75,31 @@ La aplicación realiza peticiones a la API de Hugging Face utilizando los siguie
|
|
18 |
```
|
19 |
- **`max_tokens`**: Número máximo de tokens en la respuesta (500).
|
20 |
|
21 |
-
|
22 |
-
|
23 |
-
|
24 |
-
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
25 |
```
|
26 |
-
2. Abre la interfaz gráfica en tu navegador (por defecto: `http://127.0.0.1:7860`).
|
27 |
-
3. Ingresa tu pregunta en el cuadro de texto y selecciona "Enviar".
|
28 |
|
29 |
-
|
30 |
-
```text
|
31 |
-
¿Cuál es la capital de Francia?
|
32 |
-
```
|
33 |
|
34 |
-
|
35 |
-
|
36 |
-
|
|
|
|
|
|
|
37 |
```
|
38 |
|
39 |
-
|
40 |
-
- **Python 3.8 o superior**
|
41 |
-
- **Gradio 5.9.1**
|
42 |
-
- **huggingface_hub**
|
43 |
|
44 |
-
##
|
45 |
-
1. Clona el repositorio o copia los archivos del proyecto.
|
46 |
-
```bash
|
47 |
-
git clone https://huggingface.co/spaces/tu_usuario/tu_space
|
48 |
-
cd tu_space
|
49 |
-
```
|
50 |
-
2. Crea un entorno virtual (opcional pero recomendado):
|
51 |
-
```bash
|
52 |
-
python3 -m venv venv
|
53 |
-
source venv/bin/activate # En Windows: venv\Scripts\activate
|
54 |
-
```
|
55 |
-
3. Instala las dependencias:
|
56 |
-
```bash
|
57 |
-
pip install -r requirements.txt
|
58 |
-
```
|
59 |
-
4. Configura tu token de Hugging Face como variable de entorno:
|
60 |
-
```bash
|
61 |
-
export HF_API_TOKEN=tu_token
|
62 |
-
```
|
63 |
-
|
64 |
-
## Licencia
|
65 |
Este proyecto está bajo la licencia MIT.
|
|
|
|
1 |
|
2 |
+
# Proyecto 1: Chatbot LLM con API de Hugging Face
|
3 |
|
4 |
+
## 📋 Descripción
|
5 |
Este proyecto es un chatbot interactivo que utiliza un modelo de lenguaje de Hugging Face para responder preguntas en tiempo real. La aplicación está construida con Gradio, lo que permite al usuario interactuar fácilmente con el modelo a través de una interfaz gráfica.
|
6 |
|
7 |
+
---
|
8 |
+
|
9 |
+
## 📦 Requisitos
|
10 |
+
Antes de ejecutar este proyecto, asegúrate de tener lo siguiente instalado en tu equipo:
|
11 |
+
- **Python 3.8 o superior**
|
12 |
+
- **Gradio**
|
13 |
+
- **huggingface_hub**
|
14 |
+
|
15 |
+
Instala las dependencias ejecutando:
|
16 |
+
```bash
|
17 |
+
pip install gradio huggingface_hub
|
18 |
+
```
|
19 |
+
|
20 |
+
---
|
21 |
+
|
22 |
+
## 🔐 Configuración del Token de Hugging Face
|
23 |
+
El proyecto requiere un **token de acceso** de Hugging Face para conectarse a la API del modelo.
|
24 |
+
|
25 |
+
### Cómo Obtener un Token
|
26 |
+
1. Inicia sesión en tu cuenta de Hugging Face:
|
27 |
+
👉 [https://huggingface.co/settings/tokens](https://huggingface.co/settings/tokens)
|
28 |
+
2. Crea un nuevo token con los siguientes permisos habilitados:
|
29 |
+
- **`Read`** (lectura)
|
30 |
+
3. Copia el token generado.
|
31 |
+
|
32 |
+
### Configura el Token como Variable de Entorno
|
33 |
+
Para mantener tu token seguro, configúralo como una variable de entorno en tu sistema:
|
34 |
+
|
35 |
+
- **Windows (PowerShell):**
|
36 |
+
```powershell
|
37 |
+
$env:HF_API_TOKEN="TU_TOKEN"
|
38 |
+
```
|
39 |
+
|
40 |
+
- **Linux/macOS:**
|
41 |
+
```bash
|
42 |
+
export HF_API_TOKEN="TU_TOKEN"
|
43 |
+
```
|
44 |
+
|
45 |
+
---
|
46 |
+
|
47 |
+
## 🚀 Cómo Ejecutar el Archivo
|
48 |
+
1. Guarda el código en un archivo llamado **`app.py`**.
|
49 |
+
2. Abre la terminal en la carpeta donde guardaste el archivo.
|
50 |
+
3. Ejecuta el archivo con el siguiente comando:
|
51 |
+
|
52 |
+
```bash
|
53 |
+
python app.py
|
54 |
+
```
|
55 |
+
|
56 |
+
4. Abre el navegador y visita la URL proporcionada (por defecto: `http://127.0.0.1:7860`).
|
57 |
+
|
58 |
+
---
|
59 |
+
|
60 |
+
## 📚 Modelo Usado
|
61 |
- **Modelo:** `microsoft/Phi-3-mini-4k-instruct`
|
62 |
- **Fuente:** Hugging Face
|
63 |
|
64 |
+
El modelo está diseñado para responder preguntas en lenguaje natural.
|
65 |
+
|
66 |
+
---
|
67 |
+
|
68 |
+
## 📤 Parámetros en la Petición
|
69 |
La aplicación realiza peticiones a la API de Hugging Face utilizando los siguientes parámetros:
|
70 |
- **`messages`**: Lista de mensajes en formato JSON. Ejemplo:
|
71 |
```json
|
|
|
75 |
```
|
76 |
- **`max_tokens`**: Número máximo de tokens en la respuesta (500).
|
77 |
|
78 |
+
---
|
79 |
+
|
80 |
+
## ✨ Ejemplo de Uso
|
81 |
+
1. Ingresa una pregunta en el cuadro de texto, por ejemplo:
|
82 |
+
```text
|
83 |
+
¿Cuál es la capital de Francia?
|
84 |
+
```
|
85 |
+
2. Presiona el botón **"Enviar"**.
|
86 |
+
3. La respuesta generada será:
|
87 |
+
```text
|
88 |
+
La capital de Francia es París.
|
89 |
```
|
|
|
|
|
90 |
|
91 |
+
---
|
|
|
|
|
|
|
92 |
|
93 |
+
## ⚙️ Instalación Opcional (Entorno Virtual)
|
94 |
+
Para mantener las dependencias aisladas, puedes crear un entorno virtual:
|
95 |
+
```bash
|
96 |
+
python -m venv venv
|
97 |
+
source venv/bin/activate # En Linux/macOS
|
98 |
+
.env\Scriptsctivate # En Windows
|
99 |
```
|
100 |
|
101 |
+
---
|
|
|
|
|
|
|
102 |
|
103 |
+
## 📄 Licencia
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
104 |
Este proyecto está bajo la licencia MIT.
|
105 |
+
|