Katon1 commited on
Commit
97e7855
·
verified ·
1 Parent(s): e17e57c

Update README.md

Browse files
Files changed (1) hide show
  1. README.md +82 -42
README.md CHANGED
@@ -1,14 +1,71 @@
1
 
2
- # Chatbot LLM con API de Hugging Face
3
 
4
- ## Descripción
5
  Este proyecto es un chatbot interactivo que utiliza un modelo de lenguaje de Hugging Face para responder preguntas en tiempo real. La aplicación está construida con Gradio, lo que permite al usuario interactuar fácilmente con el modelo a través de una interfaz gráfica.
6
 
7
- ## Modelo Utilizado
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
8
  - **Modelo:** `microsoft/Phi-3-mini-4k-instruct`
9
  - **Fuente:** Hugging Face
10
 
11
- ## Parámetros en la Petición
 
 
 
 
12
  La aplicación realiza peticiones a la API de Hugging Face utilizando los siguientes parámetros:
13
  - **`messages`**: Lista de mensajes en formato JSON. Ejemplo:
14
  ```json
@@ -18,48 +75,31 @@ La aplicación realiza peticiones a la API de Hugging Face utilizando los siguie
18
  ```
19
  - **`max_tokens`**: Número máximo de tokens en la respuesta (500).
20
 
21
- ## Ejemplo de Uso
22
- 1. Ejecuta la aplicación en tu entorno local:
23
- ```bash
24
- python app.py
 
 
 
 
 
 
 
25
  ```
26
- 2. Abre la interfaz gráfica en tu navegador (por defecto: `http://127.0.0.1:7860`).
27
- 3. Ingresa tu pregunta en el cuadro de texto y selecciona "Enviar".
28
 
29
- ### Ejemplo de Entrada:
30
- ```text
31
- ¿Cuál es la capital de Francia?
32
- ```
33
 
34
- ### Ejemplo de Salida:
35
- ```text
36
- La capital de Francia es París.
 
 
 
37
  ```
38
 
39
- ## Requisitos
40
- - **Python 3.8 o superior**
41
- - **Gradio 5.9.1**
42
- - **huggingface_hub**
43
 
44
- ## Instalación
45
- 1. Clona el repositorio o copia los archivos del proyecto.
46
- ```bash
47
- git clone https://huggingface.co/spaces/tu_usuario/tu_space
48
- cd tu_space
49
- ```
50
- 2. Crea un entorno virtual (opcional pero recomendado):
51
- ```bash
52
- python3 -m venv venv
53
- source venv/bin/activate # En Windows: venv\Scripts\activate
54
- ```
55
- 3. Instala las dependencias:
56
- ```bash
57
- pip install -r requirements.txt
58
- ```
59
- 4. Configura tu token de Hugging Face como variable de entorno:
60
- ```bash
61
- export HF_API_TOKEN=tu_token
62
- ```
63
-
64
- ## Licencia
65
  Este proyecto está bajo la licencia MIT.
 
 
1
 
2
+ # Proyecto 1: Chatbot LLM con API de Hugging Face
3
 
4
+ ## 📋 Descripción
5
  Este proyecto es un chatbot interactivo que utiliza un modelo de lenguaje de Hugging Face para responder preguntas en tiempo real. La aplicación está construida con Gradio, lo que permite al usuario interactuar fácilmente con el modelo a través de una interfaz gráfica.
6
 
7
+ ---
8
+
9
+ ## 📦 Requisitos
10
+ Antes de ejecutar este proyecto, asegúrate de tener lo siguiente instalado en tu equipo:
11
+ - **Python 3.8 o superior**
12
+ - **Gradio**
13
+ - **huggingface_hub**
14
+
15
+ Instala las dependencias ejecutando:
16
+ ```bash
17
+ pip install gradio huggingface_hub
18
+ ```
19
+
20
+ ---
21
+
22
+ ## 🔐 Configuración del Token de Hugging Face
23
+ El proyecto requiere un **token de acceso** de Hugging Face para conectarse a la API del modelo.
24
+
25
+ ### Cómo Obtener un Token
26
+ 1. Inicia sesión en tu cuenta de Hugging Face:
27
+ 👉 [https://huggingface.co/settings/tokens](https://huggingface.co/settings/tokens)
28
+ 2. Crea un nuevo token con los siguientes permisos habilitados:
29
+ - **`Read`** (lectura)
30
+ 3. Copia el token generado.
31
+
32
+ ### Configura el Token como Variable de Entorno
33
+ Para mantener tu token seguro, configúralo como una variable de entorno en tu sistema:
34
+
35
+ - **Windows (PowerShell):**
36
+ ```powershell
37
+ $env:HF_API_TOKEN="TU_TOKEN"
38
+ ```
39
+
40
+ - **Linux/macOS:**
41
+ ```bash
42
+ export HF_API_TOKEN="TU_TOKEN"
43
+ ```
44
+
45
+ ---
46
+
47
+ ## 🚀 Cómo Ejecutar el Archivo
48
+ 1. Guarda el código en un archivo llamado **`app.py`**.
49
+ 2. Abre la terminal en la carpeta donde guardaste el archivo.
50
+ 3. Ejecuta el archivo con el siguiente comando:
51
+
52
+ ```bash
53
+ python app.py
54
+ ```
55
+
56
+ 4. Abre el navegador y visita la URL proporcionada (por defecto: `http://127.0.0.1:7860`).
57
+
58
+ ---
59
+
60
+ ## 📚 Modelo Usado
61
  - **Modelo:** `microsoft/Phi-3-mini-4k-instruct`
62
  - **Fuente:** Hugging Face
63
 
64
+ El modelo está diseñado para responder preguntas en lenguaje natural.
65
+
66
+ ---
67
+
68
+ ## 📤 Parámetros en la Petición
69
  La aplicación realiza peticiones a la API de Hugging Face utilizando los siguientes parámetros:
70
  - **`messages`**: Lista de mensajes en formato JSON. Ejemplo:
71
  ```json
 
75
  ```
76
  - **`max_tokens`**: Número máximo de tokens en la respuesta (500).
77
 
78
+ ---
79
+
80
+ ## ✨ Ejemplo de Uso
81
+ 1. Ingresa una pregunta en el cuadro de texto, por ejemplo:
82
+ ```text
83
+ ¿Cuál es la capital de Francia?
84
+ ```
85
+ 2. Presiona el botón **"Enviar"**.
86
+ 3. La respuesta generada será:
87
+ ```text
88
+ La capital de Francia es París.
89
  ```
 
 
90
 
91
+ ---
 
 
 
92
 
93
+ ## ⚙️ Instalación Opcional (Entorno Virtual)
94
+ Para mantener las dependencias aisladas, puedes crear un entorno virtual:
95
+ ```bash
96
+ python -m venv venv
97
+ source venv/bin/activate # En Linux/macOS
98
+ . env\Scriptsctivate # En Windows
99
  ```
100
 
101
+ ---
 
 
 
102
 
103
+ ## 📄 Licencia
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
104
  Este proyecto está bajo la licencia MIT.
105
+