Update información.txt
Browse files- información.txt +26 -20
información.txt
CHANGED
@@ -1,46 +1,44 @@
|
|
1 |
Descripción del Código:
|
2 |
|
3 |
-
Importación de Bibliotecas:
|
4 |
from huggingface_hub import InferenceClient
|
5 |
import gradio as gr
|
6 |
|
7 |
* InferenceClient: Se utiliza para realizar inferencias (generación de texto en este caso) con modelos alojados en Hugging Face Hub.
|
8 |
* gr (Gradio): Es una biblioteca que facilita la creación de interfaces de usuario para modelos de aprendizaje automático.
|
9 |
|
10 |
-
Inicialización del Cliente de Inferencia:
|
11 |
-
|
12 |
-
|
13 |
client = InferenceClient("mistralai/Mistral-7B-Instruct-v0.2")
|
14 |
-
Se crea un cliente de inferencia para el modelo específico "Mistral-7B-Instruct-v0.2" alojado en Hugging Face Hub.
|
15 |
-
Función para Formatear el Prompt:
|
16 |
|
|
|
17 |
|
|
|
18 |
def format_prompt(message, history):
|
19 |
# ... (ver código para detalles)
|
20 |
-
Esta función toma un mensaje, junto con la historia de conversación, y lo formatea adecuadamente para el modelo.
|
21 |
-
Función para Generar Texto:
|
22 |
|
|
|
23 |
|
|
|
24 |
def generate(prompt, history, system_prompt, temperature=0.9, max_new_tokens=256, top_p=0.95, repetition_penalty=1.0):
|
25 |
# ... (ver código para detalles)
|
26 |
-
La función principal para generar texto. Toma varios parámetros, incluyendo el prompt del usuario, historial de conversación, temperatura, etc.
|
27 |
-
Definición de Inputs Adicionales:
|
28 |
|
|
|
29 |
|
|
|
30 |
additional_inputs = [
|
31 |
# ... (ver código para detalles)
|
32 |
]
|
33 |
-
Se definen inputs adicionales para la interfaz Gradio. Estos permiten al usuario ajustar configuraciones como la temperatura, la longitud máxima del texto generado, etc.
|
34 |
-
Ejemplos para la Interfaz Gradio:
|
35 |
|
|
|
36 |
|
|
|
37 |
examples = [
|
38 |
# ... (ver código para detalles)
|
39 |
]
|
40 |
-
Se proporcionan ejemplos que serán mostrados en la interfaz Gradio para ayudar a los usuarios a comenzar.
|
41 |
-
Creación de la Interfaz Gradio:
|
42 |
|
|
|
43 |
|
|
|
44 |
gr.ChatInterface(
|
45 |
fn=generate,
|
46 |
chatbot=gr.Chatbot(show_label=False, show_share_button=False, show_copy_button=True, likeable=True, layout="panel"),
|
@@ -50,11 +48,19 @@ gr.ChatInterface(
|
|
50 |
examples=examples,
|
51 |
concurrency_limit=20,
|
52 |
).launch(show_api=False)
|
53 |
-
|
|
|
|
|
54 |
Inputs Adicionales en la Interfaz Gradio:
|
55 |
-
|
56 |
-
|
57 |
-
|
58 |
-
|
59 |
-
|
|
|
|
|
|
|
|
|
|
|
|
|
60 |
Estas inputs adicionales permiten a los usuarios personalizar la generación de texto según sus preferencias y necesidades.
|
|
|
1 |
Descripción del Código:
|
2 |
|
3 |
+
1. Importación de Bibliotecas:
|
4 |
from huggingface_hub import InferenceClient
|
5 |
import gradio as gr
|
6 |
|
7 |
* InferenceClient: Se utiliza para realizar inferencias (generación de texto en este caso) con modelos alojados en Hugging Face Hub.
|
8 |
* gr (Gradio): Es una biblioteca que facilita la creación de interfaces de usuario para modelos de aprendizaje automático.
|
9 |
|
10 |
+
2. Inicialización del Cliente de Inferencia:
|
|
|
|
|
11 |
client = InferenceClient("mistralai/Mistral-7B-Instruct-v0.2")
|
|
|
|
|
12 |
|
13 |
+
* Se crea un cliente de inferencia para el modelo específico "Mistral-7B-Instruct-v0.2" alojado en Hugging Face Hub.
|
14 |
|
15 |
+
3. Función para Formatear el Prompt:
|
16 |
def format_prompt(message, history):
|
17 |
# ... (ver código para detalles)
|
|
|
|
|
18 |
|
19 |
+
* Esta función toma un mensaje, junto con la historia de conversación, y lo formatea adecuadamente para el modelo.
|
20 |
|
21 |
+
4. Función para Generar Texto:
|
22 |
def generate(prompt, history, system_prompt, temperature=0.9, max_new_tokens=256, top_p=0.95, repetition_penalty=1.0):
|
23 |
# ... (ver código para detalles)
|
|
|
|
|
24 |
|
25 |
+
* La función principal para generar texto. Toma varios parámetros, incluyendo el prompt del usuario, historial de conversación, temperatura, etc.
|
26 |
|
27 |
+
5. Definición de Inputs Adicionales:
|
28 |
additional_inputs = [
|
29 |
# ... (ver código para detalles)
|
30 |
]
|
|
|
|
|
31 |
|
32 |
+
* Se definen inputs adicionales para la interfaz Gradio. Estos permiten al usuario ajustar configuraciones como la temperatura, la longitud máxima del texto generado, etc.
|
33 |
|
34 |
+
6. Ejemplos para la Interfaz Gradio:
|
35 |
examples = [
|
36 |
# ... (ver código para detalles)
|
37 |
]
|
|
|
|
|
38 |
|
39 |
+
* Se proporcionan ejemplos que serán mostrados en la interfaz Gradio para ayudar a los usuarios a comenzar.
|
40 |
|
41 |
+
7. Creación de la Interfaz Gradio:
|
42 |
gr.ChatInterface(
|
43 |
fn=generate,
|
44 |
chatbot=gr.Chatbot(show_label=False, show_share_button=False, show_copy_button=True, likeable=True, layout="panel"),
|
|
|
48 |
examples=examples,
|
49 |
concurrency_limit=20,
|
50 |
).launch(show_api=False)
|
51 |
+
|
52 |
+
* Se crea la interfaz Gradio para la función de generación de texto. Incluye la entrada del usuario, las inputs adicionales configuradas y otros elementos visuales.
|
53 |
+
|
54 |
Inputs Adicionales en la Interfaz Gradio:
|
55 |
+
|
56 |
+
* System Prompt (Entrada de Texto): Permite al usuario ingresar un prompt del sistema para contextualizar la conversación.
|
57 |
+
|
58 |
+
* Temperature (Control Deslizante): Ajusta la "temperatura" del modelo, afectando la diversidad de las respuestas.
|
59 |
+
|
60 |
+
* Max New Tokens (Control Deslizante): Controla la longitud máxima del texto generado.
|
61 |
+
|
62 |
+
* Top-p (Nucleus Sampling) (Control Deslizante): Regula el muestreo de tokens basado en la probabilidad acumulativa.
|
63 |
+
|
64 |
+
* Repetition Penalty (Control Deslizante): Penaliza la repetición de tokens en el texto generado.
|
65 |
+
|
66 |
Estas inputs adicionales permiten a los usuarios personalizar la generación de texto según sus preferencias y necesidades.
|