Antonio49 commited on
Commit
84726c8
1 Parent(s): a74ce95

Update información.txt

Browse files
Files changed (1) hide show
  1. información.txt +26 -20
información.txt CHANGED
@@ -1,46 +1,44 @@
1
  Descripción del Código:
2
 
3
- Importación de Bibliotecas:
4
  from huggingface_hub import InferenceClient
5
  import gradio as gr
6
 
7
  * InferenceClient: Se utiliza para realizar inferencias (generación de texto en este caso) con modelos alojados en Hugging Face Hub.
8
  * gr (Gradio): Es una biblioteca que facilita la creación de interfaces de usuario para modelos de aprendizaje automático.
9
 
10
- Inicialización del Cliente de Inferencia:
11
-
12
-
13
  client = InferenceClient("mistralai/Mistral-7B-Instruct-v0.2")
14
- Se crea un cliente de inferencia para el modelo específico "Mistral-7B-Instruct-v0.2" alojado en Hugging Face Hub.
15
- Función para Formatear el Prompt:
16
 
 
17
 
 
18
  def format_prompt(message, history):
19
  # ... (ver código para detalles)
20
- Esta función toma un mensaje, junto con la historia de conversación, y lo formatea adecuadamente para el modelo.
21
- Función para Generar Texto:
22
 
 
23
 
 
24
  def generate(prompt, history, system_prompt, temperature=0.9, max_new_tokens=256, top_p=0.95, repetition_penalty=1.0):
25
  # ... (ver código para detalles)
26
- La función principal para generar texto. Toma varios parámetros, incluyendo el prompt del usuario, historial de conversación, temperatura, etc.
27
- Definición de Inputs Adicionales:
28
 
 
29
 
 
30
  additional_inputs = [
31
  # ... (ver código para detalles)
32
  ]
33
- Se definen inputs adicionales para la interfaz Gradio. Estos permiten al usuario ajustar configuraciones como la temperatura, la longitud máxima del texto generado, etc.
34
- Ejemplos para la Interfaz Gradio:
35
 
 
36
 
 
37
  examples = [
38
  # ... (ver código para detalles)
39
  ]
40
- Se proporcionan ejemplos que serán mostrados en la interfaz Gradio para ayudar a los usuarios a comenzar.
41
- Creación de la Interfaz Gradio:
42
 
 
43
 
 
44
  gr.ChatInterface(
45
  fn=generate,
46
  chatbot=gr.Chatbot(show_label=False, show_share_button=False, show_copy_button=True, likeable=True, layout="panel"),
@@ -50,11 +48,19 @@ gr.ChatInterface(
50
  examples=examples,
51
  concurrency_limit=20,
52
  ).launch(show_api=False)
53
- Se crea la interfaz Gradio para la función de generación de texto. Incluye la entrada del usuario, las inputs adicionales configuradas y otros elementos visuales.
 
 
54
  Inputs Adicionales en la Interfaz Gradio:
55
- System Prompt (Entrada de Texto): Permite al usuario ingresar un prompt del sistema para contextualizar la conversación.
56
- Temperature (Control Deslizante): Ajusta la "temperatura" del modelo, afectando la diversidad de las respuestas.
57
- Max New Tokens (Control Deslizante): Controla la longitud máxima del texto generado.
58
- Top-p (Nucleus Sampling) (Control Deslizante): Regula el muestreo de tokens basado en la probabilidad acumulativa.
59
- Repetition Penalty (Control Deslizante): Penaliza la repetición de tokens en el texto generado.
 
 
 
 
 
 
60
  Estas inputs adicionales permiten a los usuarios personalizar la generación de texto según sus preferencias y necesidades.
 
1
  Descripción del Código:
2
 
3
+ 1. Importación de Bibliotecas:
4
  from huggingface_hub import InferenceClient
5
  import gradio as gr
6
 
7
  * InferenceClient: Se utiliza para realizar inferencias (generación de texto en este caso) con modelos alojados en Hugging Face Hub.
8
  * gr (Gradio): Es una biblioteca que facilita la creación de interfaces de usuario para modelos de aprendizaje automático.
9
 
10
+ 2. Inicialización del Cliente de Inferencia:
 
 
11
  client = InferenceClient("mistralai/Mistral-7B-Instruct-v0.2")
 
 
12
 
13
+ * Se crea un cliente de inferencia para el modelo específico "Mistral-7B-Instruct-v0.2" alojado en Hugging Face Hub.
14
 
15
+ 3. Función para Formatear el Prompt:
16
  def format_prompt(message, history):
17
  # ... (ver código para detalles)
 
 
18
 
19
+ * Esta función toma un mensaje, junto con la historia de conversación, y lo formatea adecuadamente para el modelo.
20
 
21
+ 4. Función para Generar Texto:
22
  def generate(prompt, history, system_prompt, temperature=0.9, max_new_tokens=256, top_p=0.95, repetition_penalty=1.0):
23
  # ... (ver código para detalles)
 
 
24
 
25
+ * La función principal para generar texto. Toma varios parámetros, incluyendo el prompt del usuario, historial de conversación, temperatura, etc.
26
 
27
+ 5. Definición de Inputs Adicionales:
28
  additional_inputs = [
29
  # ... (ver código para detalles)
30
  ]
 
 
31
 
32
+ * Se definen inputs adicionales para la interfaz Gradio. Estos permiten al usuario ajustar configuraciones como la temperatura, la longitud máxima del texto generado, etc.
33
 
34
+ 6. Ejemplos para la Interfaz Gradio:
35
  examples = [
36
  # ... (ver código para detalles)
37
  ]
 
 
38
 
39
+ * Se proporcionan ejemplos que serán mostrados en la interfaz Gradio para ayudar a los usuarios a comenzar.
40
 
41
+ 7. Creación de la Interfaz Gradio:
42
  gr.ChatInterface(
43
  fn=generate,
44
  chatbot=gr.Chatbot(show_label=False, show_share_button=False, show_copy_button=True, likeable=True, layout="panel"),
 
48
  examples=examples,
49
  concurrency_limit=20,
50
  ).launch(show_api=False)
51
+
52
+ * Se crea la interfaz Gradio para la función de generación de texto. Incluye la entrada del usuario, las inputs adicionales configuradas y otros elementos visuales.
53
+
54
  Inputs Adicionales en la Interfaz Gradio:
55
+
56
+ * System Prompt (Entrada de Texto): Permite al usuario ingresar un prompt del sistema para contextualizar la conversación.
57
+
58
+ * Temperature (Control Deslizante): Ajusta la "temperatura" del modelo, afectando la diversidad de las respuestas.
59
+
60
+ * Max New Tokens (Control Deslizante): Controla la longitud máxima del texto generado.
61
+
62
+ * Top-p (Nucleus Sampling) (Control Deslizante): Regula el muestreo de tokens basado en la probabilidad acumulativa.
63
+
64
+ * Repetition Penalty (Control Deslizante): Penaliza la repetición de tokens en el texto generado.
65
+
66
  Estas inputs adicionales permiten a los usuarios personalizar la generación de texto según sus preferencias y necesidades.