ignacioct commited on
Commit
6d96ae6
·
1 Parent(s): cd2c135

parrafos para cada dataset anadidos

Browse files
Files changed (1) hide show
  1. app.py +7 -1
app.py CHANGED
@@ -467,13 +467,15 @@ def main() -> None:
467
  gr.Markdown(
468
  """
469
  # 🗣️ SomosNLP LLM Benchmark en Español Dashboard
470
- Esta dashboard, desarrollada en Gradio, muestra el progreso de anotación del Hackathon de LLM en Español, de SomosNLP. En este espacio, puedes valorar traducciones realizadas automática del inglés al español. Tus contribuciones y las del resto de anotadores aparecerán en esta visualización. Si quieres contribuir, puedes anotar siguiento este [enlace](https://huggingface.co/spaces/somosnlp/benchmark-annotation-argilla).
471
  """
472
  )
473
 
474
  gr.Markdown(
475
  f"""
476
  ## 🚀 Progreso del dataset {os.getenv("SOURCE_DATASET_1")}
 
 
477
  """
478
  )
479
  with gr.Row():
@@ -504,6 +506,8 @@ def main() -> None:
504
  gr.Markdown(
505
  f"""
506
  ## 🚀 Progreso del dataset {os.getenv("SOURCE_DATASET_2")}
 
 
507
  """
508
  )
509
  with gr.Row():
@@ -534,6 +538,8 @@ def main() -> None:
534
  gr.Markdown(
535
  f"""
536
  ## 🚀 Progreso del dataset {os.getenv("SOURCE_DATASET_3")}
 
 
537
  """
538
  )
539
  with gr.Row():
 
467
  gr.Markdown(
468
  """
469
  # 🗣️ SomosNLP LLM Benchmark en Español Dashboard
470
+ Esta dashboard, desarrollada en Gradio, muestra el progreso de anotación del Hackathon de LLM en Español, de SomosNLP. En este espacio, puedes valorar traducciones realizadas automática del inglés al español. Tus contribuciones y las del resto de anotadores aparecerán en esta visualización. Si quieres contribuir, puedes anotar siguiendo este [enlace](https://huggingface.co/spaces/somosnlp/benchmark-annotation-argilla).
471
  """
472
  )
473
 
474
  gr.Markdown(
475
  f"""
476
  ## 🚀 Progreso del dataset {os.getenv("SOURCE_DATASET_1")}
477
+
478
+ El dataset ARC-C, creado por AllenAI, contiene un total de 2585 filas con preguntas de nivel escolar, de múltiples opciones, con el fin de evaluar Large Language Models (LLMs) en tareas de question-answering.
479
  """
480
  )
481
  with gr.Row():
 
506
  gr.Markdown(
507
  f"""
508
  ## 🚀 Progreso del dataset {os.getenv("SOURCE_DATASET_2")}
509
+
510
+ HellaSwag es un conjunto de datos creado por Allen Institute for Artificial Intelligence (AI2) el cual consta de un contexto y de una serie de generaciones como continuación a dicho contexto, que suelen ser tareas de sentido común y fáciles de resolver por humanos.
511
  """
512
  )
513
  with gr.Row():
 
538
  gr.Markdown(
539
  f"""
540
  ## 🚀 Progreso del dataset {os.getenv("SOURCE_DATASET_3")}
541
+
542
+ "Measuring Massive Multitask Language Understanding", abreviado como MMLU, es un conjunto de datos creado por Center for AI Safety que contiene preguntas con múltiples opciones de una gran diversidad de temas, llegando a cubrir hasta 57 temas o tareas distintas. De este modo, este conjunto de datos es utilizado para evaluar Large Language Models (LLMs), de modo que para que uno de estos modelos sea capaz de obtener un mejor resultado, ha de tener un conocimiento extenso y capacidad de resolución de problemas.
543
  """
544
  )
545
  with gr.Row():