Spaces:
Runtime error
Runtime error
parrafos para cada dataset anadidos
Browse files
app.py
CHANGED
@@ -467,13 +467,15 @@ def main() -> None:
|
|
467 |
gr.Markdown(
|
468 |
"""
|
469 |
# 🗣️ SomosNLP LLM Benchmark en Español Dashboard
|
470 |
-
Esta dashboard, desarrollada en Gradio, muestra el progreso de anotación del Hackathon de LLM en Español, de SomosNLP. En este espacio, puedes valorar traducciones realizadas automática del inglés al español. Tus contribuciones y las del resto de anotadores aparecerán en esta visualización. Si quieres contribuir, puedes anotar
|
471 |
"""
|
472 |
)
|
473 |
|
474 |
gr.Markdown(
|
475 |
f"""
|
476 |
## 🚀 Progreso del dataset {os.getenv("SOURCE_DATASET_1")}
|
|
|
|
|
477 |
"""
|
478 |
)
|
479 |
with gr.Row():
|
@@ -504,6 +506,8 @@ def main() -> None:
|
|
504 |
gr.Markdown(
|
505 |
f"""
|
506 |
## 🚀 Progreso del dataset {os.getenv("SOURCE_DATASET_2")}
|
|
|
|
|
507 |
"""
|
508 |
)
|
509 |
with gr.Row():
|
@@ -534,6 +538,8 @@ def main() -> None:
|
|
534 |
gr.Markdown(
|
535 |
f"""
|
536 |
## 🚀 Progreso del dataset {os.getenv("SOURCE_DATASET_3")}
|
|
|
|
|
537 |
"""
|
538 |
)
|
539 |
with gr.Row():
|
|
|
467 |
gr.Markdown(
|
468 |
"""
|
469 |
# 🗣️ SomosNLP LLM Benchmark en Español Dashboard
|
470 |
+
Esta dashboard, desarrollada en Gradio, muestra el progreso de anotación del Hackathon de LLM en Español, de SomosNLP. En este espacio, puedes valorar traducciones realizadas automática del inglés al español. Tus contribuciones y las del resto de anotadores aparecerán en esta visualización. Si quieres contribuir, puedes anotar siguiendo este [enlace](https://huggingface.co/spaces/somosnlp/benchmark-annotation-argilla).
|
471 |
"""
|
472 |
)
|
473 |
|
474 |
gr.Markdown(
|
475 |
f"""
|
476 |
## 🚀 Progreso del dataset {os.getenv("SOURCE_DATASET_1")}
|
477 |
+
|
478 |
+
El dataset ARC-C, creado por AllenAI, contiene un total de 2585 filas con preguntas de nivel escolar, de múltiples opciones, con el fin de evaluar Large Language Models (LLMs) en tareas de question-answering.
|
479 |
"""
|
480 |
)
|
481 |
with gr.Row():
|
|
|
506 |
gr.Markdown(
|
507 |
f"""
|
508 |
## 🚀 Progreso del dataset {os.getenv("SOURCE_DATASET_2")}
|
509 |
+
|
510 |
+
HellaSwag es un conjunto de datos creado por Allen Institute for Artificial Intelligence (AI2) el cual consta de un contexto y de una serie de generaciones como continuación a dicho contexto, que suelen ser tareas de sentido común y fáciles de resolver por humanos.
|
511 |
"""
|
512 |
)
|
513 |
with gr.Row():
|
|
|
538 |
gr.Markdown(
|
539 |
f"""
|
540 |
## 🚀 Progreso del dataset {os.getenv("SOURCE_DATASET_3")}
|
541 |
+
|
542 |
+
"Measuring Massive Multitask Language Understanding", abreviado como MMLU, es un conjunto de datos creado por Center for AI Safety que contiene preguntas con múltiples opciones de una gran diversidad de temas, llegando a cubrir hasta 57 temas o tareas distintas. De este modo, este conjunto de datos es utilizado para evaluar Large Language Models (LLMs), de modo que para que uno de estos modelos sea capaz de obtener un mejor resultado, ha de tener un conocimiento extenso y capacidad de resolución de problemas.
|
543 |
"""
|
544 |
)
|
545 |
with gr.Row():
|