Spaces:
Running
on
CPU Upgrade
Running
on
CPU Upgrade
Update src/about.py
Browse files- src/about.py +5 -5
src/about.py
CHANGED
@@ -27,11 +27,11 @@ TITLE = """<h1 align="center" id="space-title">🚀 Classifica generale degli LL
|
|
27 |
# What does your leaderboard evaluate?
|
28 |
INTRODUCTION_TEXT = """
|
29 |
Benvenuti nella pagina della open ita llm leaderboard!
|
30 |
-
In questa dashboard potrete trovare tutti i risultati delle performance dei Large Language Models nella lingua italiana sui principali eval effettuati grazie al fantastico [Eleuther AI Language Model Evaluation Harness](https://github.com/EleutherAI/lm-evaluation-harness)
|
31 |
Maggiori info nella sezione "about"
|
32 |
|
33 |
P.s. la classifica è 100% open source, chiunque può contribuire e aggiungere il proprio modello tramite questo [form](https://forms.gle/Gc9Dfu52xSBhQPpAA) nel mentre che la submission automatica sarà operativa :)
|
34 |
-
Se avete idee/miglioramenti/suggerimenti [scrivetemi pure]
|
35 |
|
36 |
"""
|
37 |
|
@@ -40,9 +40,9 @@ LLM_BENCHMARKS_TEXT = f"""
|
|
40 |
## Come funziona
|
41 |
Valutiamo i modelli tramite <a href="https://github.com/EleutherAI/lm-evaluation-harness" target="_blank"> Eleuther AI Language Model Evaluation Harness </a>, il framework più utilizzato dalla community internazionale per l'evaluation dei modelli
|
42 |
Nella classifica troverete i dataset di benchmark più famosi, adatti alla lingua italiana. I task sono:
|
43 |
-
- hellaswag_it
|
44 |
-
- arc_it
|
45 |
-
- m_mmlu_it (5 shots)
|
46 |
|
47 |
Per tutti questi task, a un punteggio migliore corrisponde una performance maggiore
|
48 |
|
|
|
27 |
# What does your leaderboard evaluate?
|
28 |
INTRODUCTION_TEXT = """
|
29 |
Benvenuti nella pagina della open ita llm leaderboard!
|
30 |
+
In questa dashboard potrete trovare tutti i risultati delle performance dei Large Language Models nella lingua italiana sui principali eval effettuati grazie al fantastico [Eleuther AI Language Model Evaluation Harness](https://github.com/EleutherAI/lm-evaluation-harness)
|
31 |
Maggiori info nella sezione "about"
|
32 |
|
33 |
P.s. la classifica è 100% open source, chiunque può contribuire e aggiungere il proprio modello tramite questo [form](https://forms.gle/Gc9Dfu52xSBhQPpAA) nel mentre che la submission automatica sarà operativa :)
|
34 |
+
Se avete idee/miglioramenti/suggerimenti [scrivetemi pure](https://www.linkedin.com/in/samuele-colombo-ml/) oppure mi trovate sul [discord della community](https://discord.gg/kc97Zwc4ze)
|
35 |
|
36 |
"""
|
37 |
|
|
|
40 |
## Come funziona
|
41 |
Valutiamo i modelli tramite <a href="https://github.com/EleutherAI/lm-evaluation-harness" target="_blank"> Eleuther AI Language Model Evaluation Harness </a>, il framework più utilizzato dalla community internazionale per l'evaluation dei modelli
|
42 |
Nella classifica troverete i dataset di benchmark più famosi, adatti alla lingua italiana. I task sono:
|
43 |
+
- <a href="https://huggingface.co/datasets/alexandrainst/m_hellaswag" target="_blank"> hellaswag_it
|
44 |
+
- <a href="https://huggingface.co/datasets/alexandrainst/m_arc" target="_blank"> arc_it
|
45 |
+
- <a href="https://huggingface.co/datasets/alexandrainst/m_mmlu" target="_blank"> m_mmlu_it (5 shots)
|
46 |
|
47 |
Per tutti questi task, a un punteggio migliore corrisponde una performance maggiore
|
48 |
|