eduagarcia commited on
Commit
7bde1d7
1 Parent(s): c29c023

dynamic paths

Browse files
Files changed (2) hide show
  1. paths.json +0 -0
  2. results.py +25 -10
paths.json DELETED
The diff for this file is too large to render. See raw diff
 
results.py CHANGED
@@ -1,10 +1,10 @@
1
  """MTEB Results"""
2
 
3
  import json
4
-
 
5
  import datasets
6
- import requests
7
-
8
 
9
  logger = datasets.logging.get_logger(__name__)
10
 
@@ -22,7 +22,8 @@ _CITATION = """@article{muennighoff2022mteb,
22
 
23
  _DESCRIPTION = """Results on MTEB"""
24
 
25
- URL = "https://huggingface.co/datasets/pt-mteb/results/resolve/main/paths.json"
 
26
  VERSION = datasets.Version("1.0.1")
27
  EVAL_LANGS = ['af', 'afr-por', 'am', "amh", 'amh-por', 'ang-por', 'ar', 'ar-ar', 'ara-por', 'arq-por', 'arz-por', 'ast-por', 'awa-por', 'az', 'aze-por', 'bel-por', 'ben-por', 'ber-por', 'bn', 'bos-por', 'bre-por', 'bul-por', 'cat-por', 'cbk-por', 'ceb-por', 'ces-por', 'cha-por', 'cmn-por', 'cor-por', 'csb-por', 'cy', 'cym-por', 'da', 'dan-por', 'de', 'de-fr', 'de-pl', 'deu-por', 'dsb-por', 'dtp-por', 'el', 'ell-por', 'en', 'pt-ar', 'pt-de', 'pt-pt', 'pt-tr', 'por', 'epo-por', 'es', 'es-pt', 'es-es', 'es-it', 'est-por', 'eus-por', 'fa', 'fao-por', 'fi', 'fin-por', 'fr', 'fr-pt', 'fr-pl', 'fra', 'fra-por', 'fry-por', 'gla-por', 'gle-por', 'glg-por', 'gsw-por', 'hau', 'he', 'heb-por', 'hi', 'hin-por', 'hrv-por', 'hsb-por', 'hu', 'hun-por', 'hy', 'hye-por', 'ibo', 'id', 'ido-por', 'ile-por', 'ina-por', 'ind-por', 'is', 'isl-por', 'it', 'it-pt', 'ita-por', 'ja', 'jav-por', 'jpn-por', 'jv', 'ka', 'kab-por', 'kat-por', 'kaz-por', 'khm-por', 'km', 'kn', 'ko', 'ko-ko', 'kor-por', 'kur-por', 'kzj-por', 'lat-por', 'lfn-por', 'lit-por', 'lin', 'lug', 'lv', 'lvs-por', 'mal-por', 'mar-por', 'max-por', 'mhr-por', 'mkd-por', 'ml', 'mn', 'mon-por', 'ms', 'my', 'nb', 'nds-por', 'nl', 'nl-ptde-pt', 'nld-por', 'nno-por', 'nob-por', 'nov-por', 'oci-por', 'orm', 'orv-por', 'pam-por', 'pcm', 'pes-por', 'pl', 'pl-pt', 'pms-por', 'pol-por', 'por-por', 'pt', 'ro', 'ron-por', 'ru', 'run', 'rus-por', 'sl', 'slk-por', 'slv-por', 'spa-por', 'sna', 'som', 'sq', 'sqi-por', 'srp-por', 'sv', 'sw', 'swa', 'swe-por', 'swg-por', 'swh-por', 'ta', 'tam-por', 'tat-por', 'te', 'tel-por', 'tgl-por', 'th', 'tha-por', 'tir', 'tl', 'tr', 'tuk-por', 'tur-por', 'tzl-por', 'uig-por', 'ukr-por', 'ur', 'urd-por', 'uzb-por', 'vi', 'vie-por', 'war-por', 'wuu-por', 'xho', 'xho-por', 'yid-por', 'yor', 'yue-por', 'zh', 'zh-CN', 'zh-TW', 'zh-pt', 'zsm-por', "eng_Latn-por_Latn","spa_Latn-por_Latn","fra_Latn-por_Latn","ita_Latn-por_Latn","deu_Latn-por_Latn","jpn_Jpan-por_Latn","kor_Hang-por_Latn","rus_Cyrl-por_Latn","arb_Arab-por_Latn","zho_Hant-por_Latn","zho_Hans-por_Latn","pol_Latn-por_Latn","swe_Latn-por_Latn"]
28
 
@@ -63,8 +64,20 @@ def get_paths():
63
  json.dump(files, f)
64
  return files
65
 
66
- data = json.loads(requests.get(URL).content.decode('utf8'))
67
- MODELS = list(data.keys())
 
 
 
 
 
 
 
 
 
 
 
 
68
 
69
  class MTEBConfig(datasets.BuilderConfig):
70
 
@@ -104,10 +117,12 @@ class MTEBResults(datasets.GeneratorBasedBuilder):
104
  )
105
 
106
  def _split_generators(self, dl_manager):
107
- path_file = dl_manager.download_and_extract(URL)
108
- with open(path_file) as f:
109
- files = json.load(f)
110
-
 
 
111
  downloaded_files = dl_manager.download_and_extract(files[self.config.complete_name])
112
  return [
113
  datasets.SplitGenerator(
 
1
  """MTEB Results"""
2
 
3
  import json
4
+ import collections
5
+ import os
6
  import datasets
7
+ import huggingface_hub
 
8
 
9
  logger = datasets.logging.get_logger(__name__)
10
 
 
22
 
23
  _DESCRIPTION = """Results on MTEB"""
24
 
25
+ #URL = "https://huggingface.co/datasets/pt-mteb/results/resolve/main/paths.json"
26
+ REPO_ID = "pt-mteb/results"
27
  VERSION = datasets.Version("1.0.1")
28
  EVAL_LANGS = ['af', 'afr-por', 'am', "amh", 'amh-por', 'ang-por', 'ar', 'ar-ar', 'ara-por', 'arq-por', 'arz-por', 'ast-por', 'awa-por', 'az', 'aze-por', 'bel-por', 'ben-por', 'ber-por', 'bn', 'bos-por', 'bre-por', 'bul-por', 'cat-por', 'cbk-por', 'ceb-por', 'ces-por', 'cha-por', 'cmn-por', 'cor-por', 'csb-por', 'cy', 'cym-por', 'da', 'dan-por', 'de', 'de-fr', 'de-pl', 'deu-por', 'dsb-por', 'dtp-por', 'el', 'ell-por', 'en', 'pt-ar', 'pt-de', 'pt-pt', 'pt-tr', 'por', 'epo-por', 'es', 'es-pt', 'es-es', 'es-it', 'est-por', 'eus-por', 'fa', 'fao-por', 'fi', 'fin-por', 'fr', 'fr-pt', 'fr-pl', 'fra', 'fra-por', 'fry-por', 'gla-por', 'gle-por', 'glg-por', 'gsw-por', 'hau', 'he', 'heb-por', 'hi', 'hin-por', 'hrv-por', 'hsb-por', 'hu', 'hun-por', 'hy', 'hye-por', 'ibo', 'id', 'ido-por', 'ile-por', 'ina-por', 'ind-por', 'is', 'isl-por', 'it', 'it-pt', 'ita-por', 'ja', 'jav-por', 'jpn-por', 'jv', 'ka', 'kab-por', 'kat-por', 'kaz-por', 'khm-por', 'km', 'kn', 'ko', 'ko-ko', 'kor-por', 'kur-por', 'kzj-por', 'lat-por', 'lfn-por', 'lit-por', 'lin', 'lug', 'lv', 'lvs-por', 'mal-por', 'mar-por', 'max-por', 'mhr-por', 'mkd-por', 'ml', 'mn', 'mon-por', 'ms', 'my', 'nb', 'nds-por', 'nl', 'nl-ptde-pt', 'nld-por', 'nno-por', 'nob-por', 'nov-por', 'oci-por', 'orm', 'orv-por', 'pam-por', 'pcm', 'pes-por', 'pl', 'pl-pt', 'pms-por', 'pol-por', 'por-por', 'pt', 'ro', 'ron-por', 'ru', 'run', 'rus-por', 'sl', 'slk-por', 'slv-por', 'spa-por', 'sna', 'som', 'sq', 'sqi-por', 'srp-por', 'sv', 'sw', 'swa', 'swe-por', 'swg-por', 'swh-por', 'ta', 'tam-por', 'tat-por', 'te', 'tel-por', 'tgl-por', 'th', 'tha-por', 'tir', 'tl', 'tr', 'tuk-por', 'tur-por', 'tzl-por', 'uig-por', 'ukr-por', 'ur', 'urd-por', 'uzb-por', 'vi', 'vie-por', 'war-por', 'wuu-por', 'xho', 'xho-por', 'yid-por', 'yor', 'yue-por', 'zh', 'zh-CN', 'zh-TW', 'zh-pt', 'zsm-por', "eng_Latn-por_Latn","spa_Latn-por_Latn","fra_Latn-por_Latn","ita_Latn-por_Latn","deu_Latn-por_Latn","jpn_Jpan-por_Latn","kor_Hang-por_Latn","rus_Cyrl-por_Latn","arb_Arab-por_Latn","zho_Hant-por_Latn","zho_Hans-por_Latn","pol_Latn-por_Latn","swe_Latn-por_Latn"]
29
 
 
64
  json.dump(files, f)
65
  return files
66
 
67
+ #paths = get_paths()
68
+ #paths = json.loads(requests.get(URL).content.decode('utf8'))
69
+
70
+ dataset_info = huggingface_hub.dataset_info(REPO_ID)
71
+ filepaths = [r.rfilename for r in dataset_info.siblings]
72
+ paths = collections.defaultdict(list)
73
+ for filepath in filepaths:
74
+ if not filepath.startswith('results/') or not filepath.endswith('.json'):
75
+ continue
76
+ model_name = os.path.dirname(filepath)
77
+ model_name = model_name[len('results/'):]
78
+ paths[model_name].append(filepath)
79
+
80
+ MODELS = list(paths.keys())
81
 
82
  class MTEBConfig(datasets.BuilderConfig):
83
 
 
117
  )
118
 
119
  def _split_generators(self, dl_manager):
120
+ global paths
121
+ #path_file = dl_manager.download_and_extract(URL)
122
+ #with open(path_file) as f:
123
+ # files = json.load(f)
124
+ files = paths
125
+
126
  downloaded_files = dl_manager.download_and_extract(files[self.config.complete_name])
127
  return [
128
  datasets.SplitGenerator(