Datasets:
Languages:
Chinese
Size:
10K<n<100K
File size: 7,571 Bytes
60f3d2f |
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75 76 77 78 79 80 81 82 83 84 85 86 87 88 89 90 91 92 93 94 95 96 97 98 99 100 101 102 103 104 105 106 107 108 109 110 111 112 113 114 115 116 117 118 119 120 121 122 123 124 125 126 127 128 129 130 131 132 133 134 135 136 137 138 139 140 141 142 143 144 145 146 147 148 149 150 151 152 153 154 155 156 157 158 159 160 161 162 163 164 165 166 167 168 169 170 171 172 173 174 175 176 177 178 179 180 181 182 183 184 185 186 187 188 189 190 191 192 193 194 195 196 197 198 199 200 201 202 203 204 205 206 207 |
import datasets
import json
from typing import List
from typing import Union
_LICENSE = """
## 第二届中文空间语义理解评测 SpaCE2022 数据集使用许可
由 北京大学计算语言学研究所 授权给(使用者)
#### 一
1. 任何使用本数据集的主体都需要知晓、理解并同意本许可的全部内容。
2. 传播本数据集的主体必须同时提供本许可并要求传播受众知晓、理解并同意本许可的全部内容。
3. 使用本数据集即代表知晓、理解并同意本许可的全部内容。
#### 二
1. 本数据集的版权归北京大学计算语言学研究所(下简称“版权所有者”)所有。
2. 本数据集将分阶段在 第二届中文空间语义理解评测 SpaCE2022 活动中发布。
3. 版权所有者对本数据集内容有权进行任何修改,修改后,如无特殊说明,使用者仍需遵守本许可的条款。
4. 版权所有者对本数据集的名称、网站等相关信息、材料等有权进行任何修改,修改后,如无特殊说明,使用者仍需遵守本许可的条款。
#### 三
1. 本数据集仅供以下用途使用:
(1) 参赛选手在比赛中使用。参看《[第二届中文空间语义理解评测 SpaCE2022 参赛协议](https://github.com/2030NLP/SpaCE2022/blob/main/Agreement.md)》。
(2) 高校、科研机构在科学研究中使用。
2. 本数据集禁止用于任何商业目的,不提供任何形式的商业授权。除了在参与第二届中文空间语义理解评测 SpaCE2022 的过程中为参赛而使用本数据集,公司或其他商业机构禁止使用本数据集。
3. 使用本数据进行科学研究,发表论文或其他材料时应注明来源信息,如:“本研究使用了北京大学组织的第二届中文空间语义理解评测提供的 SpaCE2022 数据集”,并在参考文献中引用版权所有者的评测报告论文(**请关注举办方后续的论文发表情况**)。
#### 四
1. 本许可证的最终解释权归属于版权所有者。
北京大学计算语言学研究所
2022年5月23日
"""
_DESCRIPTION = """SpaCE2022"""
_CITATION = """ """
_DESCRIPTION_TASK1 = """SpaCE2022 Task1"""
_DESCRIPTION_TASK2 = """SpaCE2022 Task2"""
_DESCRIPTION_TASK3 = """SpaCE2022 Task3"""
_DESCRIPTION_DICT = {
'task1': _DESCRIPTION_TASK1,
'task2': _DESCRIPTION_TASK2,
'task3': _DESCRIPTION_TASK3,
}
# _URLS_ROOT = "https://huggingface.co/datasets/2030NLP/SpaCE2022/raw/main/"
_URLS_ROOT = "./"
_URLS_DICT = {
'task1': {
'train': _URLS_ROOT + "data/task1/task1_train.jsonl",
'dev': _URLS_ROOT + "data/task1/task1_dev.jsonl",
},
'task2': {
'train': _URLS_ROOT + "data/task2/task2_train.jsonl",
'dev': _URLS_ROOT + "data/task2/task2_dev.jsonl",
},
'task3': {
'train': _URLS_ROOT + "data/task3/task3_train.jsonl",
'dev': _URLS_ROOT + "data/task3/task3_dev.jsonl",
},
}
XXXX = datasets.Sequence([{
'text': datasets.Sequence(datasets.Value('string')),
'idxes': datasets.Sequence(datasets.Value('int32')),
}])
_FEATURES_DICT = {
'task1': {
"qid": datasets.Value(dtype="string"),
"context": datasets.Value(dtype="string"),
"judge": datasets.Value(dtype="int8"),
},
'task2': {
"qid": datasets.Value(dtype="string"),
"context": datasets.Value(dtype="string"),
"reasons": datasets.Sequence(
feature={
"fragments": datasets.Sequence(
feature={
"role": datasets.ClassLabel(num_classes=11, names=['S', 'P', 'E', 'S1', 'P1', 'E1', 'S2', 'P2', 'E2', 'text1', 'text2']),
"text": datasets.Value(dtype="string"),
"idxes": datasets.Sequence(datasets.Value("int32")),
},
),
"type": datasets.ClassLabel(num_classes=3, names=['A', 'B', 'C']),
},
),
},
'task3': {
"qid": datasets.Value(dtype="string"),
"context": datasets.Value(dtype="string"),
"corefs": datasets.Sequence(datasets.Sequence(feature={
"text": datasets.Value("string"),
"idxes": datasets.Sequence(datasets.Value("int32")),
})),
"non_corefs": datasets.Sequence(datasets.Sequence(feature={
"text": datasets.Value("string"),
"idxes": datasets.Sequence(datasets.Value("int32")),
})),
# "outputs": datasets.Sequence(datasets.Sequence(feature={
# "text": datasets.Value("string"),
# "idxes": datasets.Sequence(datasets.Value("int32")),
# })),
"outputs": datasets.Sequence(datasets.Sequence(feature={})),
},
}
_split_name_map = {
'train': datasets.Split.TRAIN,
'dev': datasets.Split.VALIDATION,
'test': datasets.Split.TEST,
}
class SpaCE2022Config(datasets.BuilderConfig):
"""BuilderConfig for SpaCE2022."""
def __init__(self, splits, **kwargs):
# Version history:
# 1.4.0: final version used in SpaCE2022 Eval.
super().__init__(version=datasets.Version("1.4.0"), **kwargs)
self.splits = splits
class SpaCE2022(datasets.GeneratorBasedBuilder):
"""The SpaCE2022 benchmark."""
BUILDER_CONFIGS = [
SpaCE2022Config(
name="task1",
splits=['train', 'dev'],
),
SpaCE2022Config(
name="task2",
splits=['train', 'dev'],
),
# SpaCE2022Config(
# name="task3",
# splits=['train', 'dev'],
# ),
]
def _info(self):
return datasets.DatasetInfo(
description=_DESCRIPTION_DICT[self.config.name],
features=datasets.Features(_FEATURES_DICT[self.config.name]),
homepage="https://2030nlp.github.io/SpaCE2022/",
citation=_CITATION,
license=_LICENSE,
)
def _split_generators(self, dl_manager: datasets.DownloadManager) -> List[datasets.SplitGenerator]:
# 在 hugging face 中如何为 dataset 创建 _split_generators 函数?
split_things = []
for split_name in self.config.splits:
# print('')
split_data_path = _URLS_DICT[self.config.name][split_name]
# print(split_data_path)
filepath = dl_manager.download(split_data_path)
# print(filepath)
# print('')
split_thing = datasets.SplitGenerator(
name=_split_name_map[split_name],
gen_kwargs={
"task": self.config.name,
"filepath": filepath,
"split": split_name,
}
)
split_things.append(split_thing)
return split_things
def _generate_examples(self, task, filepath, split):
try:
with open(filepath, encoding="utf-8") as ff:
keys = _FEATURES_DICT[task].keys()
for idx, line in enumerate(ff):
example = json.loads(line.strip())
example = {kk: example[kk] for kk in keys if kk in example}
print('')
print(example)
print('')
qid = example.get("qid")
# print(qid)
jj = (split == qid.split("-")[1])
# print(jj)
if jj:
yield qid, example
except Exception as error:
print(error)
|