id
stringlengths 1
4
| tokens
list | ner_tags
list |
---|---|---|
5100
|
[
"October-2001",
"w/out",
"2000",
"SPA",
"30.88"
] |
[
0,
0,
0,
1,
0
] |
5101
|
[
"We",
"also",
"used",
"two",
"Korean",
"speech",
"recognizers",
":",
"a",
"speech",
"recognizer",
"made",
"by",
"LG-Elite",
"(",
"LG",
"Electronics",
"Institute",
"of",
"Technology",
")",
"and",
"a",
"Korean",
"commercial",
"speech",
"recog-"
] |
[
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
1,
0,
3,
4,
4,
0,
0,
0,
0,
0,
0,
0,
0,
0
] |
5102
|
[
"2001",
".",
"Linguistic",
"Inquiry",
"and",
"Word",
"Count",
"(",
"LIWC",
")",
":",
"LIWC2001",
"."
] |
[
0,
0,
0,
3,
4,
4,
4,
0,
0,
1,
0,
0,
0
] |
5103
|
[
"ory",
"(",
"Mann",
"and",
"Thompson",
",",
"1988",
")",
",",
"or",
"RST",
",",
"represents",
"text",
"by",
"labeled",
"hierarchical",
"structures",
"called",
"Discourse",
"Trees",
"(",
"DTs",
")",
",",
"which",
"can",
"incorporate",
"several",
"layers",
"of",
"other",
"linguistic",
"information",
",",
"e.g.",
","
] |
[
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
1,
0,
0,
0,
0,
0,
0,
0,
0,
3,
4,
0,
1,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0
] |
5104
|
[
"the",
"Internet",
"(",
"Colbath",
",",
"2012",
")",
".",
"Social",
"media",
"poses",
"three",
"major",
"computational",
"challenges",
",",
"dubbed",
"by",
"Gartner",
"the",
"3Vs",
"of",
"big",
"data",
":",
"volume",
",",
"velocity",
",",
"and",
"variety1",
".",
"Natural",
"Language",
"Processing",
"(",
"NLP",
")",
"methods",
",",
"in",
"particular",
",",
"face",
"further",
"difficulties",
"arising",
"from",
"the",
"short",
",",
"noisy",
",",
"and",
"strongly",
"contextualised",
"nature",
"of",
"social",
"media",
".",
"In",
"order",
"to",
"address",
"the",
"3Vs",
"of",
"social",
"media",
",",
"new",
"language",
"technologies",
"have",
"emerged",
",",
"such",
"as",
"the",
"identification",
"and",
"definition",
"of",
"users",
"'",
"language",
"varieties",
"and",
"the",
"translation",
"to",
"a",
"different",
"language",
",",
"than",
"the",
"source",
"."
] |
[
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
3,
4,
4,
0,
1,
0,
0,
0,
4,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
4,
0,
0,
0,
0,
0,
0,
0
] |
5105
|
[
"the",
"feature",
"structures",
"which",
"are",
"associated",
"with",
"each",
"node",
",",
"which",
"prohibit",
"certain",
"compositions",
",",
"are",
"not",
"shown",
".",
"Note",
"also",
"that",
"this",
"is",
"not",
"a",
"lexicalised",
"TAG",
"(",
"LTAG",
")",
".",
"This",
"is",
"somewhat",
"unusual",
";",
"we",
"intend",
",",
"as"
] |
[
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
3,
0,
4,
4,
4,
0,
2,
0,
0,
0,
4,
0,
0,
0,
0,
0,
0,
0
] |
5106
|
[
"would",
"also",
"be",
"possible",
".",
"Personalized",
"PageRank",
"similarity",
"(",
"PPR",
")",
"(",
"Agirre",
"and",
"Soroa",
",",
"2009",
")",
"measures",
"the",
"semantic",
"relatedness",
"between",
"two",
"word",
"senses",
"s"
] |
[
0,
0,
0,
0,
0,
3,
4,
4,
0,
1,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
4
] |
5107
|
[
"5",
"Clustering",
"Methods",
"Spectral",
"clustering",
"(",
"SPEC",
")",
"has",
"proved",
"promising",
"in",
"previous",
"verb",
"clustering",
"experiments",
"(",
"Brew"
] |
[
0,
0,
0,
0,
3,
0,
0,
1,
0,
0,
0,
4,
0,
0,
4,
0,
0,
0
] |
5108
|
[
"TGTM",
"P=p",
",",
"pk",
",",
"b",
"TGTM",
"PR=pr",
",",
"pkr",
",",
"b",
"r",
"TGTM",
"PL",
"=p",
"l",
",",
"ph",
"l",
",",
"b",
"l"
] |
[
0,
0,
3,
0,
4,
0,
0,
0,
4,
0,
4,
0,
0,
0,
0,
1,
4,
4,
0,
4,
4,
0,
4
] |
5109
|
[
"S",
"#",
"for",
"the",
"count",
"in",
"non-speculative",
"ones",
")",
"3",
"Methods",
"Conditional",
"random",
"fields",
"(",
"CRF",
")",
"model",
"was",
"firstly",
"introduced",
"by",
"Lafferty",
"et",
"al",
"(",
"2001",
")",
"."
] |
[
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
3,
4,
4,
0,
1,
0,
0,
0,
0,
0,
0,
0,
0,
4,
0,
0,
0,
0
] |
5110
|
[
"(",
"5",
")",
"Rank",
"Value",
":",
"i",
".",
"Top",
"Rank",
"(",
"T-Rank",
")",
":",
"The",
"rank",
"of",
"snippet",
"that",
"first",
"contains",
"the",
"candidate",
"."
] |
[
0,
0,
1,
3,
0,
0,
0,
0,
0,
4,
0,
0,
2,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0
] |
5111
|
[
"TH",
"+",
"DR",
"+",
"EG",
"+",
"LC",
"56.51",
"TH",
"+",
"EG",
"+",
"LC",
"56.50",
"Character",
"Type",
"(",
"CT",
")",
"51.96",
"Word",
"Familiarity",
"(",
"WF",
")",
"51.50"
] |
[
1,
0,
1,
0,
1,
0,
1,
0,
2,
0,
2,
0,
2,
0,
3,
4,
0,
1,
0,
0,
3,
4,
0,
1,
0,
0
] |
5112
|
[
"5",
"Conclusions",
"The",
"spoken",
"language",
"understanding",
"(",
"SLU",
")",
"system",
"discussed",
"in",
"this",
"paper",
"is",
"entirely",
"statistically",
"based",
"."
] |
[
0,
0,
0,
0,
3,
4,
0,
0,
1,
0,
0,
4,
0,
0,
0,
0,
0,
0,
0
] |
5113
|
[
"Langman",
"dictionary",
".",
"Maximum",
"Entropy",
"(",
"MaxEnt",
")",
"principle",
"has",
"been",
"successfully",
"applied",
"in",
"many",
"classification",
"and",
"tagging",
"tasks",
"(",
"Rat-"
] |
[
0,
0,
0,
3,
4,
0,
1,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0
] |
5114
|
[
"generation",
"of",
"textual",
"descriptions",
"from",
"visual",
"data",
",",
"robot",
"navigation",
"tasks",
",",
"giving",
"directional",
"instructions",
",",
"and",
"geographical",
"information",
"systems",
"(",
"GIS",
")",
"."
] |
[
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
3,
4,
4,
0,
1,
0,
0
] |
5115
|
[
"3.2",
"Formal",
"basis",
":",
"Lexical",
"Resource",
"Semantics",
"Lexical",
"Resource",
"Semantics",
"(",
"LRS",
")",
"(",
"Richter",
"and",
"Sailer",
",",
"2003",
")",
"is",
"an",
"underspecified",
"semantic",
"formal-"
] |
[
0,
0,
0,
0,
0,
3,
4,
0,
4,
4,
0,
0,
1,
0,
0,
0,
0,
0,
0,
2,
0,
4,
0,
0,
0
] |
5116
|
[
"Intersection",
"(",
"I",
")",
",",
"Union",
"(",
"U",
")",
",",
"(",
"Koehn",
"et",
"al",
",",
"2003",
")",
"Grow",
"Diagonal",
"Final",
"(",
"GDF",
")",
",",
"(",
"Och",
"and",
"Ney",
",",
"2003",
")",
"H",
"refined",
"heuristics",
"and",
"Power",
"Mean",
"(",
"PMn",
")",
"alignment",
"sets",
"where",
"n",
"=",
"5",
"."
] |
[
3,
0,
4,
0,
0,
3,
0,
4,
0,
0,
0,
0,
0,
3,
0,
0,
0,
4,
4,
4,
0,
1,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
3,
4,
0,
1,
0,
0,
0,
0,
4,
0,
0,
0
] |
5117
|
[
"{",
"wangruibo",
",",
"gaoyahui",
"}",
"@",
"sxu.edu.cn",
"Abstract",
"In",
"this",
"paper",
",",
"semantic",
"role",
"labeling",
"(",
"SRL",
")",
"on",
"Chinese",
"FrameNet",
"is",
"divided",
"into",
"the"
] |
[
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
3,
4,
4,
0,
1,
0,
0,
0,
0,
0,
0,
0,
0
] |
5118
|
[
"at",
"a",
"supermarket",
"2",
"1",
"1",
"0",
"able",
"unable",
"1",
"0",
"0",
"1",
"Table",
"1",
":",
"Word-based",
"Levenshtein",
"distance",
"(",
"LD",
")",
"feature",
"and",
"separated",
"edit",
"operations",
"(",
"D",
"=",
"deletions",
",",
"I"
] |
[
0,
3,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
4,
4,
0,
1,
0,
0,
0,
0,
0,
0,
0,
2,
0,
0,
0,
0
] |
5119
|
[
"We",
"use",
"four",
"groups",
"of",
"datasets",
".",
"The",
"first",
"group",
"comes",
"from",
"the",
"English",
"Web",
"Treebank",
"(",
"EWT",
")",
",4",
"also",
"used",
"in",
"the",
"Parsing",
"the",
"Web",
"shared",
"task"
] |
[
3,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
4,
4,
4,
0,
1,
0,
0,
0,
0,
0,
0,
0,
0,
4,
0,
0
] |
5120
|
[
"Abstract",
"Most",
"machine",
"transliteration",
"systems",
"transliterate",
"out",
"of",
"vocabulary",
"(",
"OOV",
")",
"words",
"through",
"intermediate",
"phonemic"
] |
[
0,
0,
0,
0,
0,
0,
3,
4,
4,
0,
1,
0,
0,
0,
0,
0
] |
5121
|
[
"We",
"propose",
"a",
"method",
"to",
"improve",
"the",
"accuracy",
"of",
"parsing",
"bilingual",
"texts",
"(",
"bitexts",
")",
"with",
"the",
"help",
"of",
"statistical",
"machine",
"translation",
"(",
"SMT",
")",
"systems",
"."
] |
[
0,
0,
3,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
4,
4,
4,
0,
1,
0,
0,
0
] |
5122
|
[
"leaves=29",
")",
".",
"The",
"first",
"branching",
",",
"which",
"corresponds",
"to",
"no",
"AP",
"(",
"Absolute",
"Position",
")",
"and",
"no",
"C",
"(",
"Colour",
")",
",",
"assigns",
"n",
"to",
"as",
"many",
"as",
"1571",
"instances"
] |
[
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
1,
0,
3,
4,
0,
0,
0,
3,
0,
4,
0,
0,
0,
4,
0,
0,
0,
0,
0,
0
] |
5123
|
[
"1",
"Introduct",
"ion",
"Many",
"of",
"the",
"Natural",
"Language",
"Generation",
"(",
"NLG",
")",
"systems",
"that",
"produce",
"flexible",
"output",
",",
"i.e",
".",
"sentences"
] |
[
0,
0,
3,
0,
0,
0,
0,
4,
4,
0,
0,
1,
0,
0,
0,
0,
0,
0,
0,
0,
0
] |
5124
|
[
"We",
"then",
"build",
"three",
"pairwise",
"comparison",
"matrices",
":",
"one",
"comparing",
"pairs",
"of",
"typically",
"developing",
"(",
"TD",
")",
"children",
";",
"one",
"comparing",
"pairs",
"of",
"children",
"with",
"ASD",
";",
"and",
"a",
"third",
"com-"
] |
[
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
3,
4,
0,
1,
0,
0,
0,
0,
0,
0,
0,
0,
0,
1,
0,
0,
4,
0,
0
] |
5125
|
[
"6",
"Over",
"Segmentation",
"For",
"wrongly",
"spelled",
"or",
"OOV",
"(",
"out",
"of",
"vocabulary",
")",
"Urdu",
"words",
",",
"the",
"system",
"may",
"forcibly",
"break",
"the"
] |
[
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
3,
4,
4,
0,
0,
0,
0,
0,
0,
0,
0,
0
] |
5126
|
[
"Verbs",
"can",
"also",
"involve",
"non-core",
"modifier",
"arguments",
",",
"such",
"as",
"ArgMTMP",
"(",
"time",
")",
",",
"ArgM-LOC",
"(",
"location",
")",
",",
"ArgM-CAU",
"(",
"cause",
")",
",",
"etc",
"."
] |
[
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
1,
0,
3,
0,
0,
0,
0,
3,
0,
0,
1,
0,
3,
0,
0,
0,
0
] |
5127
|
[
"SYSTEM",
"ARCHITECTURE",
"The",
"TIA",
"used",
"for",
"MUC-3",
"was",
"developed",
"from",
"the",
"AD-TIA",
"(",
"Alternate",
"Domain",
"TIA",
")",
".",
"This",
"system",
",",
"shown"
] |
[
0,
0,
0,
3,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
4,
4,
4,
0,
0,
0,
0,
0
] |
5128
|
[
"In",
"this",
"paper",
",",
"we",
"introduce",
"a",
"novel",
"method",
"called",
"Random",
"Manhattan",
"Indexing",
"(",
"RMI",
")",
".",
"RMI"
] |
[
3,
0,
0,
0,
0,
0,
4,
0,
0,
0,
0,
4,
4,
0,
0,
1,
0,
0
] |
5129
|
[
"Abstract",
"Crowd-sourcing",
"approaches",
"such",
"as",
"Amazon",
"?",
"s",
"Mechanical",
"Turk",
"(",
"MTurk",
")",
"make",
"it",
"possible",
"to",
"annotate",
"or",
"collect",
"large",
"amounts",
"of"
] |
[
0,
0,
0,
0,
0,
0,
0,
0,
3,
4,
0,
2,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0
] |
5130
|
[
"vestigate",
"four",
"factors",
":",
"text",
"length",
"(",
"TL",
")",
",",
"sentence",
"length",
"(",
"SL",
")",
",",
"average",
"number",
"of",
"words",
"per",
"sentence",
"(",
"WS",
")",
",",
"and",
"average",
"number",
"of",
"characters",
"per",
"word",
"(",
"CW",
")",
".",
"Since"
] |
[
0,
0,
0,
0,
3,
3,
0,
1,
0,
0,
3,
4,
0,
1,
0,
0,
0,
0,
0,
4,
4,
4,
0,
1,
0,
0,
0,
0,
0,
0,
4,
4,
4,
0,
1,
0,
0,
0
] |
5131
|
[
"Our",
"initial",
"experiment",
"includes",
"language",
"model",
"(",
"LM",
")",
",",
"word",
"posterior",
"probability",
"(",
"WPP",
")",
",",
"confusion",
"network",
"(",
"CN",
")",
",",
"and",
"word",
"lexicon",
"(",
"WL",
")",
"features",
"for",
"a",
"total",
"of",
"11"
] |
[
0,
0,
0,
0,
3,
4,
0,
1,
0,
0,
3,
4,
4,
0,
1,
0,
0,
3,
4,
0,
1,
0,
0,
0,
4,
4,
0,
1,
0,
0,
0,
4,
0,
0,
0
] |
5132
|
[
"Figure",
"5",
":",
"Example",
"GMM",
"fitting",
"2",
".",
"Gaussian",
"mixture",
"model",
"(",
"GMM",
")",
"-based",
"POI",
"probability",
"(",
"prior",
")",
"calculation"
] |
[
0,
0,
0,
0,
1,
0,
0,
0,
3,
4,
4,
0,
2,
0,
0,
1,
0,
0,
0,
0,
0
] |
5133
|
[
"other",
"synthesis",
"techniques",
".",
"The",
"TD-PSOLA",
"(",
"Time",
"Domain",
"Pitch",
"Synchronous",
"Overlap-add",
")",
"developed",
"by",
"CNET",
"is",
"a",
"very",
"simple",
"but",
"ingenious",
"method",
"which",
"assures",
"high",
"voice",
"quality",
",",
"the",
"only",
"disadvantage",
"is",
"that",
"it",
"is",
"based",
"on",
"a",
"time",
":"
] |
[
0,
0,
0,
0,
0,
1,
0,
3,
4,
4,
4,
4,
0,
0,
0,
1,
0,
4,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
4,
0,
0,
4,
4,
0,
0
] |
5134
|
[
"direct",
"analogy",
"to",
"Sidner",
"'s",
"\\",
"[",
"26\\",
"]",
"potential",
"local",
"foci",
",",
"and",
"assumes",
"only",
"one",
"temporal",
"referent",
"in",
"the",
"temporal",
"focus",
"(",
"TF",
")",
"."
] |
[
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
3,
0,
0,
0,
4,
4,
0,
1,
0,
0
] |
5135
|
[
"?",
"Modifier",
"substitution",
"(",
"M-Sub",
")",
":",
"t2",
"is",
"a",
"substitution",
"of",
"t~",
"if",
"and",
"only",
"if",
":"
] |
[
0,
0,
3,
0,
0,
1,
0,
0,
0,
0,
4,
0,
0,
4,
0,
0,
4,
0
] |
5136
|
[
"the",
"Tomita",
"parser",
",",
"which",
"handles",
"Japanese",
"and",
"Spanish",
"as",
"well",
"as",
"English",
".",
"The",
"parser",
"output",
"is",
"grammatical",
"structures",
"called",
"Functionally",
"Labelled",
"Templates",
"(",
"FLTs",
")",
"which",
"are",
"built",
"using",
"a",
"linguistic",
"formalism",
"that",
"modifies",
"and",
"extends",
"the",
"f-structure",
"of",
"Lexical-Functional",
"Grammar",
"(",
"LFG",
")",
"."
] |
[
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
3,
4,
4,
0,
1,
0,
0,
0,
0,
0,
3,
0,
0,
0,
0,
0,
0,
0,
0,
0,
4,
4,
0,
1,
0,
0
] |
5137
|
[
"MT",
"is",
"one",
"of",
"the",
"oldest",
"and",
"most",
"important",
"areas",
"of",
"Natural",
"Language",
"Processing",
"(",
"NLP",
")",
"/",
"Computational",
"Linguistics",
"(",
"CL",
")",
".2",
"From",
"its",
"beginnings",
"we",
"have",
"witnessed",
"some",
"changes",
"in",
"the"
] |
[
1,
3,
0,
0,
0,
0,
0,
0,
0,
0,
0,
3,
4,
4,
0,
1,
0,
0,
4,
4,
0,
1,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
4,
0
] |
5138
|
[
"and",
"round",
"corners",
"for",
"processes",
".",
"Lexical",
"access",
"is",
"applied",
"to",
"the",
"input",
"string",
"to",
"produce",
"(",
"nondeterministically",
")",
"the",
"extended",
"lexical",
"item",
"(",
"ELI",
")",
"of",
"each",
"word",
".",
"Its",
"output",
"is",
"split"
] |
[
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
3,
4,
4,
0,
1,
0,
0,
0,
0,
0,
0,
0,
0,
0
] |
5139
|
[
"1",
"Introduction",
"Question",
"answering",
"(",
"QA",
")",
"system",
"aims",
"at",
"finding",
"exact",
"answers",
"to",
"a",
"natural",
"language",
"question",
"."
] |
[
0,
0,
0,
3,
0,
0,
1,
0,
0,
0,
0,
0,
0,
0,
4,
0,
0,
0,
0
] |
5140
|
[
"All",
"words",
"are",
"labeled",
"as",
"basic",
"or",
"not",
"basic",
"according",
"to",
"Ogden",
"?",
"s",
"Basic",
"English",
"850",
"(",
"BE850",
")",
"list",
"(",
"Ogden",
",",
"1930",
")",
".3",
"In",
"order",
"to",
"measure",
"the",
"lexical",
"complexity"
] |
[
0,
0,
0,
0,
3,
0,
0,
0,
0,
0,
0,
0,
0,
4,
4,
4,
4,
0,
2,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0
] |
5141
|
[
"For",
"all",
"the",
"reasons",
"listed",
"above",
",",
"a",
"dictionary",
"of",
"Turkish",
"Language",
"Association",
"(",
"TLA",
")",
"is",
"used",
"in",
"this",
"study",
"."
] |
[
0,
0,
0,
0,
0,
0,
0,
3,
0,
0,
0,
4,
4,
4,
0,
1,
4,
0,
0,
0,
0,
0
] |
5142
|
[
"the",
"classification",
"of",
"various",
"verb",
"groups",
"(",
"generic",
"verbs",
"versus",
"specific",
"verbs",
")",
"based",
"on",
"the",
"semantic",
"distance",
"with",
"Latent",
"Semantic",
"Analysis",
"(",
"LSA",
")",
"and",
"Cluster",
"Analysis",
"."
] |
[
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
3,
4,
4,
0,
1,
0,
0,
0,
4,
0
] |
5143
|
[
"Recently",
",",
"McDonald",
"et",
"al",
"(",
"2005b",
")",
"formalized",
"dependency",
"parsing",
"as",
"a",
"maximum",
"spanning",
"tree",
"(",
"MST",
")",
"problem",
",",
"which",
"can",
"be",
"solved",
"in",
"quadratic",
"time",
"relative"
] |
[
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
3,
4,
4,
4,
0,
1,
0,
0,
0,
0,
0,
0,
0,
4,
0,
0,
0
] |
5144
|
[
"SC",
"is",
"mainly",
"used",
"in",
"mainland",
"China",
"while",
"TC",
"is",
"mainly",
"used",
"in",
"Taiwan",
"and",
"Hong",
"Kong",
"(",
"HK",
")",
".",
"In",
"this",
"experiment",
",",
"we",
"further"
] |
[
1,
0,
0,
0,
0,
0,
0,
0,
1,
0,
0,
0,
0,
0,
0,
3,
4,
0,
1,
0,
0,
0,
0,
0,
0,
0,
0
] |
5145
|
[
"1",
"Introduction",
"1.1",
"Background",
"Back",
"in",
"2004",
",",
"ETV",
"(",
"Eenadu",
"Television",
")",
",",
"Hyderabad",
",",
"felt",
"a",
"need",
"for",
"a",
"text",
"editor",
"to",
"prepare",
"news"
] |
[
0,
0,
0,
0,
0,
0,
0,
0,
1,
0,
3,
4,
0,
0,
0,
0,
0,
4,
0,
0,
4,
0,
0,
0,
0,
0
] |
5146
|
[
"imated",
"conversational",
"characters",
"from",
"recordings",
"of",
"human",
"performance",
".",
"ACM",
"Transactions",
"on",
"Graphics",
"(",
"TOG",
")",
",",
"23",
"(",
"3",
")",
":506",
"?",
"513",
"."
] |
[
0,
0,
0,
0,
0,
0,
0,
0,
0,
1,
3,
4,
4,
0,
1,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0
] |
5147
|
[
"TEXT",
")",
",",
"DECL",
"(",
"Declarative",
")",
",",
"HON",
"(",
"Honorific",
")",
",",
"IMPER",
"(",
"Imperative",
")",
",",
"NOM",
"(",
"Nominative",
")",
",",
"ORTH",
"(",
"ORTHOGRAPHY",
")",
",",
"PST",
"(",
"Past",
")",
",",
"SYN",
"(",
"SYNTAX",
")",
",",
"SEM",
"(",
"SEMANTICS",
")",
",",
"RELS",
"(",
"RELATIONS",
")",
",",
"and",
"POS",
"(",
"part",
"of",
"speech",
")",
"."
] |
[
0,
0,
0,
1,
0,
3,
0,
0,
1,
0,
3,
0,
0,
1,
0,
3,
0,
0,
1,
0,
3,
0,
0,
3,
0,
4,
0,
0,
1,
0,
3,
0,
0,
3,
0,
4,
0,
0,
3,
0,
4,
0,
0,
1,
0,
3,
0,
0,
0,
1,
0,
3,
4,
4,
0,
0
] |
5148
|
[
"that",
"provides",
"a",
"good",
"compression",
"rate",
"of",
"the",
"text",
".",
"3.2",
"Byte",
"Pair",
"Encoding",
"(",
"BPE",
")",
"Byte",
"Pair",
"Encoding",
"(",
"BPE",
")",
"(",
"Gage",
",",
"1994",
")",
"is",
"a",
"sim-"
] |
[
0,
0,
3,
0,
0,
0,
0,
0,
0,
0,
0,
4,
4,
4,
0,
1,
0,
4,
4,
4,
0,
2,
0,
0,
0,
0,
0,
0,
0,
4,
0
] |
5149
|
[
"2.2",
"Thread-level",
"analysis",
"Next",
",",
"we",
"perform",
"named",
"entity",
"recognition",
"(",
"NER",
")",
"over",
"each",
"thread",
"to",
"identify",
"entities",
"such",
"as",
"package"
] |
[
0,
0,
0,
0,
0,
0,
0,
0,
3,
4,
0,
0,
1,
0,
0,
0,
0,
0,
0,
0,
0,
0
] |
5150
|
[
"and",
"tfidf",
"of",
"unigrams",
",",
"bigrams",
",",
"and",
"trigrams",
".",
"DAL",
"(",
"Dictionary",
"of",
"Affect",
"in",
"Language",
")",
"is",
"a",
"psycholinguistic",
"resource",
"to",
"measure",
"the",
"emo-"
] |
[
0,
0,
3,
0,
0,
0,
0,
0,
0,
0,
1,
0,
4,
4,
4,
4,
4,
0,
0,
4,
0,
0,
0,
0,
0,
0
] |
5151
|
[
"nuqaqa",
"llakiy",
"qhachqa",
"p",
"?",
"achakunata",
"churakurqani",
".",
"Abbreviations",
":",
"AMLQ",
"=",
"Academia",
"Mayor",
"de",
"la",
"Lengua",
"Quechua",
"en",
"Cusco",
",",
"norm",
"=",
"normalized",
",",
"span",
"=",
"Spanish",
"orthography",
",",
"boliv",
"=",
"(",
"old",
")",
"Bolivian",
"orthography",
"Table",
"1",
":",
"Different",
"Orthographies",
"with",
"Corresponding",
"Standardized",
"Version"
] |
[
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
1,
0,
3,
4,
4,
4,
4,
4,
4,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0
] |
5152
|
[
"collected",
"as",
"follows",
":",
"Positive",
"Diccn",
":",
"3,730",
"Chinese",
"positive",
"terms",
"(",
"e.g.",
",",
"/good-looking",
",",
"/",
"lucky",
")",
"were",
"collected",
"from",
"the",
"Chinese",
"Vocabulary",
"for",
"Sentiment",
"Analysis",
"(",
"VSA",
")",
"20",
"released",
"by",
"HOWNET",
"."
] |
[
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
3,
4,
4,
4,
0,
1,
0,
0,
0,
0,
1,
0
] |
5153
|
[
"The",
"system",
"includes",
"four",
"main",
"stages",
":",
"topic",
"classification",
",",
"named",
"entity",
"recognition",
"(",
"NER",
")",
",",
"disease/location",
"detection",
",",
"and",
"visualization",
"."
] |
[
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
3,
4,
0,
0,
1,
0,
0,
0,
0,
0,
0,
0
] |
5154
|
[
"based",
"classifier",
"is",
"used",
"to",
"select",
"the",
"most",
"informative",
"examples",
"for",
"training",
"an",
"another",
"type",
"of",
"classifier",
"based",
"on",
"multinomial",
"na",
"?",
"ve",
"Bayes",
"(",
"NB",
")",
"model",
"(",
"McCallum",
"and",
"Nigam",
",",
"1998b",
")",
"."
] |
[
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
3,
4,
4,
4,
0,
1,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0
] |
5155
|
[
"bic",
"Diacritics",
".",
"In",
"Proceedings",
"of",
"the",
"21st",
"International",
"Conference",
"on",
"Computational",
"Linguistics",
"(",
"COLING",
")",
"and",
"the",
"44th",
"Annual",
"Meeting",
"of",
"the",
"the",
"Association"
] |
[
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
3,
4,
4,
0,
1,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0
] |
5156
|
[
"any",
"hypotheses",
"between",
"frames",
"and",
"events",
".",
"(",
"2",
")",
"SameFrame",
"(",
"SF",
")",
"is",
"the",
"second",
"baseline",
"system",
",",
"which",
"applies",
"H1",
"over",
"the",
"results",
"from",
"AN-"
] |
[
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
3,
0,
1,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0
] |
5157
|
[
"In",
"Proceedings",
"of",
"the",
"46th",
"Annual",
"Meeting",
"of",
"the",
"Association",
"for",
"Computational",
"Linguistics",
"(",
"ACL",
")",
"."
] |
[
0,
0,
0,
0,
0,
0,
0,
0,
0,
3,
4,
4,
4,
0,
1,
0,
0
] |
5158
|
[
"?",
"similar",
"count",
"?",
"score",
"(",
"SC",
")",
"is",
"calculated",
"as",
"the",
"number",
"of",
"characters",
"that",
"match",
"between",
"two"
] |
[
0,
0,
0,
0,
3,
0,
1,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0
] |
5159
|
[
"constituent",
"boundary",
"prediction",
"algorithm",
",",
"the",
"followiug",
"measures",
"were",
"used",
":",
"1",
")",
"The",
"cost",
"time",
"(",
"CT",
")",
"of",
"the",
"kernal",
"functions",
"(",
"CPU",
":",
"Celeron",
"TM",
"366",
",",
"RAM",
":",
"64M",
")",
"."
] |
[
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
3,
0,
0,
1,
0,
0,
0,
0,
0,
0,
1,
0,
0,
1,
0,
0,
1,
0,
0,
0,
0
] |
5160
|
[
"Simple",
"Segmentation",
"Algorithm",
"(",
"SSA",
")",
":",
"1",
"."
] |
[
0,
3,
4,
4,
0,
1,
2,
0,
0
] |
5161
|
[
"For",
"example",
",",
"the",
"s",
"t",
"ruc",
"ture",
"tn",
"whtch",
"ad",
"jec",
"t",
"ives",
"(",
"ADJ",
")",
"repeat",
"a",
"rb",
"i",
"t",
"ra",
"ry",
"ttmes",
"and",
"a",
"noun",
"(",
"N",
")",
"fo",
"l",
"lows",
"them",
"tn",
"Engl",
"lsh",
"ts",
"expressed",
"as"
] |
[
0,
0,
0,
0,
3,
4,
0,
0,
0,
0,
0,
4,
4,
4,
0,
0,
1,
0,
0,
0,
4,
4,
0,
0,
0,
0,
0,
0,
0,
0,
2,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0
] |
5162
|
[
"ALO",
"(",
"in",
"to",
")",
"RO",
"(",
"OST",
"LOC",
")",
"PO",
"(",
"PRE",
")",
"ON",
"(",
"VO",
")",
")"
] |
[
1,
0,
0,
0,
0,
1,
0,
1,
1,
0,
3,
0,
1,
0,
0,
0,
1,
0,
0
] |
5163
|
[
"be",
"intuitively",
"characterized",
"as",
"a",
"way",
"of",
"trigger-",
"ing",
"semantically",
"related",
"concepts",
"which",
"define",
"for",
"each",
"role",
"the",
"projective",
"conclusion",
"space",
"(",
"PCS",
")",
"."
] |
[
0,
0,
0,
0,
3,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
4,
4,
4,
0,
1,
0,
0
] |
5164
|
[
"September/NNP",
"\\",
"]",
"\\",
"[",
"O",
"./",
".",
"\\",
"]",
"we",
"can",
"extract",
"following",
"chunk",
"patterns",
":",
"NP=NULL",
"90",
"PRP",
"99",
"VBZ",
"VP=PRP",
"99",
"VBZ",
"99",
"DT"
] |
[
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0
] |
5165
|
[
"term",
"t",
"appears",
"in",
"position",
"i",
"around",
"the",
"entity",
".",
"Bigram",
"Context",
"(",
"BCON",
")",
":",
"The",
"bigram-based",
"context",
"model",
"was",
"built",
"in",
"a",
"similar",
"way",
"to",
"UCON",
","
] |
[
0,
3,
0,
0,
0,
4,
0,
0,
0,
0,
4,
4,
0,
1,
0,
0,
0,
0,
0,
0,
0,
0,
0,
4,
0,
0,
0,
1,
0
] |
5166
|
[
"In",
"NAACL",
"Workshop",
"on",
"Syntax",
"and",
"Structure",
"in",
"Statistical",
"Translation",
"(",
"SSST",
")",
",",
"pages",
"25",
"?",
"32",
",",
"Rochester",
",",
"NY",
"."
] |
[
0,
1,
0,
3,
0,
0,
0,
0,
4,
4,
0,
1,
0,
0,
0,
0,
0,
0,
0,
0,
0,
1,
0
] |
5167
|
[
"search",
"engine",
",",
"e.g.",
",",
"Google",
",",
"Bing",
",",
"etc",
".",
"and",
"(",
"ii",
")",
"a",
"database",
"(",
"DB",
")",
"system",
"for",
"accessing",
"previously",
"resolved",
"crossword",
"puz-"
] |
[
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
3,
4,
0,
1,
0,
0,
0,
0,
0,
0,
0,
0
] |
5168
|
[
"extraction",
"(",
"RE",
")",
"in",
"a",
"bootstrapping",
"framework",
"are",
"regarded",
"as",
"very",
"effective",
"methods",
"for",
"building",
"information",
"extraction",
"(",
"IE",
")",
"systems",
"and",
"for",
"adapting",
"them",
"to",
"new",
"domains",
"(",
"e.",
"g.",
",",
"(",
"Riloff",
","
] |
[
3,
0,
1,
0,
4,
4,
0,
0,
0,
0,
0,
0,
0,
0,
4,
0,
4,
4,
0,
1,
0,
0,
0,
4,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0
] |
5169
|
[
"ISREM",
"1",
"iff",
"the",
"candidate",
"occurs",
"2",
"or",
"more",
"sentences",
"before",
"the",
"anaphor",
"POSITION",
"1",
"iff",
"the",
"antecedent",
"occurs",
"before",
"anaphor",
"SEMANTIC",
"ROLE",
"LABELLING",
"(",
"SR",
")",
"IVERB",
"1",
"iff",
"the",
"governing",
"verb",
"of",
"the",
"given",
"candidate",
"is",
"an",
"issue",
"verb"
] |
[
1,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
1,
0,
0,
0,
0,
0,
0,
0,
3,
4,
0,
0,
2,
0,
1,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0
] |
5170
|
[
"using",
"the",
"written",
"and",
"spoken",
"language",
"corpora",
".",
"Occurrence",
"probabilities",
"(",
"OPs",
")",
"of",
"expressions",
"in",
"the",
"written",
"and",
"spoken",
"language",
"corpora",
"can",
"be",
"used",
"to",
"dis-"
] |
[
0,
0,
0,
0,
0,
0,
0,
0,
3,
4,
0,
1,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0
] |
5171
|
[
"We",
"experiment",
"with",
"multiple",
"ways",
"to",
"select",
"a",
"snippet",
":",
"the",
"first",
"50",
"words",
"of",
"the",
"summary",
"(",
"START",
")",
",",
"the",
"last",
"50",
"words",
"(",
"END",
")",
"and",
"50",
"words",
"starting",
"at",
"a",
"randomly",
"chosen",
"sentence"
] |
[
0,
0,
0,
0,
0,
0,
0,
3,
0,
0,
0,
0,
0,
0,
0,
0,
4,
0,
1,
0,
0,
0,
0,
0,
0,
0,
1,
0,
0,
0,
0,
0,
0,
4,
0,
0,
0
] |
5172
|
[
"Pattern",
"Pattern",
"Patterns",
"composed",
"of",
"high",
"frequency",
"words",
"(",
"HFWs",
")",
"4"
] |
[
0,
0,
0,
0,
0,
3,
4,
4,
0,
1,
0,
0
] |
5173
|
[
"that",
"combining",
"additional",
"knowledge",
"sources",
",",
"including",
"lexical",
"features",
"(",
"LX1",
")",
"and",
"the",
"non-verbal",
"features",
",",
"prosody",
"(",
"PROS",
")",
",",
"motion",
"(",
"MOT",
")",
",",
"and",
"context",
"(",
"CTXT",
")",
",",
"yields",
"a",
"further",
"improvement",
"(",
"of",
"8.8",
"%"
] |
[
0,
0,
0,
0,
0,
0,
0,
3,
0,
0,
0,
0,
0,
0,
0,
0,
0,
3,
0,
1,
0,
0,
3,
0,
1,
0,
0,
0,
3,
0,
1,
0,
0,
0,
4,
0,
0,
0,
0,
0,
0
] |
5174
|
[
"(",
"ADV",
")",
",",
"cause",
"(",
"CAU",
")",
",",
"direction",
"(",
"DIR",
")",
",",
"extent",
"(",
"EXT",
")",
",",
"location",
"(",
"LOC",
")",
",",
"manner",
"(",
"MNR",
")",
",",
"and",
"time",
"(",
"TMP",
")",
",",
"modal",
"verbs",
"(",
"MOD",
")",
",",
"negative",
"markers",
"(",
"NEG",
")",
",",
"and",
"discourse",
"connectives",
"(",
"DIS",
")",
"."
] |
[
0,
1,
0,
0,
3,
0,
1,
0,
0,
3,
0,
1,
0,
0,
3,
0,
1,
0,
0,
3,
0,
1,
0,
0,
3,
0,
1,
0,
0,
0,
3,
0,
1,
0,
0,
3,
0,
0,
1,
0,
0,
3,
0,
0,
1,
0,
0,
0,
3,
0,
0,
1,
0,
0
] |
5175
|
[
"than",
"three",
"thousand",
"five",
"hundred",
"days",
"of",
"imprisonment",
".",
"Figure",
"4",
":",
"Example",
"translation",
"using",
"the",
"back-off",
"and",
"the",
"continuous",
"space",
"language",
"model",
"(",
"CSLM",
")",
"."
] |
[
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
3,
4,
4,
4,
0,
1,
0,
0
] |
5176
|
[
"Inspired",
"by",
"the",
"work",
"of",
"web",
"search",
"(",
"Gao",
"et",
"al2010",
")",
"and",
"question",
"retrieval",
"in",
"community",
"question",
"answer",
"(",
"Q",
"&",
"A",
")",
"(",
"Zhou",
"et",
"al2011",
")",
",",
"we",
"assume",
"the",
"following",
"generative"
] |
[
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
3,
0,
0,
0,
4,
4,
0,
1,
2,
2,
0,
0,
0,
0,
0,
0,
0,
4,
0,
0,
0,
0
] |
5177
|
[
"As",
"an",
"extension",
",",
"Zhang",
"et",
"al",
"(",
"2008a",
")",
"proposed",
"two",
"more",
"categories",
":",
"Structure",
"Reordering",
"Rules",
"(",
"SRR",
")",
"and",
"Discontiguous",
"Phrase",
"Rules",
"(",
"DPR",
")",
"."
] |
[
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
3,
4,
3,
0,
1,
0,
0,
4,
4,
4,
0,
1,
0,
0
] |
5178
|
[
"the",
"MACH-III",
"expert",
"system",
",",
"we",
"should",
"begin",
"with",
"a",
"brief",
"description",
".",
"Functional",
"hierarchy",
"(",
"FH",
")",
"is",
"a",
"new",
"paradigm",
"for",
"organizing",
"expert",
"system"
] |
[
0,
1,
0,
0,
0,
0,
0,
0,
0,
3,
0,
0,
0,
4,
4,
0,
1,
0,
0,
4,
0,
0,
0,
0,
0,
0
] |
5179
|
[
"In",
"this",
"paper",
"we",
"investigate",
"the",
"relation",
"between",
"positive",
"and",
"negative",
"pairs",
"in",
"Textual",
"Entailment",
"(",
"TE",
")",
",",
"in",
"order",
"to",
"highlight",
"the",
"role",
"of",
"contradiction",
"in",
"TE"
] |
[
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
3,
4,
0,
1,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
2
] |
5180
|
[
"typically",
"expressed",
"inTopic",
"Statements",
".",
"The",
"Subject",
"Field",
"Coder",
"(",
"SFCoder",
")",
"uses",
"an",
"establishet~",
"semantic",
"oding",
"scheme",
"from",
"the",
"machine-"
] |
[
0,
0,
0,
0,
0,
0,
3,
4,
4,
0,
2,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0
] |
5181
|
[
"abbreviations",
".",
"ACM",
"Transactions",
"on",
"Information",
"Systems",
"(",
"TOIS",
")",
",",
"24",
"(",
"3",
")",
":380",
"?",
"404",
"."
] |
[
0,
0,
1,
3,
4,
4,
4,
0,
1,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0
] |
5182
|
[
"The",
"evaluation",
"strategy",
"follows",
"the",
"global",
"standard",
"as",
"Text",
"Retrieval",
"Conference",
"(",
"TREC",
")",
"8",
"metrics",
".",
"It"
] |
[
0,
0,
0,
0,
0,
0,
0,
0,
3,
4,
4,
0,
1,
0,
0,
0,
0,
0
] |
5183
|
[
"method",
"for",
"unambiguous",
"bilingual",
"segmentation",
"where",
"tokens",
"are",
"defined",
"as",
"minimal",
"phrases",
",",
"called",
"minimal",
"translation",
"units",
"(",
"MTUs",
")",
".",
"Figure",
"1"
] |
[
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
3,
0,
0,
0,
4,
4,
4,
0,
1,
0,
0,
0,
0
] |
5184
|
[
"for",
"PTB",
"III",
"data",
"evaluated",
"by",
"label",
"accuracy",
"system",
"test",
"additional",
"resources",
"JESS-CM",
"(",
"CRF/HMM",
")",
"95.15",
"1G-word",
"unlabeled",
"data",
"94.67",
"15M-word",
"unlabeled",
"data"
] |
[
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0
] |
5185
|
[
"We",
"used",
"an",
"online-large",
"margin",
"algorithm",
",",
"MIRA",
"(",
"McDonald",
"and",
"Pereira",
",",
"2006",
";",
"Crammer",
"et",
"al",
",",
"2005",
")",
",",
"for",
"updating",
"the",
"weights",
"."
] |
[
0,
0,
3,
0,
0,
0,
4,
0,
0,
0,
4,
4,
4,
0,
0,
0,
0,
4,
4,
0,
0,
4,
0,
0,
0,
0,
0
] |
5186
|
[
"notation",
"for",
"real-world",
"applications",
".",
"In",
"Machine",
"Translation",
"(",
"MT",
")",
"Quality",
"Estimation",
"(",
"QE",
")",
",",
"for",
"instance",
",",
"using",
"human-"
] |
[
0,
0,
0,
0,
0,
0,
3,
4,
0,
1,
0,
3,
4,
0,
1,
0,
0,
0,
0,
0,
0,
0
] |
5187
|
[
"2011a",
".",
"Overview",
"of",
"the",
"Infectious",
"Diseases",
"(",
"ID",
")",
"task",
"of",
"BioNLP",
"Shared",
"Task",
"2011",
"."
] |
[
0,
0,
0,
0,
0,
3,
4,
0,
1,
0,
0,
0,
1,
0,
0,
0,
0
] |
5188
|
[
"?",
"Term",
"Base",
"eXchange",
"(",
"TBX",
")",
":",
"XML",
"Terminology",
"Exchange",
"Standard",
"."
] |
[
0,
0,
3,
4,
0,
0,
1,
0,
0,
0,
0,
0,
0
] |
5189
|
[
"There",
"were",
"four",
"data",
"sources",
"used",
"in",
"the",
"training",
"set",
":",
"the",
"Wall",
"Street",
"Journal",
",",
"Associated",
"Press",
",",
"Federal",
"Register",
"(",
"FR",
")",
",",
"and",
"Department",
"of",
"215"
] |
[
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
3,
4,
0,
1,
0,
0,
0,
0,
0,
0
] |
5190
|
[
"resolution",
"pipeline",
"consisted",
"primarily",
"of",
"the",
"C",
"&",
"C",
"parser",
"and",
"Boxer",
"(",
"Curran",
"et",
"al",
",",
"2007",
")",
",",
"which",
"produce",
"Discourse",
"Representation",
"Structures",
"(",
"DRSs",
")",
"."
] |
[
0,
0,
0,
0,
0,
0,
1,
2,
2,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
3,
4,
4,
0,
1,
0,
0
] |
5191
|
[
"\u0007\u0002",
"B",
"\u0007",
"E",
"B",
"\u0004",
"\u0014",
"\u0005E",
"B",
"\u0002\u0014",
"B",
"\u0019\u0002F\u0013\u0003E\b\u0007",
"B",
"AE",
"EA",
"B",
"\u0017\u0015",
"B",
"\u0005\u0013\u0003\u0003\u0006\b",
")",
"B",
",",
"\u0002\u0014",
"B",
"A\u0007E\u0014\b",
"\u0007\u0006",
"EA\u0015",
"B",
"\u0004E\u0014\u001a\u0002\u0014\u0003\u0006\b",
")",
"B",
"F\u0002\u0003\u0004\u0002\bE\b\u0007+",
"$",
"\u0006\u0005EB",
"\u0003\u0013A\u0007\u0006\u0004A\u0006F",
"\u0007\u0006\u0002\bH0",
"B",
"\u0002\u001a",
"B",
"$",
"\u0002\u0014\u0019",
"B",
"EF\u0007\u0002\u0014\u0005",
"B",
",",
"\u001bF",
"I\u0007JE",
"''",
"B",
"/66B0",
"&",
"B",
"(",
"\u0006\u0005",
"B",
"\u0005",
"B",
"\u0007",
"E",
"B",
"\u0019",
"\b\u0007",
")",
"E",
"B",
"\u0007",
"\u0007",
"B",
"\u0006\u0007",
"B",
"\u0006\u0005",
"B",
"\u0006\u0003\u0003E\u0019\u0006",
"\u0007EA\u0015B",
"\u0004\u0004A\u0006F",
"\u0017AEB\u0007\u0002B",
"\b\u0015B\u0003\u0002\u0019EAB\u0006\bB",
"$",
"\u0006F",
"B",
"$",
"\u0002\u0014\u0019B\u0003E",
"\b\u0006\b",
")",
"BF",
"\bB\u0017EBED\u0004\u0014E\u0005\u0005E\u0019B",
"\u0005B",
"B",
"EF\u0007\u0002\u0014",
"&",
"B",
"(",
"EB\u0004\u0014\u0006\bF\u0006\u0004AEBA\u0006\u0003\u0006\u0007",
"\u0007\u0006\u0002\bB",
"\u0002\u001aBF\u0002\u0013\u0014\u0005EB\u0006\u0005B\u0007",
"\u0007B\u0007",
"\u0006\u0005B\u0007",
"'",
"E\u0005B\b\u0002B",
"FF\u0002\u0013\b\u0007B\u0002\u001aB",
"$",
"\u0002\u0014\u0019B\u0002\u0014\u0019E\u0014",
"&",
"B",
"(",
"E\u0014E\u001a\u0002\u0014E",
"''",
"B",
"$",
"\u0006AEB\u0006\u0007B",
"\u0005B\u0004\u0014\u0002",
"E\bBE\u001a\u001aEF\u0007\u0006",
"EB\u0006\bB\u0007",
"EB"
] |
[
1,
3,
4,
4,
4,
4,
4,
0,
4,
2,
4,
0,
4,
4,
0,
4,
0,
4,
0,
0,
4,
0,
2,
4,
0,
0,
0,
4,
0,
0,
4,
0,
0,
0,
0,
0,
4,
0,
4,
0,
0,
4,
0,
4,
0,
0,
0,
0,
4,
0,
2,
4,
0,
0,
4,
0,
4,
4,
4,
4,
0,
0,
0,
4,
4,
4,
4,
4,
4,
4,
0,
4,
0,
0,
0,
0,
0,
0,
0,
4,
0,
0,
0,
0,
0,
0,
0,
4,
2,
2,
4,
0,
4,
0,
0,
0,
0,
0,
0,
0,
0,
0,
2,
4,
0,
0,
0,
4,
0,
0,
0,
0,
0,
4
] |
5192
|
[
"(",
"Schubert",
"1987",
";",
"Maxwell",
"&",
"Schubert",
"1989",
")",
",",
"and",
"fig-",
"ure",
"1",
"shows",
"the",
"dependency",
"trees",
"for",
"this",
"example",
",",
"cross-coded",
"for",
"translation",
"units",
"(",
"TUs",
")",
".",
"Each",
"ellipse"
] |
[
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
3,
4,
0,
1,
0,
0,
0,
0
] |
5193
|
[
"edges",
".",
"The",
"NEs",
"includes",
"personal",
"name",
"(",
"PRE",
")",
",",
"location",
"name",
"(",
"LOC",
")",
"and",
"organization",
"name",
"(",
"ORG",
")",
"."
] |
[
0,
0,
0,
1,
0,
3,
0,
0,
1,
0,
0,
3,
0,
0,
1,
0,
0,
3,
0,
0,
1,
0,
0
] |
5194
|
[
"We",
"describe",
"our",
"approach",
"towards",
"building",
"a",
"Wordnet",
"for",
"Tunisian",
"dialect",
"(",
"TD",
")",
".",
"We",
"proceed",
",",
"first-"
] |
[
0,
0,
0,
0,
0,
0,
3,
0,
0,
4,
4,
0,
1,
0,
0,
0,
0,
0,
0
] |
5195
|
[
"Note",
"that",
"for",
"the",
"purposes",
"of",
"Figure",
"1",
":",
"Example",
"Babytalk",
"Input",
"Data",
":",
"Sensors",
"HR",
"=",
"Heart",
"Rate",
";",
"TcPO2",
"=",
"blood",
"O2",
"level",
";",
"TCPCO2",
"=",
"blood",
"CO2",
"level",
";",
"SaO2",
"=",
"oxygen",
"saturation",
";",
"T1",
"=",
"chest"
] |
[
0,
0,
0,
0,
0,
0,
0,
1,
0,
0,
0,
0,
0,
0,
0,
1,
0,
3,
4,
0,
1,
0,
3,
4,
0,
0,
2,
0,
4,
4,
0,
0,
2,
0,
3,
4,
0,
2,
0,
0
] |
5196
|
[
"3.1",
"Data",
"and",
"preprocessing",
"All",
"embeddings",
"are",
"trained",
"on",
"22",
"million",
"tokens",
"from",
"the",
"the",
"North",
"American",
"News",
"Text",
"(",
"NANT",
")",
"corpus",
"(",
"Graff",
",",
"1995",
")",
"."
] |
[
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
3,
4,
4,
4,
0,
1,
0,
0,
0,
0,
0,
0,
0,
0
] |
5197
|
[
"Extraction",
"Abbreviations",
"NE",
"=",
"Named",
"Entity",
"CE",
"=",
"Correlated",
"Entity"
] |
[
0,
0,
1,
0,
3,
3,
1,
0,
4,
4
] |
5198
|
[
"internal",
"structure",
".",
"This",
"type",
"of",
"expression",
"is",
"an",
"example",
"of",
"what",
"will",
"be",
"called",
"a",
"``",
"comp\\",
"]",
"ex",
"basic",
"expression",
"''",
"(",
"CBE",
")",
"."
] |
[
0,
0,
0,
0,
0,
0,
3,
0,
0,
0,
0,
0,
0,
0,
0,
4,
0,
4,
4,
4,
4,
4,
0,
0,
1,
0,
0
] |
5199
|
[
"bath",
"?",
")",
".",
"The",
"builder",
"can",
"choose",
"to",
"represent",
"binaries",
"as",
"either",
"relational",
"noun",
"phrases",
"(",
"RELNP",
")",
"or",
"generalized",
"transitive",
"verbs",
"(",
"VP/NP",
")",
"."
] |
[
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
3,
0,
4,
4,
4,
0,
1,
0,
0,
0,
0,
3,
0,
1,
0,
0
] |
Subsets and Splits
No community queries yet
The top public SQL queries from the community will appear here once available.