id
stringlengths 1
4
| tokens
list | ner_tags
list |
---|---|---|
4900
|
[
"This",
"gave",
"rise",
"to",
"a",
"relatively",
"new",
"research",
"area",
"within",
"the",
"emerging",
"field",
"of",
"Textto-Text",
"Generation",
"(",
"TTG",
")",
"called",
"Multiple-Choice",
"Test",
"Item",
"Generation",
"(",
"MCTIG",
")",
".1"
] |
[
0,
0,
0,
3,
3,
0,
0,
0,
0,
0,
0,
0,
0,
0,
4,
4,
0,
1,
0,
0,
4,
4,
4,
4,
0,
1,
0,
0
] |
4901
|
[
"We",
"extend",
"the",
"SPARSELDA",
"(",
"Yao",
"et",
"al",
",",
"2009",
")",
"inference",
"scheme",
"for",
"latent",
"Dirichlet",
"alocation",
"(",
"LDA",
")",
"to",
"tree-based",
"topic",
"models",
"."
] |
[
0,
0,
0,
1,
0,
0,
3,
4,
0,
0,
0,
0,
0,
0,
4,
4,
4,
0,
2,
0,
0,
0,
0,
0,
0
] |
4902
|
[
"For",
"each",
"IDR",
"triple",
"all",
"the",
"object",
"grammar",
"triples",
"are",
"generated",
"whose",
"CF-PS",
"rules",
"conform",
"with",
"the",
"linear",
"precedence",
"(",
"LP",
")",
"rules",
",",
"the",
"fourth",
"rule",
"set",
"of",
"the",
"metagrammar",
"."
] |
[
0,
0,
1,
0,
0,
0,
0,
0,
0,
0,
0,
0,
1,
0,
0,
0,
0,
3,
0,
0,
1,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0
] |
4903
|
[
"SVO",
"=",
"Subject-Verb-Object",
"GE",
"=",
"General",
"Event",
"PE",
"=",
"Predefined",
"Event",
"Grammar",
"Module"
] |
[
1,
0,
3,
1,
0,
3,
4,
1,
0,
4,
4,
0,
0
] |
4904
|
[
"For",
"all",
"NER",
"experiments",
",",
"we",
"use",
"a",
"sequential",
"firstorder",
"conditional",
"random",
"field",
"(",
"CRF",
")",
"with",
"a",
"unit",
"variance",
"Normal",
"prior",
",",
"trained",
"with",
"L-BFGS",
"until"
] |
[
0,
0,
0,
0,
0,
0,
0,
3,
0,
0,
0,
4,
4,
0,
0,
1,
0,
4,
0,
0,
0,
0,
0,
0,
0,
0,
0
] |
4905
|
[
"the",
"titles",
"of",
"the",
"entity",
"articles",
"titles",
"(",
"e",
")",
"to",
"represent",
"the",
"entities",
"in",
"the",
"query",
"and",
"two",
"ranking",
"functions",
",",
"Recursive",
"TFISF",
"(",
"R-TFISF",
")",
"and",
"LC",
",",
"3"
] |
[
0,
0,
0,
0,
0,
0,
0,
0,
3,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
4,
4,
0,
2,
0,
0,
1,
0,
0
] |
4906
|
[
"Text5",
"holiday",
"(",
"0.432",
")",
"humor",
"(",
"0.23",
")",
"0.099",
"blues",
"(",
"0.15",
")",
"Table",
"2",
":",
"Percent",
"Agreement",
"(",
"PA",
")",
"to",
"manually",
"extracted",
"index",
"terms"
] |
[
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
3,
0,
0,
1,
0,
0,
0,
0,
0,
0
] |
4907
|
[
"The",
"score",
"of",
"an",
"abstract",
"based",
"on",
"extracted",
"PICO",
"elements",
",",
"SPICO",
",",
"is",
"broken",
"into",
"individual",
"components",
"according",
"to",
"the",
"following",
"formula",
":",
"SPICO",
"=",
"Sproblem",
"+",
"Spopulation",
"+",
"Sintervention",
"+",
"Soutcome",
"(",
"4",
")",
"The",
"first",
"component",
"in",
"the",
"equation",
",",
"Sproblem",
",",
"reflects",
"a",
"match",
"between",
"the",
"primary"
] |
[
0,
0,
0,
0,
0,
0,
3,
0,
1,
0,
0,
2,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
2,
0,
4,
4,
4,
4,
4,
4,
4,
0,
0,
0,
0,
0,
0,
4,
0,
0,
0,
4,
0,
0,
4,
0,
0,
0,
0
] |
4908
|
[
"3.3.1",
"Determinantal",
"Point",
"Processes",
"Determinantal",
"point",
"processes",
"(",
"DPPs",
")",
"are",
"distributions",
"over",
"subsets",
"that",
"jointly",
"prefer",
"quality",
"of"
] |
[
0,
0,
0,
0,
0,
3,
4,
0,
0,
1,
0,
0,
0,
0,
0,
0,
0,
0,
0
] |
4909
|
[
"They",
"use",
"Only",
"Word-Seg",
"(",
"OWS",
")",
",",
"Whole",
"Layer",
"Weight",
"(",
"WLW",
")",
",",
"SC",
"(",
"SC",
")",
"and",
"FeedBack",
"mechanism",
"(",
"FB",
")",
"separately",
"."
] |
[
0,
0,
0,
3,
0,
0,
1,
0,
0,
0,
0,
0,
0,
2,
0,
0,
0,
0,
2,
0,
0,
0,
0,
0,
2,
0,
0
] |
4910
|
[
"In",
"Proceedings",
"of",
"the",
"11th",
"International",
"Joint",
"Conference",
"on",
"Artificial",
"Intelligence",
"(",
"IJCAI-89",
")",
",",
"volume",
"2",
",",
"pages",
"1511",
"?",
"1517",
"."
] |
[
3,
0,
0,
0,
0,
4,
4,
4,
4,
4,
4,
0,
1,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0
] |
4911
|
[
"Similarity",
"function",
"We",
"consider",
"two",
"similarity",
"functions",
":",
"The",
"Lin",
"(",
"2001",
")",
"similarity",
"measure",
",",
"and",
"the",
"Balanced",
"Inclusion",
"(",
"BInc",
")",
"similarity",
"measure",
"(",
"Szpektor",
"and",
"Dagan",
",",
"2008",
")",
"."
] |
[
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
3,
4,
0,
1,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0
] |
4912
|
[
"wsj_1286",
")",
")",
"In",
"addition",
"to",
"the",
"semantic",
"roles",
"described",
"in",
"the",
"rolesets",
",",
"verbs",
"can",
"take",
"any",
"of",
"a",
"set",
"of",
"general",
",",
"adjunct-like",
"arguments",
"(",
"ArgMs",
")",
",",
"distinguished",
"by",
"one",
"of",
"the",
"function",
"tags",
"shown",
"in",
"Table",
"1",
"."
] |
[
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
3,
0,
0,
0,
0,
0,
4,
0,
1,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0
] |
4913
|
[
"Under",
"the",
"former",
",",
"they",
"include",
"personal",
"pronouns",
",",
"sentential",
"``",
"i",
"t",
",",
"''",
"and",
"null-comple-",
"ment",
"anaphora",
",",
"and",
"under",
"the",
"latter",
",",
"verb",
"phrase",
"(",
"VP",
")",
"ellipsis",
",",
"sluicing",
",",
"gapping",
",",
"and",
"stripping",
"."
] |
[
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
3,
4,
0,
1,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0
] |
4914
|
[
"4",
"Crowd-sourcing",
"Multiple-choice",
"Questions",
"from",
"Tables",
"We",
"use",
"Amazon",
"?",
"s",
"Mechanical",
"Turk",
"(",
"MTurk",
")",
"service",
"to",
"generate",
"MCQs",
"by",
"imposing",
"constraints"
] |
[
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
1,
3,
4,
0,
2,
0,
0,
0,
0,
2,
0,
0,
0
] |
4915
|
[
"a",
"directed",
"acyclic",
"graph",
",",
"and",
"a",
"set",
"of",
"conditionnal",
"probablities",
",",
"each",
"node",
"being",
"represented",
"as",
"a",
"Random",
"Variable",
"(",
"RV",
")",
".",
"Parametrizing",
"the",
"BN"
] |
[
3,
0,
0,
0,
0,
4,
4,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
4,
4,
4,
0,
1,
0,
0,
0,
0,
1
] |
4916
|
[
"Threshold",
"is",
"a",
"function",
"of",
"Length",
"(",
"LR",
")",
"and",
"text",
"size",
".",
"The",
"basic",
"idea",
"is",
"larger",
"amount",
"of",
"length",
"(",
"LR",
")",
"or",
"text",
"size",
"matches",
"larger",
"amount",
"of",
"Threshold",
"."
] |
[
0,
0,
1,
0,
0,
0,
3,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
4,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0
] |
4917
|
[
"mid",
"method",
"in",
"DUC",
"2005",
".",
"Proceedings",
"of",
"the",
"5th",
"Document",
"Understanding",
"Conference",
"(",
"DUC",
")",
".",
"Van-"
] |
[
0,
0,
3,
1,
0,
0,
0,
0,
0,
0,
4,
4,
4,
0,
2,
0,
0,
0
] |
4918
|
[
"on",
"the",
"guidance",
"of",
"domain",
"experts",
",",
"who",
"can",
"devise",
"pedagogically",
"valuable",
"reading",
"lists",
"that",
"order",
"docAutomatic",
"Speech",
"Recognition",
"(",
"ASR",
")",
"with",
"HMMs",
"Noisy",
"Channel",
"Model",
"Viterbi",
"Decoding",
"for",
"ASR"
] |
[
3,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
4,
4,
0,
1,
0,
0,
0,
0,
0,
0,
0,
0,
0,
2
] |
4919
|
[
"ing",
"(",
"NLP",
")",
"applications",
".",
"In",
"Information",
"Retrieval",
"(",
"IR",
")",
"and",
"Question",
"Answering",
"(",
"QA",
")",
"it",
"is",
"typically",
"termed",
"query/question",
"expansion",
"(",
"Moldovan",
"and"
] |
[
3,
0,
1,
0,
0,
0,
3,
4,
4,
0,
1,
0,
0,
4,
4,
0,
1,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0
] |
4920
|
[
"In",
"sum",
",",
"the",
"text-to-text",
"similarity",
"measure",
"combined",
"with",
"our",
"sentence-level",
"sen-timent",
"analysis",
"algorithm",
"helps",
"us",
"identify",
"the",
"representative",
"rationales",
"of",
"diverse",
"opinions",
"in",
"an",
"online",
"deliberation",
".",
"An",
"overview",
"of",
"our",
"meth-od",
"is",
"shown",
"in",
"Figure",
"1",
".",
"We",
"applied",
"our",
"method",
"in",
"analyzing",
"Wikipe-dia",
"Article",
"for",
"Deletion",
"(",
"AfD",
")",
"deliberation",
"con-tent",
".",
"Next",
"we",
"discuss",
"how",
"this",
"method",
"is",
"used",
"to",
"analyze",
"the",
"content",
"."
] |
[
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
3,
4,
4,
0,
1,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0
] |
4921
|
[
"computational",
"devices",
"for",
"natural",
"language",
"processing",
".",
"called",
"active",
"production",
"networks",
"(",
"APNs",
")",
",",
"and",
"explore",
"how",
"certain",
"kinds",
"of",
"movement",
"are",
"handled",
"."
] |
[
0,
0,
0,
0,
0,
0,
0,
0,
3,
4,
4,
0,
1,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0
] |
4922
|
[
"Figure",
"1",
":",
"Top-k",
"Accuracy",
"Level",
"Configuration",
"MRR",
"0",
"Baseline",
"(",
"BL",
")",
"0.6559",
"1"
] |
[
0,
0,
0,
0,
0,
0,
0,
1,
0,
3,
0,
1,
0,
0,
0
] |
4923
|
[
"mental",
"state",
"labels",
"that",
"are",
"highly",
"similar",
"to",
"the",
"context",
"of",
"the",
"scene",
"in",
"a",
"latent",
",",
"conceptual",
"vector",
"space",
";",
"and",
"an",
"information",
"retrieval",
"(",
"IR",
")",
"model",
"that",
"identifies",
"labels",
"commonly",
"appearing",
"in",
"sentences"
] |
[
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
3,
4,
0,
0,
0,
0,
0,
0,
0,
0,
4,
4,
0,
1,
0,
0,
0,
0,
0,
0,
0,
4,
0
] |
4924
|
[
"sentences",
"(",
"Sent",
".",
")",
",",
"the",
"number",
"of",
"tokens",
"(",
"Tokens",
")",
"and",
"the",
"unlabeled",
"attachment",
"score",
"(",
"UAS",
")",
"of",
"MST",
"."
] |
[
3,
0,
1,
0,
0,
0,
0,
0,
0,
3,
0,
1,
0,
0,
0,
3,
4,
4,
0,
1,
0,
0,
1,
0
] |
4925
|
[
"We",
"have",
"three",
"versions",
"of",
"reference",
"summaries",
"based",
"on",
"summarization",
"ratio",
"(",
"SR",
")",
":",
"10",
"%",
",",
"15",
"%",
"and",
"20",
"%",
"respectively",
"."
] |
[
0,
0,
0,
0,
0,
0,
0,
0,
3,
0,
4,
4,
0,
1,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0
] |
4926
|
[
"particularly",
"helpful",
"in",
"parsing",
"where",
"the",
"sequence",
"of",
"words",
"forming",
"the",
"MWE",
"is",
"treated",
"as",
"a",
"single",
"word",
"with",
"a",
"single",
"part",
"of",
"speech",
"(",
"POS",
")",
"tag",
".",
"MWE"
] |
[
0,
0,
0,
0,
0,
0,
0,
3,
0,
0,
0,
1,
0,
0,
0,
4,
0,
0,
0,
4,
0,
4,
4,
4,
0,
1,
0,
0,
0,
2
] |
4927
|
[
"1",
"Introduction",
"Machine",
"translation",
"(",
"MT",
")",
"systems",
"have",
"different",
"strengths",
"and",
"weaknesses",
"which",
"can",
"be",
"exploited"
] |
[
0,
0,
0,
3,
0,
0,
1,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0
] |
4928
|
[
"To",
"tackle",
"this",
"challenge",
",",
"we",
"incorporate",
"multiple",
"graphs",
"probabilistic",
"factorization",
"with",
"two",
"alternatively",
"designed",
"combination",
"strategies",
"into",
"collaborative",
"topic",
"regression",
"(",
"CTR",
")",
".",
"Experimental",
"results",
"on",
"real",
"dataset",
"demonstrate"
] |
[
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
3,
4,
4,
0,
1,
0,
0,
0,
0,
4,
0,
0,
0
] |
4929
|
[
"operating",
"system",
".",
"For",
"production",
"deployment",
"we",
"used",
"Message",
"Driven",
"Beans",
"(",
"MDBs",
")",
"using",
"IBM",
"Websphere",
"Application",
"Server",
"?",
"("
] |
[
0,
0,
0,
0,
0,
0,
0,
0,
3,
4,
4,
0,
1,
0,
0,
1,
0,
0,
0,
0,
0
] |
4930
|
[
"But",
",",
"it",
"is",
"observed",
"that",
"the",
"identification",
"of",
"lexical",
"scopes",
"of",
"compound",
"verbs",
"(",
"CompVs",
")",
"and",
"conjunct",
"verbs",
"(",
"ConjVs",
")",
"from",
"long",
"sequence",
"of",
"successive",
"Complex",
"Predicates"
] |
[
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
3,
4,
0,
1,
0,
0,
4,
4,
0,
1,
0,
0,
0,
0,
0,
0,
0,
0
] |
4931
|
[
"lowing",
"rules",
"are",
"used",
"in",
"the",
"detailed",
"example",
".",
"if",
"tense",
"of",
"el",
"and",
"of",
"e2",
"is",
"simple",
"past",
"(",
"SP",
")",
"with",
"perfective",
"AP",
"tben",
"there",
"is",
"justification",
"for"
] |
[
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
3,
4,
0,
1,
0,
0,
0,
1,
0,
0,
0,
0,
0
] |
4932
|
[
"3",
"Chinese",
"NER",
"Using",
"CRFs",
"Model",
"Integrating",
"Multiple",
"Features",
"Besides",
"the",
"text",
"feature",
"(",
"TXT",
")",
",",
"simplified",
"part-ofspeech",
"(",
"POS",
")",
"feature",
",",
"and",
"small-vocabulary-"
] |
[
0,
0,
1,
0,
1,
0,
0,
0,
0,
0,
0,
3,
4,
0,
1,
0,
0,
0,
3,
0,
1,
0,
4,
0,
0,
0
] |
4933
|
[
"In",
"a",
"second",
"step",
",",
"unmatched",
"words",
"are",
"converted",
"into",
"stems",
"or",
"synonyms",
"and",
"then",
"matched",
".",
"A",
"method",
"that",
"uses",
"the",
"concept",
"of",
"maximum",
"matching",
"string",
"(",
"MMS",
")",
"is",
"presented",
"by",
"Turian",
",",
"Shen",
",",
"and",
"Melamed",
"(",
"2003",
")",
"."
] |
[
0,
3,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
4,
4,
4,
0,
1,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0
] |
4934
|
[
"LMs",
"by",
"perplexity",
"(",
"PPL",
")",
".",
"We",
"use",
"the",
"Wall",
"Street",
"Journal",
"(",
"WSJ",
")",
"portion",
"of",
"Penn",
"Treebank",
"(",
"PTB",
")",
"."
] |
[
1,
0,
3,
0,
1,
0,
0,
0,
0,
0,
3,
4,
4,
0,
1,
0,
0,
0,
3,
4,
0,
1,
0,
0
] |
4935
|
[
"We",
"evaluate",
"the",
"following",
"two",
"search",
"algorithms",
":",
"?",
"beam",
"search",
"algorithm",
"(",
"BS",
")",
":",
"(",
"Tillmann",
",",
"2001",
";",
"Tillmann",
"and",
"Ney",
",",
"2000",
")"
] |
[
0,
0,
0,
0,
0,
3,
0,
0,
0,
4,
4,
0,
0,
1,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0
] |
4936
|
[
"In",
"Proceedings",
"of",
"the",
"23rd",
"International",
"Conference",
"on",
"Computational",
"Linguistics",
"(",
"COLING",
"?",
"10",
")",
",",
"pages",
"617",
"?"
] |
[
0,
0,
0,
0,
0,
0,
0,
3,
4,
4,
0,
1,
2,
2,
0,
0,
0,
0,
2
] |
4937
|
[
"Translation",
"retrieval",
"(",
"TR",
")",
"is",
"a",
"description",
"of",
"this",
"process",
"of",
"selecting",
"from",
"the",
"TM",
"a",
"set",
"of",
"translation",
"records",
"(",
"TRecs",
")",
"of",
"maximum",
"L1",
"similarity",
"to",
"a",
"given",
"input",
"."
] |
[
3,
4,
0,
1,
0,
0,
4,
0,
0,
0,
0,
0,
0,
0,
0,
1,
4,
0,
0,
4,
4,
0,
2,
0,
0,
0,
0,
0,
0,
4,
0,
0,
0
] |
4938
|
[
"2",
"Abstract",
"Syntax",
"Trees",
"We",
"describe",
"abstract",
"syntax",
"trees",
"(",
"ASTs",
")",
"using",
"an",
"example",
"from",
"CFR",
"Section",
"610.11",
":"
] |
[
0,
0,
0,
0,
0,
0,
0,
3,
4,
0,
0,
1,
0,
0,
0,
0,
0,
0,
0,
0
] |
4939
|
[
"1.1",
"Language",
"Modeling",
"Formally",
",",
"a",
"language",
"model",
"(",
"LM",
")",
"is",
"a",
"probability",
"distribution",
"over",
"strings",
"of",
"a",
"language",
":"
] |
[
0,
0,
0,
0,
0,
3,
0,
4,
0,
0,
1,
0,
4,
0,
0,
0,
0,
0,
4,
0,
0
] |
4940
|
[
"First",
"Paragraph",
"(",
"FPAR",
")",
":",
"We",
"examined",
"several",
"hundred",
"pages",
",",
"and",
"observed",
"that",
"a",
"human",
"could"
] |
[
0,
3,
4,
0,
1,
2,
0,
0,
0,
0,
0,
0,
0,
0,
0,
4,
0,
0
] |
4941
|
[
"We",
"used",
"1300",
"texts",
"(",
"DEV",
")",
"as",
"our",
"training",
"set",
",",
"200",
"texts",
"(",
"TST1+TST2",
")",
"for",
"tuning",
",",
"and",
"200",
"texts",
"(",
"TST3+TST4",
")",
"as",
"a",
"test",
"set",
".",
"All",
"1700",
"docu-"
] |
[
0,
0,
0,
3,
0,
0,
0,
0,
0,
0,
0,
0,
0,
4,
0,
0,
0,
0,
0,
0,
0,
0,
4,
0,
1,
0,
0,
0,
0,
0,
0,
0,
0,
0
] |
4942
|
[
"tion",
"task",
"which",
"involves",
"acquiring",
"patterns",
"in",
"the",
"distribution",
"of",
"opinion-bearing",
"words",
"and",
"targets",
"using",
"machine",
"learning",
"(",
"ML",
")",
"techniques",
".",
"In",
"partic-"
] |
[
0,
0,
0,
0,
0,
0,
3,
0,
0,
0,
0,
0,
0,
0,
0,
4,
4,
0,
1,
0,
0,
0,
0,
0
] |
4943
|
[
"Given",
"these",
"restrictions",
"the",
"DAR",
"problem",
"becomes",
"to",
"find",
"that",
"value",
"da",
"of",
"DA",
"that",
"maximises",
"P",
"(",
"DA",
"=",
"da",
"|",
"f1",
"=",
"v1",
",",
".",
".",
".",
",",
"fn",
"=",
"vn",
","
] |
[
0,
0,
0,
0,
1,
0,
0,
0,
0,
0,
0,
3,
0,
1,
0,
0,
0,
0,
2,
0,
4,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0
] |
4944
|
[
"1",
"Introduction",
"Question",
"Answering",
"(",
"QA",
")",
"from",
"structured",
"data",
",",
"such",
"as",
"DBPedia",
"(",
"Auer",
"et",
"al.",
","
] |
[
0,
0,
0,
3,
0,
0,
1,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0
] |
4945
|
[
"They",
"found",
"that",
"using",
"a",
"combination",
"of",
"all",
"the",
"features",
"in",
"a",
"Support",
"Vector",
"Machine",
"(",
"SVM",
")",
",",
"they",
"can",
"obtain",
"an",
"accuracy",
"of",
"80",
"%",
"in",
"the",
"classification",
"of",
"5",
"differ-"
] |
[
0,
0,
0,
0,
3,
0,
0,
0,
0,
0,
4,
4,
4,
4,
4,
0,
1,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
4,
0,
0,
0,
0,
0
] |
4946
|
[
"One",
"application",
"area",
"of",
"increasing",
"interest",
"is",
"information",
"extraction",
"(",
"IE",
")",
"(",
"see",
",",
"e.g.",
",",
"Cowie",
"and",
"Lehnert",
"(",
"1996",
")",
")",
"."
] |
[
0,
0,
0,
0,
0,
0,
0,
0,
3,
0,
0,
1,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
2,
2,
0
] |
4947
|
[
"?",
"Reduce",
"(",
"RE",
")",
":",
"Pop",
"the",
"stack",
"."
] |
[
0,
0,
3,
0,
1,
0,
0,
0,
0,
0
] |
4948
|
[
"PP",
"Fu",
"?",
"r",
"diese",
"Behauptung",
"has",
"the",
"grammatical",
"function",
"OAMOD",
",",
"which",
"indicates",
"that",
"it",
"is",
"a",
"modifier",
"(",
"MOD",
")",
"of",
"a",
"direct",
"object",
"(",
"OA",
")",
"elsewhere",
"in",
"the",
"structure",
"(",
"in",
"this",
"case",
"keinen"
] |
[
1,
0,
0,
3,
0,
0,
0,
0,
0,
0,
1,
0,
0,
0,
0,
0,
0,
3,
4,
0,
2,
0,
4,
4,
0,
0,
0,
2,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0
] |
4949
|
[
"Pierre",
"PN",
"Note",
"that",
"a",
"preposition",
"(",
"PR",
")",
"with",
"lemma",
"de",
"and",
"a",
"determiner",
"(",
"DT",
")",
"with",
"lemma",
"le",
"and",
"the",
"same",
"gender",
"and",
"number",
"as",
"the",
"common",
"noun",
"have",
"been"
] |
[
0,
1,
0,
0,
0,
3,
0,
1,
0,
0,
0,
3,
0,
0,
4,
0,
1,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0
] |
4950
|
[
"AT",
"&",
"T",
"Labs-Research",
"Abstract",
"Statistical",
"Machine",
"Translation",
"(",
"SMT",
")",
"systems",
"are",
"heavily",
"dependent",
"on",
"the",
"qual-"
] |
[
1,
2,
3,
0,
0,
4,
4,
4,
0,
2,
0,
0,
0,
0,
0,
4,
0,
0
] |
4951
|
[
"template",
"includes",
",",
"for",
"each",
"sentence",
",",
"syntactic",
"Infor-",
"mation",
"that",
"Is",
"represented",
"in",
"a",
"tree",
"whose",
"nodes",
"are",
"syntacti~",
"categories",
"such",
"as",
"S",
"(",
"sentence",
")",
",",
"CL",
"(",
"clause",
")",
",",
"SUBJECT",
"or",
"VERB",
"."
] |
[
0,
0,
0,
0,
0,
3,
0,
0,
0,
0,
0,
0,
0,
0,
3,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
4,
0,
0,
1,
0,
4,
0,
0,
0,
0,
0,
0
] |
4952
|
[
"Ph",
"i",
"lade",
"lph",
"ia",
",",
"PA",
"191C4",
".ABSTRACT",
"Tree",
"Adjoining",
"Grammar",
"(",
"TAG",
")",
"is",
"a",
"formalism",
"for",
"natural",
"language",
"grammars",
"."
] |
[
3,
4,
4,
4,
4,
0,
1,
0,
0,
4,
4,
4,
0,
1,
0,
0,
4,
0,
0,
0,
0,
0,
0
] |
4953
|
[
"LL",
";",
"it",
"is",
"calculated",
"from",
"contingency",
"table",
"information",
"as",
"follows",
":",
"LO",
"=",
"log",
"(",
"O11",
"+",
"0.5",
")",
"(",
"O22",
"+",
"0.5",
")"
] |
[
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
1,
0,
3,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0
] |
4954
|
[
"Hyderabad",
",",
"India",
"Abstract",
"Named",
"Entity",
"Recognition",
"(",
"NER",
")",
"is",
"the",
"task",
"of",
"identifying",
"and",
"classifying",
"all",
"proper"
] |
[
0,
0,
0,
0,
3,
4,
4,
0,
1,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0
] |
4955
|
[
"ADEPT",
"tags",
"documents",
"in",
"a",
"uniform",
"fashion",
",",
"using",
"Standard",
"Generalized",
"Markup",
"(",
"SGML",
")",
"according",
"to",
"OIR",
"standards",
"."
] |
[
0,
0,
0,
0,
3,
0,
0,
0,
0,
0,
4,
4,
0,
0,
1,
0,
0,
0,
0,
0
] |
4956
|
[
"with",
"one",
"object",
"sentences",
"(",
"IMP_VNP",
")",
",",
"V_NP_PP",
"agentless",
"passive",
"sentences",
"(",
"PAS_VNPP",
")",
",",
"V_NP",
"bypassives",
"(",
"BYPAS_VN",
")",
",",
"and",
"N_PP",
"clauses",
"(",
"NPP",
")",
"and",
"these",
"are",
"all",
"decisions",
"that",
"happen",
"in",
"the",
"realiser",
","
] |
[
0,
0,
0,
3,
0,
1,
0,
0,
1,
4,
4,
4,
0,
1,
0,
0,
4,
4,
0,
1,
0,
0,
0,
3,
0,
0,
2,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0
] |
4957
|
[
"of",
"spoken",
"dialogue",
"systems",
"is",
"database",
"retrieval",
".",
"Some",
"IVR",
"(",
"interactive",
"voice",
"response",
")",
"systems",
"using",
"the",
"speech",
"recognition",
"technology",
"are",
"being",
"put"
] |
[
0,
0,
0,
0,
0,
0,
0,
0,
0,
1,
0,
3,
4,
4,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0
] |
4958
|
[
"the",
"left",
"hand",
"side",
"(",
"LHS",
")",
"of",
"the",
"rule",
",",
"and",
"?",
"the",
"right",
"hand",
"side",
"(",
"RHS",
")",
"of",
"the",
"rule",
"."
] |
[
0,
3,
4,
4,
0,
1,
0,
0,
0,
0,
0,
4,
0,
0,
4,
4,
4,
0,
1,
0,
0,
0,
0,
0
] |
4959
|
[
"provement",
"against",
"Naive",
"Bayes",
"was",
"reported",
".",
"Our",
"proposed",
"model",
",",
"tag",
"guided",
"RNN",
"(",
"TG-RNN",
")",
",",
"is",
"designed",
"to",
"use",
"the",
"syntactic",
"tag",
"of",
"the",
"parent"
] |
[
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
3,
4,
4,
0,
2,
0,
0,
0,
0,
0,
0,
0,
0,
4,
0,
0,
0
] |
4960
|
[
"ME",
"Classification",
"ME",
"(",
"Maximum",
"Entropy",
")",
"classification",
"is",
"used",
"here",
"to",
"directly",
"estimate",
"the",
"posterior",
"probability",
"for"
] |
[
0,
0,
0,
1,
0,
3,
4,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0
] |
4961
|
[
"mentary",
"and",
"United",
"Nations",
"parallel",
"corpora",
".",
"The",
"semantic",
"phrase",
"table",
"(",
"SPT",
")",
"was",
"extracted",
"from",
"the",
"same",
"corpora",
"annotated",
"with",
"FreeLing",
"(",
"Carreras",
"et"
] |
[
0,
0,
0,
0,
0,
0,
0,
0,
3,
4,
4,
0,
1,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0
] |
4962
|
[
"In",
"particular",
",",
"we",
"use",
"transition",
"probability",
"and",
"emission",
"probability",
"in",
"Hidden",
"Markov",
"Model",
"(",
"HMM",
")",
"(",
"Leek",
",",
"1997",
")",
"to",
"capture",
"this",
"dependency",
"."
] |
[
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
3,
4,
4,
0,
1,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0
] |
4963
|
[
"What",
"we",
"describe",
"is",
"part",
"of",
"a",
"theory",
"of",
"language",
"(",
"knowledge",
"and",
"processing",
")",
"called",
"Word",
"Grammar",
"(",
"WG",
")",
"(",
"Hudson",
"1984",
";",
"1990",
")",
".",
"Section",
"2",
"introduces",
"the",
"knowledge"
] |
[
0,
0,
0,
0,
0,
0,
3,
0,
0,
0,
0,
0,
0,
0,
1,
0,
0,
4,
0,
0,
2,
0,
0,
0,
0,
0,
2,
0,
0,
0,
0,
0,
0
] |
4964
|
[
"er",
"positions",
"less",
"than",
"the",
"penalty",
"of",
"reordering",
"the",
"first",
"ranks",
".",
"iii",
")",
":",
"Weighted",
"Normalized",
"Discounted",
"Cumulative",
"Gain",
"(",
"WNDCG",
")",
":",
"NDCG",
"(",
"Moffat",
"and",
"Zobel",
",",
"2008",
")",
"normally",
"compares",
"the",
"rankings",
"of",
"two",
"lists",
"."
] |
[
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
3,
4,
4,
4,
4,
0,
1,
0,
0,
1,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0
] |
4965
|
[
"consider",
"in",
"(",
"14",
")",
"five",
"salient",
"phases",
"of",
"the",
"passage",
":",
"at",
"the",
"beginning",
"of",
"the",
"process",
",",
"the",
"parts",
"of",
"river",
"are",
"localized",
"to",
"the",
"exterior",
"EXT",
"(",
"LOC",
")",
",",
"then",
"to",
"the",
"boundary",
"FRO",
"(",
"LOC",
")",
",",
"they",
"arrive",
"in"
] |
[
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
3,
0,
0,
0,
1,
0,
1,
0,
0,
0,
0,
0,
0,
1,
0,
2,
0,
0,
0,
0,
0
] |
4966
|
[
"and",
"normalizing",
"it",
"with",
"a",
"view",
"to",
"discriminate",
"the",
"importance",
"of",
"words",
"across",
"documents",
"and",
"then",
"approximating",
"it",
"using",
"singular",
"value",
"decomposition",
"(",
"SVD",
")",
"in",
"R",
"dimensions",
"(",
"Bellegarda",
",",
"2000",
")",
"."
] |
[
0,
0,
3,
0,
4,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
4,
0,
4,
4,
0,
0,
1,
0,
4,
0,
0,
0,
0,
0,
0,
0,
0
] |
4967
|
[
"2.85",
"0.001",
"8",
"29",
".",
"(",
"VP",
"(",
"VBP",
"?",
"NEED",
"?",
")",
"("
] |
[
0,
0,
0,
0,
0,
0,
1,
0,
3,
0,
0,
0,
0,
0
] |
4968
|
[
"To",
"estimate",
"the",
"weights",
"?",
"i",
"in",
"formula",
"(",
"1",
")",
",",
"we",
"use",
"Minimum",
"Error",
"Rate",
"Training",
"(",
"MERT",
")",
"algorithm",
",",
"which",
"is",
"widely",
"used",
"for",
"phrase-based"
] |
[
0,
0,
0,
0,
0,
3,
4,
0,
0,
0,
0,
0,
0,
0,
4,
4,
4,
4,
0,
1,
0,
0,
0,
0,
0,
0,
0,
0,
0
] |
4969
|
[
"al.",
",",
"2013",
")",
",",
"containing",
"essays",
"written",
"by",
"students",
"at",
"the",
"National",
"University",
"of",
"Singapore",
"(",
"NUS",
")",
"which",
"have",
"been",
"manually",
"corrected",
"by",
"English",
"instruc-"
] |
[
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
3,
0,
4,
4,
4,
4,
0,
1,
0,
0,
0,
0,
0,
0,
0,
0,
0
] |
4970
|
[
"3.4",
"The",
"NATO",
"Research",
"Study",
"Group",
"on",
"Speech",
"Process",
"ing",
"The",
"North",
"Atlantic",
"Treaty",
"Organization",
"(",
"NATO",
")",
"Re-",
"search",
"Study",
"Group",
"on",
"Speech",
"Processing",
"(",
"RSG10",
")",
"\\",
"[",
"87\\",
"]",
","
] |
[
0,
0,
1,
0,
3,
4,
4,
4,
4,
4,
0,
4,
4,
4,
4,
0,
2,
0,
4,
4,
4,
4,
4,
4,
4,
0,
1,
0,
0,
0,
0,
0,
0
] |
4971
|
[
"Abstract",
"One",
"of",
"the",
"most",
"neglected",
"areas",
"of",
"biomedical",
"Text",
"Mining",
"(",
"TM",
")",
"is",
"the",
"development",
"of",
"systems",
"based",
"on",
"carefully",
"assessed",
"user"
] |
[
0,
0,
0,
0,
0,
0,
0,
0,
0,
3,
4,
0,
1,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0
] |
4972
|
[
"question",
"answering",
"(",
"QA",
")",
".",
"However",
",",
"few",
"models",
"in",
"ad",
"hoc",
"information",
"retrieval",
"(",
"IR",
")",
"use",
"paths",
"for",
"document",
"ranking",
"due",
"to"
] |
[
3,
4,
0,
1,
0,
0,
0,
0,
0,
0,
4,
0,
0,
4,
4,
0,
1,
0,
0,
0,
4,
0,
0,
0,
0
] |
4973
|
[
"?",
"Adjuncts",
"(",
"AM-",
")",
":",
"General",
"arguments",
"that",
"any",
"verb",
"may",
"take",
"optionally",
"."
] |
[
0,
0,
0,
0,
1,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0
] |
4974
|
[
"ing",
"is",
"how",
"to",
"identify",
"a",
"temporal",
"relation",
"between",
"a",
"pair",
"of",
"temporal",
"entities",
"such",
"as",
"events",
"(",
"EVENT",
")",
"and",
"time",
"expressions",
"(",
"TIMEX",
")",
"in",
"a",
"narrative",
".",
"Af-"
] |
[
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
3,
4,
0,
1,
0,
0,
0,
0,
0,
0
] |
4975
|
[
"The",
"obtained",
"Japanese",
"scores",
"as",
"compared",
"to",
"the",
"scores",
"from",
"the",
"initial",
"English",
"experiment",
"(",
"E-E-E",
")",
"are",
"shown",
"in",
"Figure",
"6",
"."
] |
[
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
3,
0,
0,
1,
0,
0,
0,
0,
0,
0
] |
4976
|
[
"word",
"if",
"it",
"exceeds",
"a",
"certain",
"threshold",
".",
"4.2",
"LDA",
"Graph",
"Method",
"(",
"LDA-GM",
")",
"The",
"LDA-GM",
"algorithm",
"creates",
"a",
"similarity",
"graph"
] |
[
0,
0,
0,
0,
3,
0,
0,
0,
0,
4,
4,
4,
0,
2,
0,
0,
2,
0,
0,
4,
0,
0
] |
4977
|
[
"English",
"using",
"the",
"frequency",
"dictionary",
"of",
"Arabic",
"(",
"Buckwalter",
"and",
"Parkinson",
",",
"2011",
")",
"and",
"the",
"Corpus",
"of",
"Contemporary",
"American",
"English",
"(",
"COCA",
")",
"top",
"5,000",
"words",
"(",
"Davies",
",",
"2010",
")",
"."
] |
[
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
3,
4,
0,
0,
1,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0
] |
4978
|
[
"1",
"Introduction",
"Grammatical",
"Framework",
"(",
"GF",
")",
"(",
"Ranta",
",",
"2004",
")",
"is",
"a",
"grammar",
"formalism",
"designed",
"in",
"particular",
"to",
"serve"
] |
[
0,
0,
0,
3,
0,
0,
1,
0,
0,
0,
0,
2,
0,
4,
0,
0,
0,
0,
0,
0,
0
] |
4979
|
[
"Sentence",
")",
"and",
"McDonald",
"(",
"2006",
")",
"on",
"a",
"sentence-by-sentence",
"basis",
".",
"Table",
"1",
"shows",
"the",
"compression",
"rates",
"(",
"CompR",
")",
"for",
"the",
"three",
"systems",
"and",
"evaluates",
"the",
"quality",
"of",
"their",
"output",
"using",
"grammatical",
"relations",
"F1",
"."
] |
[
0,
0,
0,
0,
0,
0,
0,
3,
4,
0,
0,
0,
0,
0,
0,
0,
4,
4,
0,
1,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0
] |
4980
|
[
"A",
"statistical",
"classification",
"technique",
"based",
"on",
"the",
"use",
"of",
"Hidden",
"Markov",
"Models",
"(",
"HMM",
")",
"was",
"used",
"as",
"a",
"language",
"discriminator",
"."
] |
[
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
3,
4,
0,
0,
1,
0,
0,
0,
4,
0,
0,
0
] |
4981
|
[
"and",
"so",
"on",
".",
"Recently",
",",
"sequential",
"learning",
"methods",
",",
"such",
"as",
"hidden",
"Markov",
"models",
"(",
"HMMs",
")",
"and",
"conditional",
"random",
"fields",
"(",
"CRFs",
")",
",",
"have",
"been",
"used",
"suc-"
] |
[
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
3,
4,
4,
0,
1,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0
] |
4982
|
[
"In",
"this",
"section",
",",
"we",
"define",
"pomsets",
"as",
"a",
"model",
"for",
"describing",
"concurrency",
".",
"A",
"labelled",
"partial",
"order",
"(",
"LPO",
")",
"is",
"a",
"4",
"tuple",
"(",
"V",
",",
"?",
","
] |
[
0,
0,
0,
0,
0,
0,
0,
0,
3,
0,
0,
0,
0,
0,
0,
4,
4,
4,
0,
1,
0,
0,
4,
0,
0,
0,
0,
0,
0,
0
] |
4983
|
[
"Since",
"the",
"bilingual",
"corpus",
"is",
"only",
"aligned",
"at",
"the",
"document",
"level",
",",
"we",
"performed",
"sentence",
"alignment",
"using",
"the",
"Champollion",
"Tool",
"Kit",
"(",
"CTK",
")",
".4",
"After",
"removing",
"sentences",
"with",
"no",
"aligned",
"sentence",
",",
"a",
"total"
] |
[
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
3,
4,
4,
0,
1,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
4,
0
] |
4984
|
[
"toolkit",
"that",
"contains",
"a",
"suit",
"of",
"modules",
"for",
"generic",
"tasks",
"in",
"Natural",
"Language",
"Processing",
"(",
"NLP",
")",
",",
"Information",
"Retrieval",
"(",
"IR",
")",
",",
"and",
"Network",
"Analysis",
"(",
"NA",
")",
"."
] |
[
0,
0,
0,
3,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
4,
4,
0,
1,
0,
0
] |
4985
|
[
"based",
"chunking",
";",
"3",
".",
"MEMM-based",
"word",
"segmenter",
"with",
"Support",
"Vector",
"Machines",
"(",
"SVM",
")",
"-based",
"chunking",
"."
] |
[
0,
0,
0,
0,
0,
0,
0,
0,
0,
3,
4,
4,
0,
1,
0,
0,
0,
0
] |
4986
|
[
"2004",
")",
".",
"Accordingly",
",",
"we",
"define",
"in-NE",
"probability",
"to",
"help",
"delete",
"and",
"create",
"named",
"entities",
"(",
"NE",
")",
"."
] |
[
0,
0,
0,
0,
0,
0,
0,
1,
0,
0,
0,
0,
0,
0,
3,
4,
0,
2,
0,
0
] |
4987
|
[
"interpreters",
".",
"In",
"International",
"Conference",
"on",
"Learning",
"Representations",
"(",
"ICLR",
")",
"."
] |
[
0,
0,
3,
4,
4,
4,
4,
4,
0,
1,
0,
0
] |
4988
|
[
"Just",
"as",
"in",
"Figure",
"2",
",",
"the",
"initial",
"model",
"is",
"denoted",
"with",
"a",
"bold",
"symbol",
"in",
"the",
"left",
"part",
"of",
"the",
"plot",
".",
"Also",
"for",
"reference",
"the",
"relevant",
"Lexicon",
"1",
"accuracy",
"(",
"LEX",
"1",
")",
"is",
"denoted",
"with",
"a",
"?",
"at",
"the",
"far",
"right",
"."
] |
[
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
3,
4,
0,
0,
2,
4,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0
] |
4989
|
[
"(",
"e.g.",
",",
"hand",
",",
"heart",
",",
"blood",
",",
"DNA",
")",
"Diseases",
"and",
"Symptoms",
"(",
"DisSym",
")",
":",
"Diseases",
"and",
"symptoms",
"."
] |
[
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
1,
0,
3,
4,
0,
0,
2,
0,
0,
4,
0,
0
] |
4990
|
[
"ning",
"of",
"ORG",
"(",
"B-O",
")",
".",
"Many",
"of",
"them",
"are",
"mislabeled",
"as",
"O",
"and",
"beginning",
"of",
"location",
"(",
"B-L",
")",
",",
"resulting",
"low",
"recall",
"and",
"low",
"precision",
"for",
"ORG",
"."
] |
[
3,
4,
1,
0,
1,
0,
0,
0,
4,
0,
0,
0,
0,
2,
0,
4,
4,
4,
0,
1,
0,
0,
0,
0,
0,
0,
0,
0,
0,
2,
0
] |
4991
|
[
"Proceedings",
"of",
"the",
"3rd",
"Workshop",
"on",
"Hybrid",
"Approaches",
"to",
"Translation",
"(",
"HyTra",
")",
"@",
"EACL",
"2014",
",",
"pages",
"87",
"?",
"95",
",",
"Gothenburg",
",",
"Sweden",
",",
"April",
"27",
",",
"2014",
"."
] |
[
0,
0,
0,
0,
0,
3,
0,
4,
4,
4,
4,
0,
1,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0
] |
4992
|
[
"roles",
"they",
"typically",
"enter",
":",
"ACT",
"(",
"Actor",
")",
",",
"PAT",
"(",
"Patient",
")",
",",
"ADDR",
"(",
"Addressee",
")",
",",
"ORIG",
"(",
"Origin",
")",
"and",
"EFF",
"(",
"Effect",
")",
".",
"Syntactic",
"criteria",
"are",
"used",
"to",
"identify"
] |
[
0,
0,
0,
0,
0,
1,
0,
3,
0,
0,
1,
0,
3,
0,
0,
1,
0,
3,
0,
0,
1,
0,
3,
0,
0,
1,
0,
3,
0,
0,
0,
0,
0,
0,
4,
0
] |
4993
|
[
"other",
"models",
",",
"such",
"as",
"vector",
"space",
"model",
"(",
"VSM",
")",
",",
"Okapi",
"model",
"(",
"Robertson",
"et",
"al",
",",
"1994",
")",
"or",
"language",
"model",
"(",
"LM",
")",
".",
"The",
"pipeline",
"meth-"
] |
[
0,
0,
0,
0,
0,
3,
4,
4,
0,
1,
0,
0,
0,
4,
0,
0,
0,
0,
0,
0,
0,
4,
4,
4,
0,
1,
0,
0,
0,
0,
0
] |
4994
|
[
"the",
"identified",
"reading",
"level",
".",
"Text",
"plans",
"define",
"rules",
"on",
"Noun",
"Phrase",
"(",
"NP",
")",
"density",
"and",
"lexical",
"choice",
"."
] |
[
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
3,
4,
0,
1,
0,
0,
0,
0,
0,
0
] |
4995
|
[
"Not",
"Available",
"?",
".",
"OmegaWiki",
"(",
"OW",
")",
"is",
"a",
"freely",
"editable",
"online",
"dictionary",
"like",
"WKT",
"."
] |
[
0,
0,
0,
0,
3,
0,
1,
0,
0,
4,
0,
0,
0,
0,
0,
1,
0
] |
4996
|
[
"We",
"also",
"include",
"a",
"simple",
"baseline",
"that",
"selects",
"the",
"first",
"document",
"sentence",
"as",
"a",
"caption",
"and",
"show",
"the",
"average",
"caption",
"length",
"(",
"AvgLen",
")",
"for",
"each",
"model",
"."
] |
[
0,
0,
0,
3,
0,
0,
0,
0,
0,
0,
0,
0,
0,
4,
4,
0,
0,
0,
4,
4,
4,
0,
1,
0,
0,
0,
0,
0
] |
4997
|
[
"For",
"instance",
",",
"a",
"problem-tagged",
"entity",
"is",
"represented",
"as",
"a",
"first",
"word",
"tagged",
"B-P",
"(",
"begin",
"problem",
")",
"and",
"other",
"59"
] |
[
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
1,
0,
3,
4,
0,
0,
0,
0
] |
4998
|
[
"All",
"experiments",
"carried",
"out",
"in",
"this",
"study",
"are",
"for",
"the",
"English",
"(",
"EN",
")",
"-",
"French",
"(",
"FR",
")",
"language",
"pair",
"."
] |
[
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
3,
0,
1,
0,
0,
3,
0,
1,
0,
0,
0,
0
] |
4999
|
[
"pirical",
"study",
"for",
"text",
"classification",
"which",
"manipulates",
"data",
"using",
"two",
"well-known",
"machine",
"learning",
"techniques",
",",
"Naive",
"Bayes",
"(",
"NB",
")",
"and",
"Support",
"Vector",
"Machines",
"(",
"SVMs",
")",
"."
] |
[
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
3,
0,
0,
1,
0,
0,
3,
4,
4,
0,
1,
0,
0
] |
Subsets and Splits
No community queries yet
The top public SQL queries from the community will appear here once available.