id
stringlengths 1
4
| tokens
list | ner_tags
list |
---|---|---|
6000
|
[
"pseudo-terms",
"?",
".",
"We",
"also",
"discuss",
"the",
"use",
"of",
"Hidden",
"Markov",
"Models",
"(",
"HMMs",
")",
"to",
"capture",
"contextual",
"information",
"."
] |
[
0,
0,
0,
0,
0,
0,
0,
0,
0,
3,
4,
4,
0,
1,
0,
0,
0,
0,
0,
0
] |
6001
|
[
"Afterward",
"we",
"name",
"the",
"TD",
"composed",
"of",
"words",
"from",
"gold",
"training",
"set",
"and",
"tagged",
"test",
"set",
"and",
"as",
"Na",
"?",
"?",
"ve",
"TD",
"(",
"NTD",
")",
"for",
"its",
"unbalanced",
"coverage",
"in",
"training",
"and",
"test",
"set",
"."
] |
[
0,
0,
0,
0,
3,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
4,
4,
4,
4,
4,
0,
2,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0
] |
6002
|
[
"819",
"location",
"(",
"LO",
")",
"of",
"the",
"incident",
"(",
"e.g",
".",
"airport",
"name",
")",
",",
"and",
"the",
"country",
"(",
"CO",
")",
"where",
"the",
"incident",
"occurred",
"."
] |
[
0,
3,
0,
1,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
3,
0,
1,
0,
0,
0,
0,
0,
0
] |
6003
|
[
"~",
"I",
"n",
"recent",
"years",
"the",
"prob",
"lem",
"o",
"f",
"man",
"'mach",
"ine",
"communicat",
"ion",
"by",
"means",
"o",
"f",
"natura",
"l",
"language",
"(",
"NL",
")",
"i",
"s",
"becoming",
"a",
"pract",
"i",
"ca",
"l",
"one",
".",
"And",
"the"
] |
[
0,
0,
3,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
4,
4,
4,
0,
1,
0,
0,
0,
0,
4,
0,
0,
0,
4,
0,
0,
0,
0
] |
6004
|
[
"phrase",
"structure",
"grammar",
"(",
"PSG",
")",
"as",
"thc",
"tagging",
"formalisms",
"(",
"Lecch",
"&",
"Garside",
"1991",
")",
",",
"and",
"some",
"adopt",
"dependency",
"grammar",
"(",
"DG",
")",
"1993",
",",
"Komatsu",
",",
"Jin",
",",
"&",
"Yasuhara",
",",
"1993",
")",
"."
] |
[
3,
4,
4,
0,
1,
0,
4,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
3,
4,
0,
1,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0
] |
6005
|
[
"ian.fletcher",
",",
"peter.maguire",
"@",
"cs.man.ac.uk",
"Abstract",
"Dialogue",
"Acts",
"(",
"DAs",
")",
"which",
"explicitly",
"ensure",
"mutual",
"understanding",
"are",
"frequent"
] |
[
0,
0,
0,
0,
0,
0,
3,
4,
0,
1,
0,
0,
0,
0,
0,
0,
0,
0
] |
6006
|
[
"Instead",
"of",
"using",
"graph-based",
"consensus",
"confidence",
"as",
"features",
"in",
"the",
"log-linear",
"model",
",",
"we",
"perform",
"structured",
"label",
"propagation",
"(",
"Struct-LP",
")",
"to",
"re-rank",
"the",
"n-best",
"list",
"directly",
",",
"and",
"the",
"similarity"
] |
[
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
3,
4,
4,
0,
1,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0
] |
6007
|
[
"1",
"In",
"t",
"roduct",
"ion",
"Finding",
"base",
"noun",
"phrases",
"is",
"a",
"sensible",
"first",
"step",
"for",
"many",
"natural",
"anguage",
"processing",
"(",
"NLP",
")",
"tasks",
":",
"Accurate",
"identification",
"of",
"base",
"noun",
"phrases",
"is",
"ar-"
] |
[
0,
0,
3,
0,
0,
0,
0,
0,
0,
0,
4,
0,
0,
0,
0,
0,
4,
4,
4,
0,
1,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0
] |
6008
|
[
"The",
"paper",
"first",
"provides",
"a",
"brief",
"overview",
"of",
"Lexical",
"Functional",
"Grammar",
",",
"and",
"the",
"Penn",
"Arabic",
"Treebank",
"(",
"ATB",
")",
".",
"The",
"next",
"section",
"presents"
] |
[
0,
0,
0,
0,
3,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
4,
4,
0,
1,
0,
0,
0,
0,
0,
0
] |
6009
|
[
"0.467",
"(",
"+126",
"%",
")",
"?",
"Total",
"Document",
"Reciprocal",
"Rank",
"(",
"TDRR",
")",
"PubMed",
"0.495",
"0.137",
"0.038",
"0.331"
] |
[
0,
0,
0,
0,
0,
0,
3,
4,
4,
4,
0,
1,
0,
0,
0,
0,
0,
0
] |
6010
|
[
"before",
"the",
"start",
"of",
"the",
"current",
"utterance",
".",
"Overlapping",
"label",
"(",
"OL",
")",
"an",
"utterance",
"on",
"another",
"channel",
"with",
"a",
"particular",
"DA",
"tag",
"overlaps",
"the"
] |
[
0,
0,
0,
0,
0,
0,
0,
0,
3,
4,
0,
1,
0,
0,
0,
0,
0,
0,
0,
4,
0,
1,
0,
0,
0
] |
6011
|
[
"The",
"most",
"common",
"and",
"obvious",
"way",
"to",
"deal",
"with",
"disjunctive",
"constraints",
"i",
"to",
"expand",
"the",
"grammat-",
"ical",
"description",
"to",
"disjunctive",
"normal",
"form",
"(",
"DNF",
")",
"during",
"a",
"pre-processing",
"step",
",",
"thereby",
"eliminating",
"disjunction",
"from",
"the"
] |
[
0,
0,
0,
0,
0,
0,
0,
0,
0,
3,
0,
4,
0,
0,
0,
0,
0,
0,
0,
4,
4,
4,
0,
1,
0,
0,
4,
0,
0,
0,
0,
0,
0,
0,
0
] |
6012
|
[
"?",
"System",
"integration",
",",
"through",
"SGML",
"(",
"the",
"Standard",
"Generalized",
"Markup",
"Language",
")",
",",
"both",
"at",
"the",
"leve",
"l",
"of",
"meaning",
"analysis",
"and",
"at",
"the",
"overall",
"application",
"level",
"."
] |
[
0,
0,
0,
0,
0,
0,
0,
0,
0,
3,
4,
4,
4,
0,
0,
0,
0,
0,
4,
0,
0,
0,
4,
0,
0,
0,
0,
0,
0
] |
6013
|
[
"To",
"overcome",
"this",
"problem",
",",
"Gliozzo",
"et",
"al",
"(",
"2005",
")",
"introduced",
"the",
"domain",
"model",
"(",
"DM",
")",
"and",
"show",
"how",
"to",
"define",
"a",
"domain",
"VSM",
"in",
"which",
"texts",
"and",
"terms"
] |
[
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
1,
0,
0,
0,
3,
0,
0,
2,
0,
0,
0,
0,
0,
4,
0,
0,
4,
0,
0,
0,
0
] |
6014
|
[
"Most",
"of",
"lexical",
"networks",
",",
"as",
"networks",
"extracted",
"from",
"real",
"world",
",",
"are",
"small",
"worlds",
"(",
"SW",
")",
"networks",
"."
] |
[
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
3,
0,
0,
0,
4,
0,
0,
1,
0,
0
] |
6015
|
[
"We",
"encode",
"the",
"target",
"state",
"in",
"the",
"similar",
"way",
".",
"Like",
"the",
"Vector",
"Space",
"Model",
"(",
"VSM",
")",
",",
"we",
"use",
"a",
"label",
"matrix",
"to",
"represent",
"each",
"class",
"as",
"in"
] |
[
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
3,
4,
0,
0,
1,
0,
0,
0,
0,
4,
0,
0,
4,
0,
0,
0,
0,
0
] |
6016
|
[
"a",
"wordbreak",
"(",
"WB",
")",
".",
"In",
"other",
"words",
",",
"we",
"model",
"Chinese",
"word",
"segmentation",
"as",
"wordbreak",
"(",
"WB",
")",
"identification",
"which",
"takes",
"all",
"CB",
"?",
"s",
"as",
"candidates",
"and"
] |
[
3,
4,
0,
1,
0,
0,
0,
0,
0,
0,
0,
0,
0,
4,
0,
0,
4,
0,
2,
0,
0,
0,
0,
0,
1,
2,
2,
0,
0,
0
] |
6017
|
[
"The",
"last",
"column",
"lists",
"the",
"Spearman",
"rank",
"order",
"correlation",
"(",
"?",
")",
"of",
"the",
"rankings",
"with",
"the",
"Berlin",
"and",
"Kay",
"(",
"B",
"&",
"K",
")",
"ranks",
"."
] |
[
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
3,
4,
4,
0,
4,
2,
4,
0,
0,
0
] |
6018
|
[
"Then",
"the",
"lexicon",
"Chinese",
"Semantic",
"Dictionary",
"(",
"CSD",
")",
"containing",
"sense",
"descriptions",
"and",
"the",
"corpus",
"Chinese",
"Senses",
"Pool",
"(",
"CSP",
")",
"annotated",
"with",
"senses",
"are",
"built",
"interactively",
",",
"simulta-"
] |
[
0,
0,
0,
3,
4,
4,
0,
1,
0,
0,
0,
0,
0,
0,
0,
4,
4,
4,
0,
1,
0,
0,
0,
0,
0,
0,
0,
0,
0
] |
6019
|
[
"ferent",
"setups",
"with",
"this",
"parameter",
".",
"We",
"compare",
"the",
"following",
"setups",
":",
"(",
"1",
")",
"The",
"majority",
"baseline",
"(",
"BL",
")",
"i.e.",
",",
"choosing",
"the",
"most",
"frequent",
"label",
"(",
"SR",
")",
".",
"("
] |
[
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
3,
0,
1,
0,
0,
0,
0,
0,
0,
0,
0,
0,
1,
0,
0,
0
] |
6020
|
[
"the",
"ratio",
"of",
"system",
"?",
"s",
"moves",
"stating",
"that",
"the",
"requested",
"information",
"is",
"not",
"available",
";",
"Number",
"of",
"abandoned",
"requests",
"(",
"NAR",
")",
"and",
"abandoned-request",
"ratio",
"(",
"ARR",
")",
",",
"i.e.",
",",
"the",
"number",
"and",
"the",
"ratio",
"of",
"the",
"information-providing",
"games"
] |
[
0,
0,
3,
0,
0,
4,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
4,
4,
4,
4,
0,
1,
0,
4,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
4,
0,
0,
4,
0,
0,
0
] |
6021
|
[
"have",
"been",
"opened",
".",
"Named",
"entity",
"recognition",
"(",
"NER",
")",
"is",
"one",
"of",
"the",
"many",
"fields",
"of",
"NLP",
"that",
"rely",
"on",
"machine",
"learn",
"?"
] |
[
0,
0,
0,
0,
3,
4,
4,
0,
1,
0,
0,
0,
0,
0,
0,
0,
0,
1,
0,
0,
4,
0,
0,
0
] |
6022
|
[
"For",
"exam-",
"ple",
",",
"an",
"analysis",
"of",
"the",
"texts",
"using",
"Mann",
"and",
"Thomp-",
"son",
"'s",
"(",
"1987",
")",
"Rhetorical",
"Structure",
"Theory",
"(",
"RST",
")",
"would",
"result",
"primarily",
"in",
"the",
"relations",
"sequence",
"and",
"jo",
"in",
"t"
] |
[
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
3,
4,
4,
0,
1,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
4
] |
6023
|
[
"It",
"is",
"embedded",
"to",
"the",
"C-value",
"approach",
"for",
"automatic",
"term",
"recognition",
"(",
"ATR",
")",
",",
"in",
"the",
"form",
"of",
"weights",
"constructed",
"from",
"statisti-"
] |
[
0,
0,
0,
3,
0,
1,
0,
0,
4,
4,
4,
0,
1,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0
] |
6024
|
[
"paradigm",
"(",
"Berners-Lee",
",",
"2006",
")",
",",
"which",
"requires",
"the",
"use",
"of",
"uniform",
"resource",
"identifiers",
"(",
"URIs",
")",
",",
"the",
"hypertext",
"transfer",
"protocol",
"(",
"HTTP",
")",
",",
"standard",
"representation",
"formats",
"(",
"such",
"as",
"RDF",
")",
"and",
"links",
"to"
] |
[
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
3,
4,
4,
0,
1,
0,
0,
0,
3,
4,
4,
0,
1,
0,
0,
0,
0,
0,
0,
0,
0,
1,
0,
0,
0,
4
] |
6025
|
[
"1",
"Introduction",
"Electroencephalography",
"(",
"EEG",
")",
"and",
"magnetoencephalography",
"(",
"MEG",
")",
"are",
"similar",
"methods",
"for"
] |
[
0,
0,
0,
0,
0,
1,
0,
0,
0,
0,
2,
0,
0,
0,
0
] |
6026
|
[
"is",
"necessary",
"to",
"train",
"sentence",
"prediction",
"models",
",",
"a",
"third",
"approach",
"that",
"uses",
"labeled",
"comment",
"data",
"for",
"training",
"(",
"CTr",
")",
"but",
"sentences",
"for",
"testing",
"(",
"STe",
")",
"is",
"included",
"in",
"the",
"CTR/STE",
"row",
"."
] |
[
0,
0,
0,
3,
3,
0,
0,
0,
4,
0,
0,
0,
0,
0,
4,
4,
4,
4,
0,
1,
0,
0,
4,
4,
4,
0,
1,
0,
0,
0,
4,
0,
1,
0,
0
] |
6027
|
[
"Therefore",
"it",
"makes",
"sense",
"to",
"also",
"extract",
"data",
"from",
"machine",
"readable",
"dictionaries",
"(",
"MRDs",
")",
"."
] |
[
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
3,
4,
0,
0,
1,
0
] |
6028
|
[
"Clear",
"And",
"Simple",
"English",
"(",
"CASE",
")",
"Caterpillar",
"Fundamental",
"English",
"(",
"CFE",
")",
"Caterpillar",
"Technical",
"English",
"(",
"CTE",
")",
"Diebold",
"Controlled",
"English",
"(",
"DCE",
")"
] |
[
3,
4,
4,
3,
0,
1,
0,
4,
4,
4,
0,
1,
0,
4,
4,
4,
0,
1,
0,
4,
4,
4,
0,
1,
0
] |
6029
|
[
"Table",
"1",
":",
"First",
"five",
"SentiWordNet",
"entries",
"for",
"cold",
"#",
"a",
"In",
"our",
"experiments",
"we",
"use",
"two",
"different",
"versions",
"of",
"SWN",
":",
"SentiWordNet",
"1.0",
"(",
"SWN1",
")",
",",
"the",
"first",
"release",
"of",
"SWN",
",",
"and",
"its",
"updated",
"version",
"SentiWord-"
] |
[
0,
3,
0,
0,
0,
4,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
1,
0,
4,
4,
0,
2,
0,
0,
0,
0,
0,
0,
2,
0,
0,
0,
0,
0,
0
] |
6030
|
[
"there",
"is",
"a",
"link",
"to",
"the",
"next",
"node",
")",
".",
"Prompts",
"(",
"PT",
")",
"occur",
"when",
"the",
"tutor",
"attempts",
"to",
"elicit",
"a",
"meaningful",
"contribution",
"from",
"the",
"student",
"."
] |
[
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
3,
0,
1,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0
] |
6031
|
[
"Section",
"7",
"concludes",
"this",
"article",
".",
"2",
"Automatic",
"Speech",
"Recognition",
"(",
"ASR",
")",
"Thai",
"ASR",
"research",
"focused",
"on",
"two",
"major",
"topics",
"."
] |
[
0,
0,
0,
0,
0,
0,
0,
3,
4,
4,
0,
1,
0,
0,
2,
0,
0,
4,
0,
0,
0,
0
] |
6032
|
[
"string",
"is",
"a",
"false",
"positive",
"(",
"FP",
")",
".",
"Each",
"gold",
"standard",
"gene",
"mention",
"is",
"counted",
"as",
"a",
"false",
"negative",
"(",
"FN",
")",
"if",
"it",
"is",
"not",
"identified",
"by",
"the",
"approach",
"."
] |
[
0,
0,
3,
4,
4,
0,
1,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
4,
4,
4,
0,
1,
0,
0,
4,
0,
0,
0,
0,
0,
0,
0
] |
6033
|
[
"1",
"Introduction",
"Todays",
"natural",
"user",
"interfaces",
"(",
"NUI",
")",
"for",
"applications",
"running",
"on",
"smart",
"devices",
",",
"e.g",
",",
"phones",
"(",
"SIRI",
","
] |
[
0,
0,
0,
0,
3,
4,
0,
0,
1,
0,
0,
0,
0,
0,
0,
1,
0,
2,
0,
0,
0,
2
] |
6034
|
[
"3.2",
"Coordination",
"Structures",
"Among",
"the",
"most",
"controversial",
"annotation",
"schemes",
"are",
"those",
"of",
"coordination",
"structures",
"(",
"CS",
")",
",",
"which",
"are",
"groups",
"of",
"two",
"or",
"more",
"tokens",
"that",
"are",
"in",
"coordina-"
] |
[
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
3,
4,
0,
1,
0,
0,
0,
0,
0,
0,
0,
4,
0,
0,
0,
0,
4,
0
] |
6035
|
[
"For",
"WSD",
"evaluation",
",",
"three",
"measures",
"are",
"used",
":",
"(",
"1",
")",
"Jaccard",
"Index",
"(",
"JI",
")",
",",
"which",
"measures",
"the",
"degree",
"of",
"overlap",
"between",
"the",
"induced",
"senses",
"and",
"the",
"gold"
] |
[
0,
1,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
3,
4,
0,
1,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0
] |
6036
|
[
"1",
"Introduction",
"Medical",
"relation",
"(",
"MR",
")",
"classification",
",",
"an",
"information",
"extraction",
"task",
"in",
"the",
"clinical",
"domain",
"that",
"was",
"recently",
"defined",
"in",
"the",
"2010",
"i2b2/VA",
"Challenge",
"(",
"Uzuner",
"et",
"al.",
","
] |
[
0,
0,
0,
3,
0,
0,
1,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0
] |
6037
|
[
"for",
"a",
"comprehensive",
"comparison",
":",
"?",
"Mean",
"absolute",
"error",
"(",
"MAE",
")",
"measures",
"how",
"closely",
"predictions",
"resemble",
"their",
"observed"
] |
[
0,
3,
0,
0,
0,
0,
4,
4,
4,
0,
1,
0,
0,
0,
0,
0,
0,
0,
0
] |
6038
|
[
"a",
"user",
"interface",
"for",
"the",
"production",
"of",
"wordlevel",
"annotations",
"for",
"an",
"opinion-mining",
"task",
"in",
"the",
"information",
"technology",
"(",
"IT",
")",
"domain",
"."
] |
[
3,
0,
0,
4,
0,
0,
0,
0,
0,
4,
0,
0,
0,
4,
0,
4,
4,
0,
1,
0,
0,
0
] |
6039
|
[
"Litkowski",
",",
"K.",
"C.",
":",
"Syntactic",
"Clues",
"and",
"Lexical",
"Resources",
"in",
"Question-Answering",
".",
"In",
"E.",
"M.",
"Voorhees",
"&",
"D.",
"K.",
"Harman",
"(",
"eds",
".",
")",
",",
"The",
"Ninth",
"Text",
"Retrieval",
"Conference",
"(",
"TREC-9",
")",
".",
"(",
"2001",
")",
"157-166",
"10",
"."
] |
[
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
3,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
4,
4,
4,
4,
4,
0,
1,
0,
0,
0,
0,
0,
0,
0,
0
] |
6040
|
[
"ptishes",
"a",
"rather",
"inconsequential",
"change",
"with",
"respect",
"o",
"a",
"previously",
"non-existent",
"link",
"or",
"with",
"respect",
"to",
"a",
"link",
"No",
"impairment",
"(",
"NI",
")",
"Q",
"Confusion",
"(",
"C",
")",
"Q",
"Mislearning",
"(",
"ML",
")",
"Q",
"Insufficient",
"Learning",
"(",
"IL",
")"
] |
[
0,
3,
0,
0,
0,
0,
0,
3,
4,
0,
0,
0,
0,
0,
0,
0,
4,
0,
4,
4,
0,
1,
0,
0,
4,
0,
4,
0,
0,
4,
0,
1,
0,
0,
4,
4,
0,
1,
0
] |
6041
|
[
"five",
"different",
"linear",
"classifiers",
"to",
"extract",
"PPI",
"from",
"AIMed",
":",
"L2-SVM",
",",
"1-norm",
"soft-margin",
"SVM",
"(",
"L1-SVM",
")",
",",
"logistic",
"regression",
"(",
"LR",
")",
"(",
"Fan",
"et",
"al",
",",
"2008",
")",
",",
"averaged",
"perceptron",
"(",
"AP",
")",
"(",
"Collins",
","
] |
[
0,
0,
0,
0,
0,
0,
1,
0,
0,
0,
1,
0,
0,
0,
1,
0,
2,
0,
0,
3,
4,
0,
1,
0,
0,
0,
0,
0,
0,
0,
0,
0,
3,
4,
0,
1,
0,
0,
0,
0
] |
6042
|
[
"974",
"Proceedings",
"of",
"the",
"2014",
"Conference",
"on",
"Empirical",
"Methods",
"in",
"Natural",
"Language",
"Processing",
"(",
"EMNLP",
")",
",",
"pages",
"875",
"?",
"879",
",",
"October",
"25-29",
",",
"2014",
",",
"Doha",
",",
"Qatar",
"."
] |
[
0,
0,
0,
0,
0,
0,
0,
3,
4,
4,
4,
4,
4,
0,
1,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0
] |
6043
|
[
"11",
"Proceedings",
"of",
"the",
"2014",
"Conference",
"on",
"Empirical",
"Methods",
"in",
"Natural",
"Language",
"Processing",
"(",
"EMNLP",
")",
",",
"pages",
"1665",
"?",
"1675",
",",
"October",
"25-29",
",",
"2014",
",",
"Doha",
",",
"Qatar",
"."
] |
[
0,
0,
0,
0,
0,
0,
0,
3,
4,
4,
4,
4,
4,
0,
1,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0
] |
6044
|
[
"6",
".",
"Demonstrative",
"pronoun",
"labels",
"are",
"collapsed",
"to",
"DEM",
"PRON",
"(",
"person",
"and",
"number",
"information",
"is",
"easily",
"recovered",
")"
] |
[
0,
0,
0,
0,
0,
0,
0,
0,
1,
1,
0,
3,
0,
0,
0,
0,
0,
0,
0
] |
6045
|
[
"al.",
",",
"2005",
";",
"Joachims",
"et",
"al",
",",
"2009",
")",
"formulation",
",",
"as",
"shown",
"in",
"Optimization",
"Problem",
"1",
"(",
"OP1",
")",
",",
"to",
"learn",
"a",
"weight",
"vector",
"w",
"."
] |
[
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
3,
4,
4,
0,
2,
0,
0,
0,
0,
4,
0,
0,
0,
0
] |
6046
|
[
"every",
"lost",
"arc",
"translates",
"to",
"a",
"set",
"of",
"lost",
"parts",
",",
"we",
"can",
"avoid",
"repeating",
"computations",
"by",
"storing",
"the",
"partial",
"loss",
"of",
"every",
"arc",
"in",
"a",
"data",
"structure",
"(",
"DS",
")",
":",
"e",
"?",
"?"
] |
[
0,
0,
0,
0,
0,
3,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
4,
4,
4,
0,
1,
0,
0,
4,
0,
0
] |
6047
|
[
"We",
"conduct",
"an",
"extrinsic",
"evaluation",
"to",
"compare",
"the",
"different",
"versions",
"of",
"ArSenL",
"on",
"the",
"task",
"of",
"subjectivity",
"and",
"sentiment",
"analysis",
"(",
"SSA",
")",
".",
"We"
] |
[
0,
0,
3,
0,
0,
0,
0,
0,
0,
0,
0,
1,
0,
0,
0,
0,
4,
4,
4,
4,
0,
1,
0,
0,
0
] |
6048
|
[
"For",
"example",
",",
"both",
"the",
"terms",
"chiaroscuro",
"and",
"collage",
"are",
"classified",
"under",
"picture",
",",
"image",
",",
"icon",
"in",
"WordNet",
",",
"but",
"in",
"the",
"Art",
"&",
"Architecture",
"Thesaurus",
"(",
"AA",
"&",
"T",
")",
"16",
"chiaroscuro",
"is",
"categorized",
"under",
"perspective",
"and",
"shading",
"techniques",
"whereas",
"collage",
"is",
"classified",
"under",
"image-making",
"processes",
"and"
] |
[
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
3,
4,
4,
4,
0,
2,
4,
4,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0
] |
6049
|
[
"Chair",
")",
",",
"Khalid",
"Choukri",
",",
"Bente",
"Maegaard",
",",
"Joseph",
"Mariani",
",",
"Jan",
"Odjik",
",",
"Stelios",
"Piperidis",
",",
"Mike",
"Rosner",
",",
"&",
"Daniel",
"Tapias",
",",
"310",
"?",
"314",
",",
"Valletta",
",",
"Malta",
".",
"European",
"Language",
"Resources",
"Association",
"(",
"ELRA",
")",
".Ferra",
"?",
"ndez",
",",
"Oscar",
",",
"Michael",
"Ellsworth",
",",
"Rafael",
"Mun",
"?",
"oz",
",",
"&",
"Collin",
"F.",
"Baker",
".",
"2010b",
"."
] |
[
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
3,
4,
4,
4,
0,
1,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0
] |
6050
|
[
"2",
"Pivot",
"Translation",
"Pivot",
"translation",
"is",
"a",
"translation",
"from",
"a",
"source",
"language",
"(",
"SRC",
")",
"to",
"a",
"target",
"language",
"(",
"TRG",
")",
"through",
"an",
"intermediate",
"pivot",
"(",
"or",
"bridging",
")",
"language",
"(",
"PVT",
")",
"."
] |
[
0,
0,
0,
0,
0,
0,
3,
0,
0,
4,
4,
4,
4,
1,
4,
0,
4,
4,
4,
4,
1,
4,
0,
4,
0,
4,
4,
4,
4,
4,
4,
4,
1,
4,
0
] |
6051
|
[
"92",
"NAACL-HLT",
"2012",
"Workshop",
"on",
"Speech",
"and",
"Language",
"Processing",
"for",
"Assistive",
"Technologies",
"(",
"SLPAT",
")",
",",
"pages",
"28",
"?",
"36",
",",
"Montre",
"?",
"al",
",",
"Canada",
",",
"June",
"7",
"?",
"8",
",",
"2012",
"."
] |
[
0,
0,
0,
0,
0,
3,
4,
4,
4,
4,
4,
4,
0,
1,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0
] |
6052
|
[
"Figure",
"3",
":",
"The",
"system",
"architecture",
".",
"CA",
"=",
"communicative",
"act",
"."
] |
[
0,
0,
0,
0,
0,
0,
0,
1,
0,
3,
4,
0
] |
6053
|
[
"programming",
"alignment",
"on",
"the",
"recognizer",
"?",
"s",
"hypothesis",
"(",
"HYP",
")",
"and",
"the",
"non-literal",
"transcription",
"that",
"is",
"used",
"as",
"reference",
"(",
"REF",
")",
".",
"The",
"alignment"
] |
[
0,
0,
0,
3,
0,
0,
4,
4,
0,
1,
0,
0,
4,
0,
0,
0,
4,
0,
0,
3,
0,
1,
0,
0,
0,
0
] |
6054
|
[
"volved",
".",
"We",
"show",
"that",
"efficient",
"training",
"is",
"feasible",
",",
"using",
"a",
"Tree",
"Adjoining",
"Grammar",
"(",
"TAG",
")",
"based",
"parsing",
"formalism",
"."
] |
[
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
3,
4,
4,
4,
0,
1,
0,
0,
0,
0,
0
] |
6055
|
[
"To",
"overcome",
"the",
"difficulty",
",",
"we",
"build",
"a",
"new",
"Multilayer",
"Search",
"Mechanism",
"(",
"MSM",
")",
".",
"Different"
] |
[
0,
0,
0,
0,
0,
0,
0,
3,
0,
0,
4,
4,
0,
0,
1,
0,
0
] |
6056
|
[
"Abstract",
"We",
"consider",
"the",
"problem",
"of",
"correcting",
"errors",
"made",
"by",
"English",
"as",
"a",
"Second",
"Language",
"(",
"ESL",
")",
"writers",
"and",
"address",
"two",
"issues",
"that",
"are",
"essen-"
] |
[
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
3,
4,
4,
4,
4,
0,
1,
0,
0,
0,
0,
0,
0,
0,
0,
0
] |
6057
|
[
"The",
"third",
"is",
"end",
"position",
"(",
"EP",
")",
",",
"after",
"a",
"predi-",
"cate",
".",
"Pre",
"position",
"(",
"PreP",
")",
"and",
"post",
"position",
"(",
"PostP",
")",
"are",
"provided",
"for",
"adverbs",
"as",
"modifiers",
"."
] |
[
0,
0,
0,
3,
4,
0,
1,
0,
0,
0,
0,
0,
0,
0,
4,
4,
0,
2,
0,
0,
4,
4,
0,
1,
0,
0,
0,
0,
0,
0,
0,
0
] |
6058
|
[
"constituents",
".",
"For",
"example",
",",
"discussing",
"the",
"possible",
"adaptation",
"of",
"Phillips",
"'",
"algorithm",
"to",
"incremental",
"gener-",
"ation",
",",
"Lager",
"and",
"Black",
"(",
"1994",
")",
"point",
"out",
"that",
"some",
"versions",
"of",
"Categorial",
"Grammar",
"(",
"CG",
")",
"would",
"make",
"the",
"generator",
"more",
"talkative",
",",
"by",
"giving",
"rise",
"to",
"``",
"a",
"more",
"generous",
"notion",
"of",
"constituency",
"''",
"."
] |
[
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
3,
4,
0,
1,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
4,
0,
0,
0,
0,
0,
0,
0
] |
6059
|
[
"sic",
"and",
"Young",
",",
"2011",
";",
"Williams",
",",
"2010",
";",
"Young",
"et",
"al.",
",",
"2010",
")",
"and",
"Bayesian",
"network",
"(",
"BN",
")",
"-based",
"methods",
"(",
"Raux",
"and",
"Ma",
",",
"2011",
";",
"Thomson",
"and",
"Young",
","
] |
[
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
3,
0,
0,
0,
0,
0,
4,
4,
0,
1,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0
] |
6060
|
[
"is",
"placed",
"sixth",
"out",
"of",
"seventeen",
"systems",
"according",
"to",
"Mean",
"Absolute",
"Error",
"(",
"MAE",
")",
"and",
"third",
"according",
"to",
"Root",
"Mean",
"Squared",
"Error",
"(",
"RMSE",
")",
".",
"The"
] |
[
0,
0,
0,
0,
0,
0,
0,
0,
0,
3,
4,
4,
0,
1,
0,
0,
0,
0,
0,
4,
4,
4,
4,
0,
1,
0,
0,
0
] |
6061
|
[
"{",
"zhongzhi",
",",
"nght",
"}",
"@",
"comp.nus.edu.sg",
"Abstract",
"Word",
"sense",
"disambiguation",
"(",
"WSD",
")",
"systems",
"based",
"on",
"supervised",
"learning"
] |
[
0,
0,
0,
0,
0,
0,
0,
0,
3,
4,
4,
0,
1,
0,
0,
0,
4,
0,
0
] |
6062
|
[
"DEP",
"=",
"dependency",
"type",
"?",
"MOR",
"=",
"morphological",
"features",
"(",
"set",
")",
"?"
] |
[
1,
0,
3,
0,
0,
1,
0,
3,
0,
0,
0,
0,
0
] |
6063
|
[
"TF",
"(",
"Term",
"Frequency",
")",
"is",
"the",
"word",
"frequency",
"within",
"a",
"document",
";",
"IDF",
"(",
"Inverse",
"Document",
"Frequency",
")",
"is",
"the",
"logarithm",
"of",
"the",
"ratio",
"of",
"the",
"total",
"number",
"of"
] |
[
1,
0,
3,
4,
0,
0,
0,
0,
0,
0,
0,
0,
0,
1,
0,
4,
4,
4,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0
] |
6064
|
[
"of",
"conditional",
"random",
"fields",
".",
"In",
"Annual",
"Meeting",
"of",
"the",
"Association",
"for",
"Computational",
"Linguistics",
"(",
"ACL",
")",
",",
"pages",
"870",
"?",
"878",
"."
] |
[
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
3,
4,
4,
4,
0,
1,
0,
0,
0,
0,
0,
0,
0
] |
6065
|
[
"Setting",
"P0.1",
"P0.25",
"P0.33",
"P0.5",
"Best-F1",
"ContextSim",
"(",
"CS",
")",
"42.9",
"69.6",
"60.7",
"58.7",
"49.6",
"SpellingSim",
"(",
"SS",
")",
"90.5",
"74.2",
"69.9",
"64.6",
"50.9",
"(",
"a",
")",
"from",
"baseline",
"models"
] |
[
0,
0,
0,
0,
0,
0,
3,
0,
1,
0,
0,
0,
0,
0,
0,
3,
0,
1,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0
] |
6066
|
[
"participate",
"in",
"the",
"interpretation",
"f",
"the",
"CLS",
"(",
"e.g.",
",",
"elements",
"bearing",
"the",
"thematic",
"roles",
"assigned",
"by",
"the",
"predicate",
",",
"etc.",
")",
".",
"DPSs",
"(",
"DP",
"structures",
")",
"semantically",
"characterize",
"noun",
"phrases",
".",
"They",
"consist"
] |
[
0,
0,
0,
0,
0,
0,
1,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
1,
0,
3,
4,
0,
0,
0,
0,
0,
0,
0,
0
] |
6067
|
[
"V",
"is",
"the",
"vocabulary",
"size",
".",
"The",
"question",
"difficulty",
"estimation",
"(",
"QDE",
")",
"task",
"aims",
"to",
"automatically",
"learn",
"the",
"question",
"difficul-"
] |
[
0,
0,
0,
0,
0,
0,
0,
3,
4,
4,
0,
1,
0,
0,
0,
0,
0,
0,
0,
4,
0
] |
6068
|
[
"Constituents",
"are",
"tagged",
"with",
"IsA",
"class",
"labels",
"from",
"a",
"large",
",",
"automatically",
"extracted",
"lexicon",
",",
"using",
"a",
"probabilistic",
"context",
"free",
"grammar",
"(",
"PCFG",
")",
"."
] |
[
0,
0,
0,
0,
0,
0,
0,
0,
3,
0,
0,
0,
0,
0,
0,
0,
4,
4,
4,
4,
4,
0,
1,
0,
0
] |
6069
|
[
"CONN",
"=",
"nil",
";",
"konj",
"(",
"KONJ",
")",
"FUNDF",
"=",
"fundf",
"n",
"(",
"NOMINAL",
")",
";",
"/*",
"No",
"nil",
"*/"
] |
[
1,
0,
0,
0,
3,
0,
1,
0,
1,
0,
0,
4,
0,
0,
0,
0,
0,
0,
0,
0
] |
6070
|
[
"on",
"three",
"official",
"testsets",
".",
"NIST",
"2008",
"Open",
"Machine",
"Translation",
"(",
"OpenMT",
")",
"Evaluation9",
"has",
"distributed",
"test",
"data",
"from",
"2",
"domains",
":",
"Newswire",
"and",
"Web",
"."
] |
[
3,
0,
0,
0,
0,
0,
0,
4,
4,
4,
0,
2,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0
] |
6071
|
[
"by",
"adapting",
"the",
"baseline",
"model",
"to",
"four",
"adaptation",
"domains",
".",
"In",
"particular",
",",
"we",
"attempt",
"to",
"interpret",
"the",
"results",
"given",
"in",
"terms",
"of",
"the",
"character",
"error",
"rate",
"(",
"CER",
")",
"by",
"correlating",
"them",
"with",
"the",
"characteristics",
"of",
"the",
"adaptation",
"domain",
"measured",
"us-"
] |
[
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
3,
4,
4,
0,
1,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0
] |
6072
|
[
"In",
"Proceedings",
"of",
"the",
"Second",
"International",
"Workshop",
"on",
"Evaluating",
"Word",
"Sense",
"Disambiguation",
"Systems",
"(",
"SENSEVAL-2",
")",
",",
"pages",
"1",
"?",
"5",
"."
] |
[
3,
0,
0,
0,
4,
4,
4,
4,
4,
4,
4,
4,
4,
0,
1,
0,
0,
0,
0,
0,
0,
0
] |
6073
|
[
"comparison",
"with",
"SMO-n",
")",
"6",
"Conclusions",
"Automatic",
"Text",
"Simplification",
"(",
"ATS",
")",
"aims",
"to",
"convert",
"complex",
"texts",
"into",
"a",
"simpler",
"form",
",",
"which",
"is",
"more",
"accessible",
"to",
"a",
"wider",
"audience",
"."
] |
[
0,
0,
1,
0,
0,
0,
3,
4,
4,
0,
1,
0,
0,
4,
0,
0,
0,
0,
4,
0,
0,
0,
0,
0,
0,
0,
4,
4,
0,
0,
0
] |
6074
|
[
"defined",
"linguistic",
"context",
",",
"the",
"task",
"is",
"to",
"predict",
"the",
"class",
"of",
"a",
"token",
".",
"Support",
"Vector",
"Machines",
"(",
"SVMs",
")",
"(",
"Vapnik",
",",
"1995",
")",
"are",
"one",
"class",
"of",
"such",
"model",
"."
] |
[
0,
0,
0,
0,
0,
0,
0,
3,
0,
0,
0,
0,
4,
0,
0,
4,
4,
4,
0,
1,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0
] |
6075
|
[
"the",
"exploration",
"and",
"verbalization",
"history",
";",
"and",
"(",
"4",
")",
"it",
"then",
"sends",
"semantic",
"representations",
"in",
"the",
"form",
"of",
"preverbal",
"messages",
"(",
"PVMs",
")",
"to",
"the",
"Formulation",
"&",
"Articulation",
"components",
"."
] |
[
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
3,
4,
0,
1,
0,
0,
0,
0,
0,
0,
0,
0
] |
6076
|
[
"In",
"Proceedings",
"of",
"the",
"International",
"Conference",
"on",
"Computational",
"Linguistics",
"(",
"COLING-04",
")",
"."
] |
[
0,
0,
0,
0,
0,
0,
3,
0,
4,
0,
0,
1,
0
] |
6077
|
[
"Branching",
"quantification",
"in",
"DTS",
"has",
"partially",
"been",
"discussed",
"in",
"[",
"7",
"]",
"and",
"[",
"8",
"]",
",",
"in",
"which",
"we",
"compared",
"DTS",
"with",
"First",
"Order",
"Logic",
"(",
"FOL",
")",
".",
"However",
",",
"FOL",
"is",
"limited",
"in",
"that",
"it",
"allows",
"to"
] |
[
0,
0,
0,
1,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
2,
0,
3,
4,
4,
0,
1,
0,
0,
0,
0,
2,
0,
0,
0,
0,
0,
0,
0
] |
6078
|
[
"Tables",
"79",
"show",
",",
"for",
"each",
"emotion",
"classification",
",",
"the",
"mean",
"accuracy",
"(",
"%",
"correct",
")",
"and",
"standard",
"error",
"(",
"SE",
")",
"for",
"our",
"10",
"feature",
"sets",
"."
] |
[
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
3,
4,
4,
0,
1,
0,
0,
0,
0,
0,
0,
0
] |
6079
|
[
"validation",
".",
"This",
"is",
"carried",
"out",
"for",
"the",
"tweet",
"text",
"(",
"TEXT",
")",
",",
"user-declared",
"location",
"(",
"MB-LOC",
")",
"and",
"user-declared",
"time",
"zone",
"(",
"MB-TZ",
")",
"."
] |
[
0,
0,
0,
0,
0,
0,
0,
0,
0,
3,
0,
1,
0,
0,
3,
4,
0,
1,
0,
0,
4,
4,
4,
0,
1,
0,
0
] |
6080
|
[
"2004",
".",
"Evaluation",
"of",
"a",
"Deidentification",
"(",
"De-Id",
")",
"Software",
"Engine",
"to",
"Share",
"Pathology",
"Reports",
"and",
"Clinical",
"Documents",
"for"
] |
[
0,
0,
0,
0,
3,
4,
0,
1,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0
] |
6081
|
[
"Norm",
"=",
"Normalisation",
"of",
"input",
"prior",
"to",
"tagging",
".",
"SUC",
"=",
"Subset",
"of",
"Stockholm-Umea",
"?"
] |
[
0,
0,
0,
3,
0,
0,
4,
0,
0,
1,
0,
4,
4,
0,
0
] |
6082
|
[
"Abstract",
"In",
"this",
"paper",
",",
"we",
"address",
"the",
"problem",
"of",
"converting",
"Dialectal",
"Arabic",
"(",
"DA",
")",
"text",
"that",
"is",
"written",
"in",
"the",
"Latin",
"script",
"(",
"called"
] |
[
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
3,
4,
0,
1,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0
] |
6083
|
[
"76",
"4",
"Multi-media",
"Information",
"Networks",
"A",
"Multimedia",
"Information",
"Network",
"(",
"MINet",
")",
"is",
"a",
"structured",
"collection",
"made",
"up",
"of",
"a",
"set",
"of",
"multimedia",
"documents",
"(",
"e.g.",
",",
"texts",
"and",
"images",
")",
"and",
"links",
"between",
"these",
"documents",
"."
] |
[
0,
0,
0,
3,
0,
0,
4,
4,
4,
0,
1,
0,
0,
4,
0,
0,
0,
0,
0,
4,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0
] |
6084
|
[
"20M",
"Lattice",
"Y",
"9.0",
"3.1",
"1.0",
"13.1",
"2801",
"20M",
"List",
"Y",
"9.0",
"3.3",
"0.9",
"13.3",
"16030",
"Table",
"2",
":",
"Results",
"for",
"parsing",
"HUB-1",
"n-best",
"word",
"lattices",
"and",
"lists",
":",
"OP",
"=",
"overparsing",
",",
"S",
"=",
"substutitions",
"(",
"%",
")",
",",
"D",
"=",
"deletions",
"(",
"%",
")",
",",
"I",
"=",
"insertions",
"(",
"%",
")",
",",
"T",
"=",
"total",
"WER",
"(",
"%",
")",
"."
] |
[
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
3,
1,
0,
0,
0,
0,
0,
0,
1,
0,
4,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
3,
0,
0,
0,
0,
0,
0,
3,
0,
0,
0,
0,
0,
0,
3,
1,
0,
0,
0,
0
] |
6085
|
[
"in",
"the",
"lexicon",
"to",
"the",
"following",
"categories",
":",
"protesters",
":",
"NP",
"seized",
":",
"(",
"S\\NP",
")",
"/NP",
"several",
":",
"NP/NP"
] |
[
0,
0,
0,
0,
0,
0,
0,
3,
0,
4,
1,
4,
4,
0,
2,
0,
2,
0,
4,
2
] |
6086
|
[
"ious",
"learning",
"algorithms",
".",
"Our",
"best",
"model",
",",
"based",
"on",
"support",
"vector",
"machines",
"(",
"SVM",
")",
",",
"significantly",
"outperforms",
"previous",
"FFL",
"formulas",
"."
] |
[
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
3,
4,
4,
0,
1,
0,
0,
0,
0,
0,
1,
0,
0
] |
6087
|
[
"1",
"Introduction",
"Information",
"retrieval",
"(",
"IR",
")",
"has",
"been",
"studied",
"since",
"an",
"earlier",
"stage",
"[",
"e.g.",
",",
"(",
"Menzel",
",",
"1966",
")",
"]",
"and",
"sev-"
] |
[
0,
0,
0,
3,
0,
0,
1,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
2,
0,
0,
0
] |
6088
|
[
"FA8750-09-C-0181",
".",
"The",
"second",
"author",
"also",
"thanks",
"the",
"Vietnam",
"Education",
"Foundation",
"(",
"VEF",
")",
"for",
"its",
"sponsorship",
"."
] |
[
0,
0,
0,
0,
0,
0,
0,
0,
3,
4,
4,
0,
1,
0,
0,
0,
0,
0
] |
6089
|
[
"special",
"right",
"category",
"before",
"COO",
">",
"(",
"5",
")",
"the",
"common",
"left",
"coordination",
"category",
">",
"(",
"6",
")",
"the",
"other",
"special",
"right",
"category",
">",
"(",
"7",
")",
"the",
"free",
"cross-clause",
"clausal",
"category",
"(",
"IC",
")",
">",
"(",
"8",
")",
"the",
"common",
"left",
"cross-clause",
"category",
">",
"(",
"9",
")",
"the",
"free",
"cross-clause",
"punctuations",
"(",
"PUS",
")",
"."
] |
[
0,
0,
0,
0,
1,
0,
0,
0,
0,
0,
0,
0,
3,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
1,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
3,
0,
1,
0,
0
] |
6090
|
[
"adapted",
"to",
"a",
"new",
"domain",
".",
"Word",
"sense",
"disambiguation",
"(",
"WSD",
")",
",",
"on",
"the",
"other",
"hand",
",",
"is",
"the",
"closely",
"related",
"task",
"of",
"assigning",
"a",
"sense"
] |
[
0,
0,
3,
0,
0,
0,
4,
4,
4,
0,
1,
0,
0,
4,
0,
0,
0,
0,
4,
0,
0,
0,
0,
0,
0,
4,
4
] |
6091
|
[
"The",
"method",
"seems",
"to",
"be",
"a",
"simple",
"pattern",
"matching",
"technique",
"in",
"a",
"left-to-right",
"fashion",
"but",
"it",
"helps",
"in",
"case",
"of",
"conjunct",
"verbs",
"(",
"ConjVs",
")",
"."
] |
[
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
3,
4,
0,
1,
0,
0
] |
6092
|
[
"Recently",
",",
"a",
"number",
"of",
"deep-learning",
"based",
"models",
"have",
"been",
"proposed",
"for",
"the",
"task",
"of",
"Visual",
"Question",
"Answering",
"(",
"VQA",
")",
".",
"The",
"per-"
] |
[
0,
0,
3,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
4,
4,
4,
0,
1,
0,
0,
0,
0
] |
6093
|
[
"DEPICTION",
"(",
"DPC",
")",
"TOPIC",
"(",
"TPC",
")",
"SYNONYMY-NAME",
"(",
"SYN",
")",
"CAUSALITY",
"(",
"CSL",
")",
"PART-WHOLE",
"(",
"PW",
")",
"MANNER",
"(",
"MNR",
")",
"ANTONYMY",
"(",
"ANT",
")",
"JUSTIFICATION",
"(",
"JST",
")",
"HYPERNYMY",
"(",
"ISA",
")",
"MEANS",
"(",
"MNS",
")",
"PROBABILITY",
"OF",
"EXISTENCE",
"(",
"PRB",
")",
"GOAL",
"(",
"GOL",
")",
"ENTAIL",
"(",
"ENT",
")",
"ACCOMPANIMENT",
"(",
"ACC",
")",
"POSSIBILITY",
"(",
"PSB",
")",
"BELIEF",
"(",
"BLF",
")"
] |
[
3,
0,
1,
0,
3,
0,
1,
0,
0,
0,
3,
0,
3,
0,
1,
0,
3,
0,
1,
0,
3,
0,
1,
0,
3,
0,
4,
0,
3,
0,
1,
0,
0,
0,
1,
0,
3,
0,
1,
0,
3,
0,
0,
0,
1,
0,
3,
0,
1,
0,
3,
0,
3,
0,
4,
0,
4,
0,
3,
0,
1,
0,
3,
0,
1,
0
] |
6094
|
[
"Internet",
":",
"chris",
"@",
"lsi",
".com",
"NLP",
"OBJECTIVES",
"LSI",
"'s",
"overall",
"natural",
"language",
"processing",
"(",
"NLP",
")",
"objective",
"is",
"the",
"development",
"of",
"a",
"broad",
"coverage",
",",
"reusable",
"system",
"which",
"is",
"readily",
"transportable",
"to",
"additional",
"domains",
",",
"applications",
",",
"and",
"sublanguages",
"in",
"English",
",",
"as",
"well",
"as"
] |
[
0,
0,
0,
0,
0,
0,
1,
0,
1,
0,
0,
3,
4,
4,
0,
2,
0,
0,
0,
0,
0,
0,
4,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
4,
0,
0,
0,
0,
0
] |
6095
|
[
"argument",
"structure",
"agreement",
"(",
"Das",
",",
"2009",
")",
",",
"the",
"analysis",
"of",
"Non-MonoClausal",
"Verb",
"(",
"NMCV",
")",
"or",
"Serial",
"Verb",
",",
"Control",
"Construction",
"(",
"CC",
")",
",",
"Modal",
"Control",
"Construction",
"(",
"MCC",
")",
",",
"Passives"
] |
[
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
3,
4,
0,
1,
0,
0,
0,
4,
0,
3,
4,
0,
1,
0,
0,
4,
4,
4,
0,
2,
0,
0,
0
] |
6096
|
[
"PP",
")",
"MDI",
"Missed",
"Samples",
"(",
"MS",
")",
"Bigram",
"Missed",
"Samples",
"(",
"MS",
")",
"Figure",
"4",
":",
"Values",
"of",
"PP",
"and",
"MS",
"for",
"automata",
"for",
"ad-hoc",
"automata"
] |
[
1,
0,
1,
3,
4,
0,
1,
0,
0,
4,
4,
0,
2,
0,
0,
0,
0,
0,
0,
2,
0,
2,
0,
0,
0,
0,
0
] |
6097
|
[
"dominates",
"the",
"other",
".",
"Marcu",
"?",
"s",
"Nuclearity",
"Principle",
"(",
"NP",
")",
"Marcu",
"1996",
"provides",
"an",
"alternative",
"to",
"the",
"immediate",
"interpretation",
"and"
] |
[
0,
0,
0,
0,
0,
0,
0,
3,
4,
0,
1,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0
] |
6098
|
[
"we",
"will",
"describe",
"in",
"detail",
"in",
"Section",
"3",
".",
"They",
"then",
"introduced",
"a",
"ClueWordSummarizer",
"(",
"CWS",
")",
",",
"a",
"graph-based",
"unsupervised",
"summarization",
"ap-"
] |
[
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
3,
4,
0,
1,
0,
0,
4,
0,
0,
0,
0
] |
6099
|
[
"The",
"lexical",
"features",
"used",
"are",
"word",
"bigrams",
".",
"The",
"Part",
"of",
"Speech",
"(",
"PoS",
")",
"of",
"the",
"target",
"word",
"and",
"its",
"neighbors",
"make",
"up",
"the",
"the",
"syntactic"
] |
[
0,
0,
0,
0,
0,
0,
0,
0,
0,
3,
4,
4,
0,
1,
0,
4,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0
] |
Subsets and Splits
No community queries yet
The top public SQL queries from the community will appear here once available.