id
stringlengths 1
4
| tokens
list | ner_tags
list |
---|---|---|
6300
|
[
"?",
"Named",
"entity",
"(",
"NE",
")",
"representation",
"in",
"KBs",
"poses",
"another",
"NED",
"challenge",
"."
] |
[
0,
0,
3,
0,
0,
1,
0,
0,
0,
0,
0,
0,
0,
0
] |
6301
|
[
"post-process",
"of",
"the",
"internal",
"diacritization",
"task",
"using",
"the",
"same",
"machine",
"learning",
"approach",
"that",
"was",
"trained",
"on",
"Base",
"phrase",
"(",
"BP",
")",
"-Chunk",
"as",
"well",
"as",
"POS",
"features",
"of",
"individual",
"tokens",
"with",
"correct"
] |
[
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
3,
4,
0,
1,
0,
0,
4,
0,
4,
1,
0,
0,
0,
0,
0,
0
] |
6302
|
[
"ODQA",
"system",
",",
"SPIQA",
".",
"The",
"system",
"derives",
"disambiguating",
"queries",
"(",
"DQs",
")",
"that",
"draw",
"out",
"additional",
"information",
"."
] |
[
1,
0,
0,
1,
0,
0,
0,
0,
3,
4,
0,
1,
0,
0,
0,
0,
0,
0,
0
] |
6303
|
[
"initions",
"of",
"state",
"can",
"not",
"be",
"sensitive",
"to",
"(",
"sometimes",
"critical",
")",
"aspects",
"of",
"the",
"dialogue",
"context",
",",
"such",
"as",
"the",
"user",
"?",
"s",
"last",
"dialogue",
"move",
"(",
"DM",
")",
"(",
"e.g",
".",
"requesthelp",
")",
"unless",
"that",
"move",
"directly",
"affects",
"the",
"status",
"of"
] |
[
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
3,
0,
0,
0,
0,
0,
0,
0,
0,
0,
4,
4,
0,
1,
0,
0,
0,
0,
0,
0,
0,
0,
4,
0,
0,
0,
0,
0
] |
6304
|
[
"English",
"?",
"German",
"45.59",
"43.72",
"Automatically",
"aligned",
"corpora",
"average",
"47.99",
"?",
"4.20",
"45.75",
"?",
"3.64",
"Table",
"1",
":",
"The",
"grammatical",
"coverage",
"(",
"GC",
")",
"of",
"NF-ITG",
"for",
"different",
"corpora",
"dependent",
"on",
"the",
"interpretation",
"of",
"word",
"alignments",
":",
"contiguous",
"Translation",
"Equivalence",
"or",
"discontiguous",
"Translation",
"Equivalence"
] |
[
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
3,
4,
0,
1,
0,
0,
1,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0
] |
6305
|
[
"grandmother",
".",
"CL.1SG.GEN",
"ALL",
"ART=airport",
"my",
"grandmother",
"to",
"the",
"airport"
] |
[
0,
1,
0,
0,
0,
0,
0,
0,
0,
0
] |
6306
|
[
"of",
"the",
"set",
"of",
"terminal",
"symbols",
")",
"or",
"empty",
"strings",
".",
"A",
"Phrase",
"Structure",
"Tree",
"(",
"PST",
")",
"is",
"a",
"tree",
"in",
"which",
"all",
"and",
"only",
"the",
"leaf",
"nodes",
"are",
"labeled",
"with",
"words",
"or"
] |
[
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
3,
4,
4,
0,
1,
0,
0,
4,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0
] |
6307
|
[
"the",
"literature",
".",
"In",
"a",
"recent",
"Japanese",
"NE",
"workshop",
",",
"a",
"maximum",
"entropy",
"(",
"ME",
")",
"system",
"outperformed",
"decision",
"tree",
"sys-"
] |
[
0,
0,
0,
0,
3,
0,
0,
0,
0,
0,
4,
4,
4,
0,
1,
0,
0,
0,
0,
0,
0
] |
6308
|
[
"The",
"pattern",
"we",
"used",
"consists",
"of",
"a",
"mix",
"between",
"the",
"part",
"of",
"speech",
"(",
"POS",
")",
"tags",
"and",
"the",
"mention",
"tags",
"for",
"the",
"words",
"in",
"the",
"training",
"instance",
"."
] |
[
0,
0,
0,
0,
0,
3,
4,
0,
0,
0,
0,
4,
4,
0,
0,
1,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0
] |
6309
|
[
"the",
"impact",
"of",
"various",
"kinds",
"of",
"physical",
"degradation",
"that",
"pages",
"may",
"endure",
"before",
"they",
"are",
"scanned",
"and",
"processed",
"using",
"optical",
"character",
"recognition",
"(",
"OCR",
")",
"software",
"."
] |
[
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
3,
4,
4,
0,
1,
0,
0,
0
] |
6310
|
[
"2007",
")",
",",
"to",
"machine",
"translation",
"(",
"Wu",
"and",
"Fung",
"2009",
")",
"and",
"summarization",
"(",
"Melli",
"et",
"al",
"2005",
")",
".",
"Most",
"semantic",
"role",
"labeling",
"(",
"SRL",
")",
"systems",
"to",
"date",
"conceptualize",
"the",
"task",
"as",
"a",
"supervised",
"learning",
"problem",
"and",
"rely",
"on",
"role-annotated",
"data",
"for",
"model",
"training",
"."
] |
[
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
3,
4,
4,
0,
1,
0,
0,
0,
0,
0,
0,
0,
0,
4,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0
] |
6311
|
[
"Elfardy",
"H.",
"and",
"Diab",
"M.",
"2012",
".",
"Simplified",
"guidelines",
"for",
"the",
"creation",
"of",
"large",
"scale",
"dialectal",
"arabic",
"annotations",
".",
"In",
"Proceedings",
"of",
"the",
"8th",
"International",
"Conference",
"on",
"Language",
"Resources",
"and",
"Evaluation",
"(",
"LREC",
")",
",",
"Istanbul",
",",
"Turkey",
".",
"Elfardy",
"H.",
"and",
"Diab",
"M.",
"2013",
"."
] |
[
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
3,
4,
0,
0,
0,
1,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0
] |
6312
|
[
"tial",
"state",
"for",
"HMM",
",",
"then",
"experiment",
"with",
"different",
"inference",
"algorithms",
"such",
"as",
"ExpectationMaximization",
"(",
"EM",
")",
",",
"Variational",
"Bayers",
"(",
"VB",
")",
"or",
"Gibbs",
"sampling",
"(",
"GS",
")",
".5",
"Gao",
"and",
"Johnson",
"(",
"2008",
")",
"compare"
] |
[
0,
0,
0,
1,
0,
0,
0,
0,
0,
0,
0,
0,
0,
3,
0,
1,
0,
0,
3,
4,
0,
1,
0,
0,
3,
4,
0,
1,
0,
0,
0,
0,
0,
0,
0,
0,
0
] |
6313
|
[
"sub-tasks",
":",
"?",
"Multimedia",
"Information",
"Network",
"(",
"MiNet",
")",
"Construction",
":",
"Construct",
"MiNet",
"from",
"cross-media",
"and",
"cross-genre",
"information",
"(",
"i.e",
".",
"tweets",
",",
"images",
",",
"sentences",
"of",
"web",
"doc-"
] |
[
0,
0,
0,
3,
4,
4,
0,
1,
0,
0,
0,
0,
2,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0
] |
6314
|
[
"rithm",
"to",
"handle",
"this",
"setting",
".",
"To",
"do",
"so",
",",
"we",
"use",
"dynamic",
"programming",
"(",
"DP",
")",
"together",
"with",
"greedy",
"search",
"."
] |
[
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
3,
4,
0,
1,
0,
0,
0,
0,
0,
0
] |
6315
|
[
"ROBUST04",
"WT10G",
"GOV2MAP",
"R-Pr",
"MAP",
"R-Pr",
"MAP",
"R-PrSF-12",
"27.03",
"30.20",
"21.62",
"24.81",
"28.57",
"34.01SF-123",
"26.83",
"30.34",
"21.34",
"24.64",
"28.77",
"34.24SF-NE",
"26.51",
"29.86",
"21.42",
"24.55",
"27.96",
"33.26SF-GD",
"26.22",
"29.48",
"20.33",
"23.72",
"28.30",
"33.83Gold",
"27.92",
"31.15",
"22.56",
"25.69",
"29.65",
"35.08",
"Table",
"5",
":",
"Results",
"with",
"supervised",
"selection",
"of",
"catenae",
"with",
"specified",
"length",
"(",
"SF-12",
",",
"SF-123",
")",
"are",
"more",
"effective",
"than",
"combinations",
"of",
"SFeat",
"with",
"heuristic",
"NomEnd",
"(",
"SF-NE",
")",
"or",
"GovDep",
"(",
"SF-GD",
")",
"."
] |
[
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
3,
0,
0,
0,
0,
4,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
4,
4,
4,
4,
0,
1,
0,
0,
0,
0,
1,
0,
0
] |
6316
|
[
"On",
"the",
"basis",
"of",
"these",
"specifications",
",",
"a",
"mapping",
"between",
"VAML",
"and",
"Concrete",
"AML",
"(",
"CAML",
")",
"can",
"be",
"made",
".",
"CAML"
] |
[
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
1,
0,
3,
4,
0,
2,
0,
0,
0,
0,
0,
2
] |
6317
|
[
"Phrasometer",
"?",
"The",
"phrasometer",
"feature",
"(",
"PM",
")",
"is",
"the",
"summed",
"log-likelihood",
"of",
"all",
"n-grams",
"the",
"word"
] |
[
0,
0,
0,
0,
0,
0,
0,
1,
0,
0,
0,
0,
0,
0,
0,
0,
0
] |
6318
|
[
"accessing",
"semantic",
"information",
"represented",
"in",
"input",
"specifications",
",",
"written",
"in",
"the",
"form",
"of",
"the",
"Sentence",
"Plan",
"Language",
"(",
"SPL",
")",
"(",
"Kasper",
",",
"1989",
";",
"Bateman",
",",
"1997a",
")",
",",
"and",
"in",
"the",
"knowledge",
"base",
"of"
] |
[
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
3,
4,
4,
0,
1,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0
] |
6319
|
[
"4.1",
"Compositional",
"Neural",
"Language",
"Model",
"(",
"C-NLM",
")",
"Compositional",
"Neural",
"Language",
"Model",
"(",
"C-NLM",
")",
"is",
"a",
"combination",
"of",
"a",
"word",
"representation",
"learning"
] |
[
0,
3,
4,
4,
4,
0,
1,
0,
4,
4,
4,
4,
0,
2,
0,
0,
4,
0,
0,
4,
0,
0,
0
] |
6320
|
[
"system",
"architecture",
"The",
"data",
"is",
"stored",
"in",
"one",
"central",
"Resource",
"Repository",
"(",
"RR",
")",
".",
"As",
"training",
"data",
"may",
"change",
"(",
"for"
] |
[
0,
0,
0,
0,
0,
0,
0,
0,
0,
3,
4,
0,
1,
0,
0,
0,
0,
0,
0,
0,
0,
0
] |
6321
|
[
"At",
"the",
"shallowest",
"level",
"of",
"attachment",
"we",
"find",
"the",
"conjunctions",
"(",
"CONJ+",
")",
"+"
] |
[
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
1,
2
] |
6322
|
[
"oleary",
"@",
"cs.umd.edu",
"Abstract",
"The",
"Text",
"Analysis",
"Conference",
"(",
"TAC",
")",
"ranks",
"summarization",
"systems",
"by",
"their",
"average",
"score"
] |
[
0,
0,
0,
0,
0,
3,
4,
4,
0,
1,
0,
0,
0,
0,
0,
0,
0,
0
] |
6323
|
[
"Odijk",
",",
"and",
"Stelios",
"Piperidis",
",",
"editors",
",",
"Proceedings",
"of",
"the",
"Ninth",
"International",
"Conference",
"on",
"Language",
"Resources",
"and",
"Evaluation",
"(",
"LREC",
"?",
"14",
")",
",",
"Reykjavik",
",",
"Iceland",
",",
"may",
".",
"European",
"Language",
"Resources",
"Association",
"(",
"ELRA",
")",
"."
] |
[
0,
0,
3,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
4,
4,
4,
4,
4,
0,
1,
2,
2,
0,
0,
0,
0,
0,
0,
0,
0,
4,
4,
4,
4,
0,
1,
0,
0
] |
6324
|
[
"adaptation",
"led",
"to",
"a",
"considerable",
"improvement",
"of",
"+4.1",
"BLEU",
"and",
"large",
"improvements",
"in",
"terms",
"of",
"METEOR",
"and",
"Translation",
"Edit",
"Rate",
"(",
"TER",
")",
".",
"We"
] |
[
0,
0,
0,
3,
0,
0,
0,
0,
1,
0,
0,
0,
0,
0,
0,
1,
0,
4,
4,
4,
0,
1,
0,
0,
0
] |
6325
|
[
"EOPAS",
"(",
"PARADISEC",
"tool",
")",
"for",
"text",
"interlinear",
"text",
"and",
"media",
"analysis",
"2",
".",
"NLTK",
"(",
"Natural",
"Language",
"Toolkit",
")",
"for",
"text",
"analytics",
"with",
"linguistic",
"data",
"(",
"Bird",
",",
"Klein",
",",
"&",
"Loper",
",",
"2009",
")",
"3",
"."
] |
[
1,
0,
1,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
1,
0,
3,
4,
4,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0
] |
6326
|
[
"tract",
"syntactic",
"features",
"for",
"FB-LTAG",
".",
"We",
"use",
"with",
"Sejong",
"Treebank",
"(",
"SJTree",
")",
"which",
"contains",
"32",
"054",
"eojeols",
"(",
"the",
"unity",
"of",
"segmenta-"
] |
[
0,
0,
0,
0,
0,
0,
0,
0,
0,
3,
4,
0,
1,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0
] |
6327
|
[
"lem",
",",
"and",
"our",
"system",
"adopted",
"a",
"supervised",
"learning",
"approach",
"with",
"Maximum",
"Entropy",
"classifier",
",",
"which",
"is",
"widely",
"used",
"in",
"natural",
"language",
"processing",
"(",
"NLP",
")",
"."
] |
[
0,
0,
0,
0,
0,
0,
3,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
4,
4,
4,
0,
0,
1,
0,
0
] |
6328
|
[
"In",
"Proc",
".",
"of",
"the",
"Conference",
"on",
"Computational",
"Natural",
"Language",
"Learning",
"(",
"CoNLL",
")",
",",
"7",
"."
] |
[
0,
0,
0,
0,
0,
0,
3,
4,
4,
4,
4,
0,
1,
0,
0,
0,
0
] |
6329
|
[
"there",
"are",
"usually",
"three",
"kinds",
"of",
"named",
"entities",
"(",
"NEs",
")",
"to",
"be",
"dealt",
"with",
":",
"names",
"of",
"persons",
"(",
"PER",
")",
",",
"locations",
"(",
"LOC",
")",
"and",
"organizations",
"(",
"ORG",
")",
"."
] |
[
0,
0,
0,
0,
0,
0,
3,
4,
0,
1,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
1,
0,
0,
3,
0,
1,
0,
0,
0,
0,
1,
0,
0
] |
6330
|
[
"2011",
".",
"Icelandic",
"Parsed",
"Historical",
"Corpus",
"(",
"IcePaHC",
")",
"."
] |
[
0,
0,
3,
4,
4,
4,
0,
1,
0,
0
] |
6331
|
[
"easily",
"inspectable",
".",
"The",
"generalizing",
"ability",
"of",
"the",
"evolutionary",
"reinforcement",
"learning",
"(",
"RL",
")",
"algorithm",
",",
"XCS",
",",
"can",
"dramatically",
"reduce",
"the",
"size",
"of",
"the",
"opti-"
] |
[
0,
0,
0,
0,
0,
0,
0,
0,
0,
3,
4,
0,
1,
0,
0,
0,
1,
0,
0,
0,
0,
0,
0,
0,
0,
0
] |
6332
|
[
"1",
"Introduction",
"Lexical",
"Acquisition",
"(",
"LA",
")",
"processes",
"strongly",
"rely",
"on",
"basic",
"assumptions",
"embodied",
"by",
"the",
"source",
"informa-"
] |
[
0,
0,
0,
3,
0,
0,
1,
0,
0,
0,
4,
0,
0,
0,
0,
0,
0,
0
] |
6333
|
[
"simardm",
"@",
"iro.umontreal.ca",
"Abstract",
"The",
"term",
"translation",
"spotting",
"(",
"TS",
")",
"refers",
"to",
"the",
"task",
"of",
"identifying",
"the",
"target-language",
"(",
"TL",
")"
] |
[
0,
0,
0,
0,
0,
0,
3,
4,
0,
1,
0,
0,
0,
0,
0,
0,
0,
0,
3,
0,
0,
0
] |
6334
|
[
"Theoretically",
",",
"the",
"expressive",
"power",
"of",
"converting",
"the",
"cospecs",
"of",
"a",
"GLS",
"into",
"DCG",
"parse",
"rules",
"i",
"s",
"equivalent",
"to",
"the",
"power",
"of",
"a",
"Lexicalized",
"Tree",
"Adjoining",
"Grammar",
"with",
"collocations",
"(",
"Shieber",
"[",
"14",
"]",
")",
",",
"what",
"we",
"have",
"termed",
"Hyper",
"Lexicalized",
"Tree",
"Adjoining",
"Grammars",
"(",
"HTAGs",
")",
"(",
"Pustejovsky",
"[",
"13",
"]",
")",
"."
] |
[
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
3,
1,
0,
1,
0,
0,
4,
4,
0,
0,
0,
0,
0,
4,
4,
4,
4,
4,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
4,
4,
4,
4,
4,
0,
2,
0,
0,
0,
0,
0,
0,
0,
0
] |
6335
|
[
"7",
"8",
"Figure",
"2",
":",
"The",
"Sense",
"Distribution",
"the",
"help",
"of",
"a",
"graphical",
"user",
"intefface",
"(",
"GUI",
")",
"scans",
"a",
"parsed",
"sample",
"article",
"and",
"indicates",
"a",
"series",
"of",
"se-"
] |
[
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
3,
4,
4,
0,
0,
1,
0,
0,
4,
0,
0,
0,
0,
0,
4,
0,
0,
0
] |
6336
|
[
"tice",
"to",
"both",
"characteristics",
"mentioned",
"above",
".",
"The",
"central",
"construct",
"in",
"this",
"framework",
"is",
"that",
"of",
"context",
"factor",
"(",
"CF",
")",
".",
"A",
"CF",
"is",
"defined",
"by",
"a",
"scope",
",",
"which",
"is",
"a",
"collection",
"of",
"individ-"
] |
[
0,
3,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
4,
4,
0,
1,
0,
0,
0,
2,
0,
0,
0,
4,
0,
0,
0,
0,
4,
0,
0,
0
] |
6337
|
[
"2003",
")",
"?",
"Minimum",
"Error",
"Rate",
"Training",
"(",
"MERT",
")",
"(",
"Och",
",",
"2003",
")",
"on",
"a",
"held-out",
"development",
"set",
",",
"target"
] |
[
0,
0,
0,
3,
4,
4,
4,
0,
1,
0,
0,
0,
0,
0,
0,
0,
4,
0,
0,
0,
0,
0
] |
6338
|
[
"ring",
"Expression",
"Generation",
"Task",
"(",
"TUNA-REG",
")",
"organised",
"by",
"Albert",
"Gatt",
",",
"Anja",
"Belz",
"and",
"Eric",
"Kow",
";",
"the",
"two",
"GREC",
"Challenges",
",",
"GREC",
"Main",
"Subject",
"Reference",
"Generation",
"(",
"GREC-MSR",
")",
"and",
"GREC",
"Named",
"Entity",
"Generation",
"(",
"GREC-NEG",
")",
",",
"organised",
"by",
"Anja",
"Belz",
",",
"Eric",
"Kow",
",",
"Jette",
"Viethen",
"and",
"Albert",
"Gatt",
";",
"and",
"the",
"Giving",
"Instructions",
"in"
] |
[
0,
0,
3,
0,
0,
1,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
4,
0,
0,
4,
0,
0,
0,
4,
0,
2,
0,
0,
4,
4,
4,
4,
0,
2,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0
] |
6339
|
[
"velopment",
"and",
"23",
"for",
"testing",
".",
"Chinese",
"data",
"were",
"extracted",
"from",
"the",
"Penn",
"Chinese",
"Treebank",
"(",
"CTB",
")",
"(",
"Xue",
"et",
"al",
",",
"2005",
")",
";",
"articles",
"001-270",
"and",
"440-"
] |
[
0,
0,
0,
0,
0,
0,
3,
0,
0,
0,
0,
0,
0,
4,
4,
0,
1,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0
] |
6340
|
[
"These",
"classifiers",
"are",
"based",
"on",
"a",
"discriminative",
"model",
":",
"Support",
"Vector",
"Machine",
"(",
"SVM",
")",
"6",
"(",
"Vapnik",
",",
"1995",
")",
"."
] |
[
0,
0,
0,
0,
0,
3,
0,
0,
0,
0,
4,
4,
0,
0,
1,
0,
0,
0,
0,
0,
2,
0
] |
6341
|
[
"There",
"is",
"no",
"person",
"boiling",
"noodles",
"A",
"woman",
"is",
"boiling",
"noodles",
"in",
"water",
"Example",
"9051",
"(",
"ENTAILMENT",
")",
"A",
"pair",
"of",
"kids",
"are",
"sticking",
"out",
"blue",
"and",
"green",
"colored",
"tongues"
] |
[
0,
0,
0,
0,
0,
0,
1,
0,
0,
0,
0,
0,
0,
3,
4,
0,
2,
0,
2,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0
] |
6342
|
[
"qnp",
"?",
"0.6",
"NP",
"(",
"qdet",
",",
"qn",
")",
",",
"qnp",
"?",
"0.4",
"NP",
"(",
"qnp",
",",
"qpp",
")",
",",
"qpp",
"?",
"1.0",
"PP",
"(",
"qprep",
",",
"qnp",
")",
",",
"qdet",
"?",
"1.0",
"DET",
"(",
"the",
")",
","
] |
[
0,
0,
0,
1,
0,
0,
0,
0,
0,
0,
0,
0,
0,
2,
0,
0,
0,
0,
0,
0,
0,
0,
0,
1,
0,
0,
0,
0,
0,
0,
0,
0,
0,
1,
0,
0,
0,
0
] |
6343
|
[
"WordNet",
"In",
"another",
"related",
"effort",
",",
"SRI",
"performed",
"experiments",
"in",
"utilizing",
"WordNet",
"(",
"WN",
")",
"as",
"a",
"knowledge",
"source",
"for",
"IE",
"."
] |
[
3,
0,
0,
0,
0,
0,
1,
0,
0,
0,
0,
4,
0,
1,
0,
0,
0,
0,
0,
0,
1,
0
] |
6344
|
[
"One",
"suggestion",
"is",
"is",
"to",
"use",
"as",
"a",
"natural",
"anguage",
"grammar",
"the",
"Core",
"Language",
"Engine",
"(",
"CLE",
")",
"(",
"Alshawi",
"1992",
")",
"."
] |
[
0,
0,
0,
0,
0,
0,
0,
3,
0,
4,
0,
0,
0,
4,
4,
0,
0,
1,
0,
0,
0,
2,
0
] |
6345
|
[
"variance",
"distribution",
".",
"In",
"the",
"feature",
"space",
",",
"a",
"support",
"vector",
"machine",
"(",
"SVM",
")",
"classifier",
"(",
"Vapnik",
",",
"1995",
")",
"is",
"used",
"to",
"determine",
"the",
"likelihoods"
] |
[
0,
0,
0,
0,
0,
0,
0,
0,
3,
4,
4,
4,
0,
1,
0,
0,
0,
0,
0,
0,
0,
0,
0,
4,
0,
0,
0
] |
6346
|
[
"1",
"I",
"n",
"t",
"roduct",
"ion",
"The",
"development",
"of",
"Natural",
"Language",
"(",
"NL",
")",
"systems",
"for",
"data",
"retrieval",
"has",
"been",
"a",
"central",
"issue",
"in",
"NL",
"Pro-"
] |
[
0,
0,
3,
4,
0,
0,
0,
0,
0,
0,
4,
0,
0,
1,
0,
0,
0,
0,
0,
0,
4,
0,
0,
0,
0,
0
] |
6347
|
[
"O-ADVL",
"=",
"Object",
"Adverbial",
":",
"lie",
"ran",
"two",
"miles",
".",
"APP",
"=",
"Apposition",
":",
"Helsinki",
",",
"the",
"capital",
"of",
"Finland",
",",
"N",
"=",
"Title",
":",
"King",
"George",
"and",
"Mr",
"."
] |
[
1,
0,
3,
4,
0,
0,
0,
0,
0,
0,
1,
0,
3,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
3,
0,
0,
0,
0,
0,
0
] |
6348
|
[
"learning",
"is",
"straightforward",
".",
"Very",
"Reduced",
"Regular",
"Expression",
"(",
"VRRE",
")",
":",
"Given",
"a",
"finite",
"alphabet",
"E",
",",
"the",
"set",
"of",
"very"
] |
[
0,
0,
0,
0,
3,
4,
4,
4,
0,
1,
0,
0,
0,
4,
0,
0,
4,
0,
0,
0,
0,
0
] |
6349
|
[
"pendency",
"and",
"constituency",
"tracks",
"are",
"shown",
"in",
"table",
"1",
".",
"The",
"label",
"attachment",
"score",
"(",
"LAS",
")",
"was",
"used",
"by",
"the",
"organizer",
"for",
"evaluating",
"the",
"dependency",
"versions",
","
] |
[
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
3,
4,
4,
0,
1,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0
] |
6350
|
[
"2.1",
"Download",
"Initial",
"Collection",
"The",
"Yahoo",
"Full",
"Coverage",
"Collection",
"(",
"YFCC",
")",
"was",
"downloaded",
"from",
"http",
":",
"//fullcoverage.yahoo.com",
"during"
] |
[
0,
0,
0,
3,
0,
4,
4,
4,
4,
0,
1,
0,
0,
0,
0,
0,
0,
0,
0
] |
6351
|
[
"processing",
".",
"In",
"Proceedings",
"of",
"the",
"Conference",
"on",
"Knowledge",
"Capture",
"(",
"K-CAP",
")",
",",
"pages",
"70-77",
",",
"2003",
"."
] |
[
0,
0,
0,
0,
0,
0,
0,
0,
3,
4,
0,
1,
0,
0,
0,
0,
0,
0,
0
] |
6352
|
[
"2",
"In",
"Pisa",
"two",
"dictionaries",
"of",
"Italian",
",",
",",
"are",
"being",
"used",
":",
"the",
"Nuovo",
"Dizionario",
"Garzanti",
"(",
"GRZ",
")",
"and",
"the",
"Dlzionario-",
"Macchina",
"dell'ltaliano",
"(",
"DMI",
")",
",",
"a",
"MRD",
"mainly",
"based",
"on",
"the"
] |
[
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
1,
0,
0,
0,
3,
4,
0,
0,
2,
0,
4,
0,
0,
0,
4,
0
] |
6353
|
[
"knowledge",
"from",
"a",
"corpus\\",
"[",
"2\\",
"]",
"\\",
"[",
"6\\",
"]",
"\\",
"[",
"91",
".",
"Machine",
"translation",
"(",
"MT",
")",
"systems",
"are",
"no",
"exception",
"."
] |
[
0,
0,
3,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
4,
4,
0,
1,
0,
0,
0,
0,
0,
0
] |
6354
|
[
"lines",
"and",
"web-gathered",
"word",
"lists",
".",
"Theses",
"grammars",
"are",
"represented",
"by",
"Finite",
"State",
"Machines",
"(",
"FSMs",
")",
"(",
"thanks",
"to",
"the",
"AT",
"&",
"T",
"GRM/FSM",
"toolkit",
"(",
"Allauzen",
"et"
] |
[
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
3,
4,
4,
0,
1,
0,
0,
0,
0,
0,
1,
2,
2,
1,
0,
0,
0,
0
] |
6355
|
[
"This",
"named-entity",
"tagger",
"program",
"is",
"based",
"on",
"a",
"first",
"order",
"Maximum",
"Entropy",
"Markov",
"Model",
"(",
"MEMM",
")",
"and",
"is",
"described",
"in",
"Yoshida",
"and",
"Tsujii",
"(",
"2007",
")",
"."
] |
[
0,
0,
0,
0,
0,
0,
0,
3,
0,
0,
0,
4,
4,
4,
0,
0,
1,
0,
0,
0,
0,
0,
0,
0,
0,
0,
2,
0
] |
6356
|
[
"the",
"first",
"reference",
"in",
"this",
"study",
".",
"(",
"3",
")",
"a",
"small",
"dataset",
"of",
"Wikipedia",
"articles",
"(",
"WIKI",
")",
"to",
"extend",
"our",
"corpus",
"and",
"metric",
"evaluation",
"to",
"topics",
"beyond",
"the"
] |
[
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
3,
0,
0,
0,
4,
4,
0,
1,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0
] |
6357
|
[
"2008",
";",
"Metzler",
"and",
"Cai",
",",
"2011",
")",
".",
"Work",
"in",
"Content",
"Based",
"Image",
"Retrieval",
"(",
"CBIR",
")",
"(",
"Datta",
"et",
"al.",
",",
"2008",
")",
"has",
"progressed",
"from",
"systems",
"that"
] |
[
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
3,
4,
4,
4,
0,
1,
0,
0,
0,
4,
0,
0,
0,
0,
0,
0,
0,
0,
0
] |
6358
|
[
"There",
"are",
"two",
"machine",
"learning",
"tasks",
"in",
"our",
"problem",
".",
"The",
"first",
"is",
"Dialogue",
"Act",
"(",
"DA",
")",
"Tagging",
",",
"in",
"which",
"we",
"assign",
"DAs",
"to",
"every",
"Dialogue",
"Func-"
] |
[
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
3,
4,
0,
1,
0,
0,
0,
0,
0,
0,
0,
2,
0,
0,
4,
0
] |
6359
|
[
"1",
"This",
"work",
"has",
"been",
"developed",
"in",
"the",
"project",
"KFr-FAST",
"(",
"KIT",
"=",
"Kilnstliche",
"Intelligenz",
"und",
"Textverstehen",
"(",
"Artificial",
"Intelligence",
"and",
"Text",
"Understanding",
")",
";",
"FAST",
"=",
"Functor",
"Argument",
"S",
"ructure",
"for",
"Translation",
")",
",",
"which",
"constitutes",
"the",
"Berlin",
"component",
"of",
"the",
"complementary",
"research",
"project",
"of"
] |
[
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
1,
0,
3,
4,
4,
4,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0
] |
6360
|
[
"The",
"obtained",
"Spanish",
"scores",
"as",
"compared",
"to",
"the",
"scores",
"from",
"the",
"initial",
"English",
"experiment",
"(",
"E-E-E",
")",
"are",
"shown",
"in",
"figure",
"5",
"."
] |
[
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
3,
0,
0,
1,
0,
0,
0,
0,
0,
0
] |
6361
|
[
"(",
"approx",
".",
"68,000",
"sentences",
",",
"1.4",
"million",
"tokens",
")",
",",
"(",
"2",
")",
"Brown",
"Corpus",
"(",
"BROWN",
")",
"(",
"approx",
".",
"60,000"
] |
[
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
3,
0,
0,
1,
0,
0,
0,
0,
0
] |
6362
|
[
"This",
"makes",
"it",
"hard",
"to",
"find",
"particular",
"information",
"of",
"in-terest",
"(",
"say",
",",
"a",
"mention",
"of",
"a",
"particular",
"company",
"in",
"a",
"set",
"of",
"thousands",
"of",
"YouTube",
"comments",
")",
",",
"or",
"to",
"un-derstand",
"the",
"gist",
"of",
"the",
"discussion",
"at",
"a",
"high-level",
".",
"Our",
"goal",
"in",
"this",
"work",
"was",
"to",
"create",
"a",
"simple",
"tool",
"which",
"would",
"allow",
"people",
"to",
"rapidly",
"ingest",
"useful",
"information",
"contained",
"in",
"large",
"community-created",
"comment",
"threads",
",",
"where",
"the",
"volume",
"of",
"data",
"precludes",
"manual",
"inspection",
".",
"To",
"this",
"end",
",",
"we",
"created",
"CoFi",
"(",
"Comment",
"Filter",
")",
",",
"a",
"language-independent",
",",
"web-based",
"interactive",
"browser",
"for",
"single",
"comment",
"threads",
".",
"2",
"How",
"CoFi",
"works",
"For",
"a",
"given",
"set",
"of",
"comments",
",",
"we",
"create",
"a",
"distinct",
"CoFi",
"instance",
"."
] |
[
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
1,
0,
3,
4,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
2,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
2,
0,
0
] |
6363
|
[
"a",
"mistake",
"when",
"we",
"generate",
"the",
"final",
"output",
"that",
"results",
"in",
"a",
"lower",
"score",
"of",
"56.31",
"%",
"in",
"term",
"of",
"Labeled",
"Attachment",
"Score",
"(",
"LAS",
")",
",",
"reported",
"by",
"organizers",
"."
] |
[
3,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
4,
0,
0,
0,
0,
0,
0,
0,
0,
4,
4,
4,
0,
1,
0,
0,
0,
0,
0,
0
] |
6364
|
[
"and",
"embedded",
"phrase",
"levels",
":",
"?",
"Object",
"reordering",
"(",
"ObjR",
")",
",",
"in",
"which",
"the",
"objects",
"and",
"their",
"dependents",
"are",
"moved",
"in",
"front"
] |
[
0,
0,
0,
0,
0,
0,
3,
4,
0,
1,
0,
0,
4,
0,
0,
0,
0,
0,
0,
0,
0,
4,
0
] |
6365
|
[
"Part",
"of",
"FrameNet",
"is",
"also",
"a",
"corpus",
"of",
"135,000",
"annotated",
"example",
"sentences",
"from",
"the",
"British",
"National",
"Corpus",
"(",
"BNC",
")",
"."
] |
[
0,
0,
0,
3,
0,
4,
0,
0,
0,
0,
0,
0,
0,
0,
4,
4,
4,
0,
1,
0,
0
] |
6366
|
[
"and",
"tests",
"2",
"and",
"3",
"are",
"open",
"tests",
"performed",
"on",
"different",
"test",
"data",
".",
"DM",
"(",
"i.e.",
",",
"Default",
"Model",
")",
"assigns",
"all",
"incoming",
"cases",
"with",
"the",
"most",
"likely",
"class",
"and",
"it",
"is"
] |
[
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
1,
0,
0,
0,
3,
4,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0
] |
6367
|
[
"task",
".",
"As",
"reported",
"in",
"(",
"Liu",
"et",
"al",
"2013a",
")",
",",
"we",
"used",
"a",
"genetic",
"algorithm",
"(",
"GA",
")",
"(",
"Cormen",
"et",
"al",
"2001",
")",
"to",
"au80"
] |
[
0,
0,
0,
0,
0,
0,
0,
3,
4,
0,
0,
0,
0,
0,
4,
4,
4,
0,
1,
0,
0,
0,
4,
4,
0,
0,
0,
0
] |
6368
|
[
"for",
"the",
"task",
":",
"a",
"training",
"dataset",
"(",
"TrainSet",
")",
"with",
"9675",
"messages",
"directly",
"retrieved",
"from",
"Twitter",
";",
"a",
"development",
"dataset",
"(",
"DevSet",
")",
",",
"with",
"1654",
"messages",
";",
"the",
"testing",
"dataset",
"from",
"2013",
"run",
",",
"which"
] |
[
0,
0,
0,
0,
3,
4,
4,
0,
2,
0,
0,
0,
0,
0,
0,
0,
0,
0,
4,
4,
4,
0,
1,
0,
0,
0,
0,
0,
0,
0,
0,
4,
0,
0,
0,
0,
0
] |
6369
|
[
"Suffixes",
"(",
"S",
")",
":",
"able",
",",
"est",
",",
"ful",
",",
"ic",
",",
"ing",
",",
"ive",
",",
"ness",
"etc",
".",
"Word",
"Sentiment",
"Polarity",
"(",
"SP",
")",
":",
"POS",
",",
"NEG",
",",
"NEU",
"Pivoting",
"on",
"the",
"head",
"aspect",
",",
"we",
"look",
"forward",
"and"
] |
[
0,
0,
3,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
4,
4,
0,
2,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0
] |
6370
|
[
"2.2",
"Keystroke",
"Ratio",
"(",
"KSR",
")",
"In",
"addition",
"to",
"these",
"metrics",
",",
"suffix",
"prediction",
"can",
"be",
"evaluated",
"by",
"the",
"widely",
"used",
"keystroke",
"ratio",
"(",
"KSR",
")",
"metric",
"(",
"Och",
"et",
"al",
",",
"2003",
")",
"."
] |
[
0,
3,
4,
0,
1,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
3,
4,
0,
2,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0
] |
6371
|
[
"tagger",
"(",
"Cutting",
"et",
"al",
"1992",
")",
"and",
"LT",
"POS",
"tagger",
"(",
"Mikheev",
"1997",
")",
".",
"Maximum",
"Entropy",
"(",
"MaxEnt",
")",
"based",
"taggers",
"also",
"seem",
"to",
"perform",
"very",
"well"
] |
[
0,
0,
0,
0,
0,
0,
0,
0,
1,
1,
0,
0,
0,
0,
0,
0,
3,
4,
0,
1,
0,
0,
0,
0,
0,
0,
0,
0,
0
] |
6372
|
[
"This",
"paper",
"presents",
"the",
"UNL",
"graph",
"matching",
"method",
"for",
"the",
"Semantic",
"Textual",
"Similarity",
"(",
"STS",
")",
"task",
"."
] |
[
0,
0,
0,
0,
1,
0,
0,
0,
0,
0,
3,
4,
0,
0,
1,
0,
0,
0
] |
6373
|
[
"tends",
"the",
"comparison",
"set",
"to",
"players",
"of",
"AS",
"Roma",
".",
"Prepositional",
"phrases",
"(",
"PPs",
")",
",",
"gerunds",
",",
"and",
"relative",
"clauses",
"introduce",
"additional",
"complexity",
"."
] |
[
0,
0,
0,
0,
0,
0,
0,
1,
0,
0,
3,
4,
0,
1,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0
] |
6374
|
[
"Score",
"(",
"E",
")",
",",
"where",
"E",
"is",
"an",
"example",
"of",
"Pat",
"To",
"improve",
"ranking",
",",
"we",
"also",
"try",
"to",
"find",
"the",
"longest",
"similar",
"subsequence",
"(",
"LSS",
")",
"between",
"the",
"user",
"input",
",",
"Sent",
"and",
"retrieved",
"example",
",",
"Exm"
] |
[
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
3,
4,
4,
0,
1,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0
] |
6375
|
[
"exp",
"(",
"14",
")",
"Short",
"word",
"difference",
"penalty",
"(",
"SWDP",
")",
":",
"a",
"good",
"translation",
"should",
"have",
"roughly",
"the",
"same"
] |
[
0,
0,
0,
0,
3,
4,
4,
4,
0,
1,
0,
0,
4,
0,
0,
0,
0,
0,
0,
0
] |
6376
|
[
"DSTG",
"=",
"Adverb",
"s",
"t",
"r",
"i",
"r",
"ig",
"mRTOVO",
"=",
"For",
"+",
"Subject",
"-+",
"to",
"-+",
"Object",
"NA",
"=",
"N",
"t-",
"Adjective",
"NASOBJBE",
"-",
"N",
"+",
"as",
"-",
"t-",
"Object",
"of",
"be",
"-"
] |
[
1,
0,
0,
0,
3,
0,
4,
0,
0,
1,
0,
0,
0,
0,
0,
0,
0,
0,
1,
0,
4,
4,
4,
2,
4,
4,
0,
0,
4,
4,
0,
0,
0,
4
] |
6377
|
[
"1",
"Introduction",
"Traditionally",
",",
"Information",
"Retrieval",
"(",
"IR",
")",
"and",
"Statistical",
"Natural",
"Language",
"Processing",
"(",
"NLP",
")",
"applica-"
] |
[
0,
0,
0,
0,
0,
3,
0,
0,
1,
0,
0,
0,
3,
4,
0,
0,
2,
0
] |
6378
|
[
"This",
"paper",
"explores",
"the",
"use",
"of",
"the",
"homotopy",
"method",
"for",
"training",
"a",
"semi-supervised",
"Hidden",
"Markov",
"Model",
"(",
"HMM",
")",
"used",
"for",
"sequence",
"labeling",
"."
] |
[
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
3,
0,
4,
4,
4,
0,
1,
0,
0,
0,
0,
0,
0
] |
6379
|
[
"from",
"the",
"output",
"of",
"the",
"parser",
"we",
"adopt",
"a",
"uniform",
"meaning",
"representation",
"which",
"is",
"a",
"structured",
"Logical",
"Form",
"(",
"LF",
")",
".",
"In",
"other",
"words",
"we",
"map",
"our",
"f-"
] |
[
0,
0,
0,
0,
0,
0,
0,
0,
3,
0,
0,
0,
0,
0,
4,
0,
4,
4,
0,
1,
0,
0,
0,
0,
0,
0,
0,
0,
0
] |
6380
|
[
"The",
"resulting",
"unit",
"denominates",
"a",
"concept",
"which",
"belongs",
"to",
"the",
"language",
"for",
"special",
"purposes",
"(",
"LSP",
")",
"."
] |
[
0,
0,
0,
0,
3,
0,
0,
0,
0,
0,
4,
4,
4,
4,
0,
1,
0,
0
] |
6381
|
[
"2011",
".",
"Overview",
"of",
"the",
"Infectious",
"Diseases",
"(",
"ID",
")",
"task",
"of",
"BioNLP",
"Shared",
"Task",
"2011",
"."
] |
[
0,
0,
0,
0,
0,
3,
4,
0,
1,
0,
0,
0,
1,
0,
0,
0,
0
] |
6382
|
[
"1425",
"Proceedings",
"of",
"the",
"3rd",
"Workshop",
"on",
"Hybrid",
"Approaches",
"to",
"Translation",
"(",
"HyTra",
")",
"@",
"EACL",
"2014",
",",
"pages",
"75",
"?",
"81",
",",
"Gothenburg",
",",
"Sweden",
",",
"April",
"27",
",",
"2014",
"."
] |
[
0,
0,
0,
0,
0,
0,
3,
4,
4,
4,
4,
0,
1,
0,
0,
1,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0
] |
6383
|
[
"Var",
".",
"47.9",
"60.7",
"67.9",
"70.8",
"75.0",
"77.3",
"Pronunciation",
"(",
"PHL",
")",
"with",
"Pron",
".",
"Var",
"."
] |
[
1,
0,
0,
0,
0,
0,
0,
0,
3,
0,
1,
0,
0,
4,
0,
2,
0
] |
6384
|
[
"the",
"reference",
"than",
"the",
"rest",
".",
"Considering",
"this",
",",
"we",
"use",
"a",
"Longest",
"Common",
"Subsequence",
"(",
"LCS",
")",
"based",
"criterion",
"to",
"calculate",
"s",
"(",
"x",
",",
"y",
")",
"."
] |
[
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
3,
4,
0,
0,
1,
0,
0,
0,
0,
0,
4,
0,
0,
0,
0,
0,
0
] |
6385
|
[
"1",
"Introduction",
"Statistical",
"machine",
"translation",
"(",
"SMT",
")",
"starts",
"from",
"sequence-based",
"models",
"."
] |
[
0,
0,
0,
3,
4,
0,
0,
1,
0,
0,
0,
0,
0
] |
6386
|
[
"Upsala",
"College",
"INTRODUCTION",
"A",
"computerized",
"conference",
"(",
"CC",
")",
"is",
"a",
"form",
"of",
"co~znunica-",
"tion",
"in",
"which",
"participants",
"type",
"into",
"and",
"read",
"frc~",
"a"
] |
[
0,
0,
0,
0,
3,
4,
0,
1,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0
] |
6387
|
[
"redundancy",
"at",
"low",
"and",
"medium",
"allophonic",
"complexities",
",",
"estimated",
"by",
"the",
"Jaccard",
"indices",
"between",
"their",
"false",
"positives",
"(",
"FP",
")",
"and",
"false",
"negatives",
"(",
"FN",
")",
"."
] |
[
0,
3,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
4,
4,
0,
1,
0,
0,
4,
4,
0,
1,
0,
0
] |
6388
|
[
"entries",
"in",
"an",
"existing",
"knowledge",
"base",
"is",
"called",
"entity",
"linking",
"and",
"has",
"been",
"proposed",
"and",
"studied",
"in",
"the",
"Knowledge",
"Base",
"Population",
"(",
"KBP",
")",
"track",
"of",
"the",
"Text",
"Analysis",
"Conference",
"(",
"TAC",
")",
"(",
"McNamee",
"and",
"Dang",
","
] |
[
0,
0,
0,
0,
0,
0,
3,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
3,
4,
4,
0,
1,
0,
0,
0,
0,
4,
4,
4,
0,
1,
0,
0,
0,
0,
0,
0
] |
6389
|
[
"left",
"AV",
"and",
"right",
"AV",
".",
"For",
"a",
"string",
"s",
"with",
"length",
"l",
",",
"we",
"define",
"the",
"left",
"accessor",
"variety",
"(",
"LAV",
")",
"as",
"the",
"types",
"of",
"distinct",
"characters",
"preceding",
"s",
"in"
] |
[
3,
1,
0,
0,
2,
0,
0,
4,
0,
4,
0,
0,
4,
0,
0,
0,
0,
4,
4,
4,
0,
2,
0,
0,
0,
0,
0,
0,
0,
0,
4,
0
] |
6390
|
[
"ACL",
"2006",
"paper",
"(",
"see",
"experiments",
")",
".",
"Cross",
"document",
"coreference",
"(",
"CDC",
")",
"(",
"Bagga",
"and",
"Baldwin",
",",
"1998",
")",
"is",
"a",
"distinct",
"technology",
"that",
"consolidates",
"named",
"entities"
] |
[
1,
0,
0,
0,
0,
0,
0,
0,
3,
4,
4,
0,
1,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0
] |
6391
|
[
"?",
"Backward",
"Looking",
"(",
"BL",
")",
"/Forward",
"Looking",
"(",
"FL",
")",
"features",
"(",
"14",
"to",
"22",
")",
"are",
"mostly",
"extracted",
"from",
"ut-"
] |
[
0,
0,
3,
0,
0,
1,
0,
4,
0,
0,
2,
0,
0,
0,
0,
0,
2,
0,
0,
0,
0,
0
] |
6392
|
[
"We",
"have",
"also",
"made",
"a",
"preliminary",
"attempt",
"to",
"transfer",
"a",
"thesaurus",
"entry",
"from",
"the",
"Collins",
"Thesaurus",
"(",
"CT",
")",
"into",
"Italian",
"by",
"means",
"of",
"the",
"English-Italian",
"and",
"Italian-"
] |
[
0,
0,
0,
0,
3,
0,
0,
0,
0,
4,
0,
0,
0,
0,
0,
4,
4,
0,
1,
0,
0,
0,
0,
0,
0,
0,
0,
0
] |
6393
|
[
"Temporal",
"Types",
"Possible",
"Values",
"(",
"tags",
")",
"Timeline",
"(",
"TL",
")",
"past",
",",
"present",
",",
"future",
"Day",
"of",
"Week",
"(",
"DOW",
")",
"Mon",
",",
"Tue",
",",
".",
".",
".",
","
] |
[
0,
0,
0,
0,
0,
0,
1,
0,
0,
0,
2,
0,
0,
0,
0,
0,
0,
3,
4,
0,
0,
2,
0,
0,
0,
0,
0,
0,
0,
0
] |
6394
|
[
"There",
"are",
"three",
"options",
":",
"French",
"(",
"FR",
")",
",",
"Spanish",
"(",
"SP",
")",
",",
"or",
",",
"Merged",
"languages",
"(",
"ML",
")",
",",
"where",
"the",
"results",
"are",
"obtained",
"by",
"merging",
"the",
"English",
"output",
"of",
"FR"
] |
[
0,
0,
0,
0,
0,
3,
0,
1,
0,
0,
3,
0,
1,
0,
0,
0,
0,
3,
4,
0,
1,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
2
] |
6395
|
[
"4-gram",
"+",
"LSA",
"using",
"linear",
"interpolation",
"with",
"?",
"LSA",
"=",
"0.11",
"(",
"LI",
")",
"."
] |
[
0,
0,
3,
0,
3,
4,
0,
0,
4,
0,
0,
0,
1,
0,
0
] |
6396
|
[
"experiments",
"can",
"be",
"listed",
"as",
"follows",
".",
"Head",
"Word",
"(",
"HW",
".",
")",
"The",
"predicate",
"?",
"s",
"head",
"word",
"as"
] |
[
0,
0,
0,
0,
0,
0,
1,
3,
4,
0,
2,
2,
0,
0,
0,
0,
0,
0,
0,
0
] |
6397
|
[
"The",
"two",
"main",
"Modern",
"Standard",
"Arabic",
"dependency",
"treebanks",
"currently",
"available",
"are",
"the",
"Columbia",
"Arabic",
"Treebank",
"(",
"CATiB",
")",
"(",
"Habash",
"and",
"Roth",
",",
"2009",
")",
"and",
"the",
"Prague",
"Arabic",
"Dependency"
] |
[
0,
0,
0,
0,
0,
3,
0,
0,
0,
0,
0,
0,
4,
4,
4,
0,
1,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
4,
0
] |
6398
|
[
"Many",
"researchers",
"have",
"attempted",
"several",
"tech-",
"niques",
"to",
"deal",
"with",
"extragrammatical",
"sentences",
"such",
"as",
"Augmented",
"Transition",
"Network",
"(",
"ATN",
")",
"(",
"Kwasny",
"and",
"Sondheimer",
",",
"1981",
")",
",",
"network-based"
] |
[
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
3,
4,
0,
0,
1,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0
] |
6399
|
[
">",
"60",
"ICE",
"ICE",
"ICE",
"ICE",
"10C",
"1~",
"10C",
"I0C",
">",
".Y0",
"ICE",
"ICE",
"ICE",
"ICE",
"ICE",
"IOC",
"I",
"(",
"E",
"1~",
">",
"40",
"IO",
"(",
"J",
"ICE",
"ICE",
"lO0",
"ICE",
"ICE",
"1~",
"ICE",
">",
"35",
"ICE",
"lO",
"(",
"l",
"ICE",
"ICE",
"lie",
"lOC",
"IOC",
"lOC"
] |
[
0,
0,
3,
4,
4,
4,
0,
0,
0,
0,
0,
0,
4,
4,
4,
4,
4,
0,
4,
0,
4,
0,
0,
0,
2,
0,
0,
4,
4,
4,
4,
4,
0,
4,
0,
0,
4,
4,
0,
4,
4,
4,
0,
0,
0,
0
] |
Subsets and Splits
No community queries yet
The top public SQL queries from the community will appear here once available.