id
stringlengths 1
4
| tokens
list | ner_tags
list |
---|---|---|
6500
|
[
"back",
".",
"We",
"define",
"a",
"currency",
"for",
"annotation",
"cost",
"as",
"Annotation",
"cost",
"Units",
"(",
"AUs",
")",
".",
"For",
"an",
"annotation",
"bud-"
] |
[
0,
0,
0,
0,
3,
0,
0,
0,
4,
0,
4,
4,
4,
0,
1,
0,
0,
0,
0,
0,
0
] |
6501
|
[
"sible",
"classes",
"we",
"show",
"the",
"accuracy",
"of",
"the",
"correct",
"hashtag",
"being",
"amongst",
"the",
"top",
"1,5",
"or",
"50",
"hashtags",
"as",
"well",
"as",
"the",
"Mean",
"Reciprocal",
"Rank",
"(",
"MRR",
")",
".",
"The"
] |
[
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
3,
4,
4,
0,
1,
0,
0,
0
] |
6502
|
[
"54",
"Proceedings",
"of",
"the",
"2014",
"Conference",
"on",
"Empirical",
"Methods",
"in",
"Natural",
"Language",
"Processing",
"(",
"EMNLP",
")",
",",
"pages",
"325",
"?",
"335",
",",
"October",
"25-29",
",",
"2014",
",",
"Doha",
",",
"Qatar",
"."
] |
[
0,
0,
0,
0,
0,
0,
0,
3,
4,
4,
4,
4,
4,
0,
1,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0
] |
6503
|
[
"3",
"Data",
"The",
"RST",
"Discourse",
"Treebank",
"(",
"RST-DT",
")",
"(",
"Carlson",
"et",
"al",
",",
"2002",
")",
"was",
"used",
"for",
"training",
"and",
"testing",
"."
] |
[
0,
0,
0,
0,
3,
4,
0,
0,
1,
0,
0,
0,
0,
0,
0,
2,
0,
0,
0,
0,
0,
0,
0
] |
6504
|
[
"When",
"ready",
"and",
"mature",
",",
"technology",
"and",
"language",
"processing",
"techniques",
"will",
"be",
"incorporated",
"into",
"Foreign",
"Broadcast",
"Information",
"Service",
"(",
"FBIS",
")",
"processing",
"."
] |
[
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
3,
4,
4,
4,
0,
1,
0,
0,
0
] |
6505
|
[
"3.2",
"Formalizing",
"Paradigmatic",
"Relations",
"with",
"Lexical",
"Functions",
"Lexical",
"functions",
"(",
"LF",
")",
"are",
"a",
"formal",
"tool",
"designed",
"to",
"describe",
"all",
"types",
"of",
"genuine",
"lexical",
"relations"
] |
[
0,
0,
0,
0,
0,
3,
0,
4,
4,
0,
1,
0,
0,
4,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0
] |
6506
|
[
"Evaluating",
"the",
"quality",
"of",
"language",
"output",
"tasks",
"such",
"as",
"Machine",
"Translation",
"(",
"MT",
")",
"and",
"Automatic",
"Summarisation",
"(",
"AS",
")",
"is",
"a",
"challenging",
"topic",
"in",
"Natural",
"Language",
"Processing"
] |
[
0,
0,
0,
0,
0,
0,
0,
0,
0,
3,
4,
0,
1,
0,
0,
3,
4,
0,
1,
0,
4,
4,
0,
0,
4,
0,
0,
0
] |
6507
|
[
"tent",
"both",
"in",
"their",
"living",
"rooms",
"and",
"on",
"their",
"mobile",
"devices",
".",
"Digital",
"video",
"recorders",
"(",
"DVRs",
")",
"allow",
"people",
"to",
"record",
"TV",
"programs",
"from",
"hundreds",
"of",
"chan-"
] |
[
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
3,
4,
4,
0,
1,
0,
0,
0,
0,
4,
1,
0,
0,
0,
0,
0
] |
6508
|
[
"2.1",
"Named",
"Entity",
"Recognition",
"We",
"regard",
"named",
"entity",
"recognition",
"(",
"NER",
")",
"as",
"a",
"standalone",
"task",
",",
"independent",
"of",
"language",
"identification",
"."
] |
[
0,
0,
0,
0,
0,
0,
0,
3,
4,
0,
0,
1,
0,
4,
0,
0,
0,
0,
0,
0,
0,
0
] |
6509
|
[
"Context-Free",
"Grammars",
"2.1",
"Minimalist",
"Grammars",
"A",
"Minimalist",
"Grammar",
"(",
"MG",
")",
"(",
"Stabler",
"and",
"Keenan",
",",
"2003",
")",
"1",
"is",
"a",
"five-tuple"
] |
[
0,
0,
0,
3,
0,
0,
4,
4,
0,
1,
0,
0,
0,
0,
0,
0,
0,
0,
0,
4,
4,
0
] |
6510
|
[
"As",
"shown",
"in",
"the",
"table",
",",
"all",
"models",
"perform",
"equally",
"well",
"on",
"identification",
",",
"which",
"is",
"determined",
"by",
"the",
"frame",
"matcher",
"(",
"FM",
")",
";",
"i.e.",
",",
"any",
"extracted",
"argument",
"receiving",
"one",
"or",
"more",
"candidate",
"roles",
"is",
"?"
] |
[
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
3,
4,
0,
1,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0
] |
6511
|
[
"The",
"CoreSC",
"scheme",
"consists",
"of",
"three",
"layers",
";",
"the",
"first",
"layer",
"corresponds",
"to",
"eleven",
"concepts",
"(",
"Background",
"(",
"BAC",
")",
",",
"Hypothesis",
"(",
"HYP",
")",
",",
"Motivation",
"(",
"MOT",
")",
",",
"Goal",
"(",
"GOA",
")",
",",
"Object",
"(",
"OBJ",
")",
",",
"Method",
"(",
"MET",
")",
",",
"Model"
] |
[
0,
1,
0,
0,
0,
0,
0,
0,
3,
0,
0,
0,
0,
0,
0,
0,
3,
0,
1,
0,
0,
4,
0,
1,
0,
0,
3,
0,
1,
0,
0,
3,
0,
1,
0,
0,
3,
0,
1,
0,
0,
3,
0,
1,
0,
0,
0
] |
6512
|
[
"Feature",
"F1,344",
"d",
"Automated",
"Readability",
"Index",
"(",
"ARI",
")",
"0.187",
"0.047",
"Average",
"Sentence",
"Length",
"(",
"ASL",
")",
"3.870",
"0.213",
"Sentence",
"Complexity",
"(",
"COM",
")",
"10.93",
"0.357"
] |
[
0,
0,
3,
4,
4,
4,
0,
1,
0,
0,
0,
3,
4,
4,
0,
1,
0,
0,
0,
4,
3,
0,
1,
0,
0,
0
] |
6513
|
[
"to",
"do",
"the",
"testing",
"on",
"real",
"emotions",
".",
"The",
"Berlin",
"Emotional",
"Database",
"(",
"EMO-DB",
")",
"contains",
"the",
"set",
"of",
"emotions",
"from",
"the",
"MPEG-4",
"standard",
"(",
"anger",
","
] |
[
0,
0,
0,
0,
3,
0,
0,
0,
0,
0,
4,
4,
0,
1,
0,
0,
0,
0,
0,
0,
0,
0,
1,
0,
0,
0,
0
] |
6514
|
[
"Queue",
"to",
"for",
"user",
"intervention",
".",
"4.2",
",",
"Document",
"Processor",
"(",
"DP",
")",
"The",
"DP",
"identifies",
"and",
"extracts",
"all",
"SGML",
"tags",
"de-"
] |
[
0,
0,
0,
0,
0,
0,
0,
0,
3,
4,
0,
1,
0,
0,
2,
0,
0,
0,
0,
1,
0,
0
] |
6515
|
[
"systematic",
"way",
".",
"The",
"MIME",
"(",
"Managing",
"Information",
"in",
"Medical",
"Emergencies",
")",
"1",
"project",
"is",
"developing",
"technology",
"to"
] |
[
0,
0,
0,
0,
1,
0,
3,
4,
4,
4,
4,
0,
0,
0,
0,
0,
0,
0
] |
6516
|
[
"07",
"a",
"Single",
"0.71",
"1.00",
"0.83",
"0.00",
"0.00",
"0.00",
"0.42",
"1.39",
"9",
"Table",
"9",
"Constituent",
"parsing",
"evaluation",
"results",
"of",
"Task",
"2-2",
"(",
"Close",
"Track",
")",
",",
"ranked",
"with",
"Tot-F1",
"(",
"S_S=simple",
"sentence",
",",
"C_S=complex",
"sentence",
")",
"ID",
"Sys-ID",
"Model",
"Constituents",
"in",
"S_S",
"C_S",
"constituent",
"Total",
"POS-A",
"Rank"
] |
[
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
3,
0,
0,
4,
0,
1,
2,
0,
0,
0,
1,
2,
0,
0,
1,
0
] |
6517
|
[
"2214",
"Proceedings",
"of",
"the",
"of",
"the",
"EACL",
"2014",
"Workshop",
"on",
"Dialogue",
"in",
"Motion",
"(",
"DM",
")",
",",
"pages",
"1",
"?",
"9",
",",
"Gothenburg",
",",
"Sweden",
",",
"April",
"26-30",
"2014",
"."
] |
[
0,
0,
0,
0,
0,
0,
1,
0,
0,
3,
4,
4,
4,
0,
1,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0
] |
6518
|
[
"In",
"Proceedings",
"of",
"the",
"Conference",
"of",
"the",
"Pacific",
"Association",
"for",
"Computational",
"Linguistics",
"(",
"PACLING",
")",
",",
"pages",
"120",
"?",
"128",
"."
] |
[
0,
0,
0,
0,
0,
0,
0,
3,
4,
4,
4,
4,
0,
1,
0,
0,
0,
0,
0,
0,
0
] |
6519
|
[
"2",
"Long",
"Short-Term",
"Memory",
"Networks",
"2.1",
"Overview",
"Recurrent",
"neural",
"networks",
"(",
"RNNs",
")",
"are",
"able",
"to",
"process",
"input",
"sequences",
"of",
"arbitrary",
"length",
"via",
"the",
"re-"
] |
[
0,
0,
0,
0,
0,
0,
0,
3,
4,
4,
0,
1,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0
] |
6520
|
[
"determine",
"the",
"appropriate",
"xpressional",
"form",
".",
"Hovy",
"'s",
"text",
"structurer",
"(",
"Hovy",
"1988b",
")",
",",
"for",
"example",
",",
"uses",
"rhetorical",
"relations",
"as",
"defined",
"in",
"Rhetorical",
"Structure",
"Theory",
"(",
"RST",
")",
"(",
"Mann",
"and",
"Thompson",
"1987",
")",
"to",
"order",
"a",
"set",
"of",
"propositions",
"to",
"be",
"expressed",
"."
] |
[
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
3,
4,
4,
0,
1,
0,
0,
0,
0,
0,
0,
0,
4,
0,
4,
0,
0,
0,
4,
0,
0,
0
] |
6521
|
[
"seeds",
"more",
"complex",
"models",
"with",
"simpler",
"models",
",",
"and",
"the",
"parameters",
"of",
"each",
"model",
"are",
"estimated",
"through",
"an",
"Expectation",
"Maximization",
"(",
"EM",
")",
"procedure",
"."
] |
[
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
3,
4,
0,
1,
0,
0,
0
] |
6522
|
[
"vincent.claveau",
"@",
"irisa.fr",
"christian.raymond",
"@",
"irisa.fr",
"R",
"?",
"SUM",
"?",
"Dans",
"cet",
"article",
",",
"nous",
"d",
"?",
"crivons",
"notre",
"participation",
"au",
"D",
"?",
"fi",
"Fouille",
"de",
"Texte",
"(",
"DeFT",
")",
"2012",
".",
"Ced",
"?",
"fi",
"consistait",
"en",
"l",
"?",
"attribution",
"automatique",
"de",
"mots-cl",
"?",
"s",
"?"
] |
[
0,
0,
0,
0,
0,
0,
1,
3,
2,
4,
0,
0,
0,
0,
0,
4,
4,
4,
4,
4,
4,
4,
4,
4,
4,
4,
4,
0,
2,
0,
0,
0,
0,
4,
4,
0,
0,
4,
4,
0,
0,
4,
0,
4,
4,
4
] |
6523
|
[
"EUROTYP",
"+",
"+",
"+",
"+",
"+",
"+",
"Leipzig",
"Glossing",
"Rules",
"+",
"+",
"+",
"+",
"+",
"+",
"+",
"+",
"Penn",
"Treebank",
"(",
"POS",
")",
"+",
"+",
"+",
"+",
"+",
"+",
"+",
"+",
"STTS",
"+",
"+",
"+",
"+",
"+",
"+",
"+"
] |
[
1,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
3,
4,
0,
1,
0,
0,
0,
0,
0,
0,
0,
0,
0,
1,
0,
0,
0,
0,
0,
0,
0
] |
6524
|
[
"We",
"first",
"experiment",
"with",
"the",
"separately",
"trained",
"supertagger",
"and",
"parser",
",",
"which",
"are",
"then",
"combined",
"using",
"belief",
"propagation",
"(",
"BP",
")",
"and",
"dual",
"decomposition",
"(",
"DD",
")",
"."
] |
[
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
3,
4,
0,
1,
0,
0,
3,
4,
0,
1,
0,
0
] |
6525
|
[
"We",
"show",
"that",
"languageindependent",
"features",
"can",
"be",
"used",
"for",
"regression",
"with",
"Support",
"Vector",
"Machines",
"(",
"SVMs",
")",
"and",
"the",
"Margin-Infused",
"Relaxed",
"Algorithm",
"(",
"MIRA",
")",
",",
"and"
] |
[
0,
0,
0,
0,
0,
0,
0,
3,
0,
0,
0,
3,
4,
4,
0,
1,
0,
0,
0,
4,
4,
4,
0,
1,
0,
0,
0
] |
6526
|
[
"tional",
"words",
"and",
"notional",
"words",
".",
"In",
"the",
"field",
"of",
"Natural",
"Language",
"Processing",
"(",
"NLP",
")",
",",
"many",
"studies",
"on",
"text",
"computing",
"or",
"word",
"meaning"
] |
[
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
3,
4,
0,
0,
1,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0
] |
6527
|
[
"wards",
"a",
"Shared",
"Task",
"for",
"Multiword",
"Expressions",
".",
"ACL",
"Special",
"Interest",
"Group",
"on",
"the",
"Lexicon",
"(",
"SIGLEX",
")",
",",
"Marrakech",
"."
] |
[
0,
3,
0,
0,
0,
0,
0,
0,
1,
4,
4,
4,
4,
4,
4,
0,
1,
0,
0,
0,
0
] |
6528
|
[
"kept",
"on",
"a",
"ventilator",
"for",
"medical",
"reasons",
".",
"Change",
"of",
"state",
"(",
"COS",
")",
"is",
"most",
"often",
"understood",
"as",
"an",
"aspectual",
"difference",
"that",
"is",
"reflected",
"in",
"verb"
] |
[
0,
0,
3,
0,
0,
0,
0,
0,
4,
4,
4,
0,
1,
0,
0,
0,
0,
0,
0,
4,
0,
0,
0,
0,
0,
0,
0
] |
6529
|
[
",",
"with",
"different",
"projection",
"and",
"SRL",
"training",
"methods",
".",
"SP=Supplement",
";",
"OW=Overwrite",
"."
] |
[
0,
0,
0,
0,
0,
1,
0,
0,
0,
0,
0,
0,
0
] |
6530
|
[
"NER",
"model",
"was",
"shown",
"in",
"Table",
"4",
".",
"We",
"use",
"the",
"Peking",
"University",
"(",
"PKU",
")",
"named",
"entity",
"corpus",
"to",
"train",
"the",
"models",
"."
] |
[
1,
0,
0,
0,
3,
0,
0,
0,
0,
0,
0,
4,
4,
0,
1,
0,
0,
0,
0,
0,
0,
0,
0,
0
] |
6531
|
[
"pre-rendered",
"animations",
".",
"The",
"Natural",
"Language",
"Understanding",
"(",
"NLU",
")",
"module",
"needs",
"to",
"cope",
"with",
"both",
"chat",
"and",
"military"
] |
[
0,
0,
0,
0,
3,
4,
4,
0,
1,
0,
0,
0,
0,
0,
0,
0,
0,
4,
0
] |
6532
|
[
"Interpreting",
"news",
"requires",
"identifying",
"its",
"constituent",
"events",
".",
"Information",
"extraction",
"(",
"IE",
")",
"makes",
"this",
"feasible",
"by",
"considering",
"only",
"events",
"of",
"a",
"specified",
"type",
","
] |
[
0,
0,
0,
0,
0,
0,
0,
0,
3,
4,
0,
1,
0,
0,
0,
0,
0,
0,
0,
0,
0,
4,
0,
0,
0
] |
6533
|
[
"must",
"be",
"stored",
"at",
"each",
"step",
"of",
"the",
"decoding",
"algorithm",
".",
"This",
"information",
"includes",
":",
"the",
"current",
"score",
"(",
"SCORE",
")",
",",
"the",
"pointer",
"to",
"the",
"previous",
"lexical",
"item",
"(",
"BPO",
")",
"on",
"the",
"best"
] |
[
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
3,
0,
1,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
1,
0,
0,
0,
0
] |
6534
|
[
"tities",
"e1",
",",
"e2",
",",
"ei",
",",
"..",
",",
"eE",
"on",
"translated",
"English",
"documents",
"through",
"aforementioned",
"step",
",",
"meanwhile",
",",
"we",
"consider",
"all",
"noun",
"phrases",
"(",
"NP",
")",
"in",
"original",
"Chinese",
"documents",
"and",
"generate",
"mention",
"candidates"
] |
[
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
3,
0,
0,
1,
0,
0,
0,
0,
0,
0,
0,
0,
0
] |
6535
|
[
"Japanese",
"Translated",
"SemEval",
"2007",
"Test",
"Corpus",
"(",
"in",
"%",
")",
"Before",
"Morphology",
"[",
"After",
"Morphology",
"]",
"Emotion",
"Score",
"(",
"ES",
")",
"?",
"0",
"Emotion",
"Score",
"(",
"ES",
")",
"?"
] |
[
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
3,
4,
0,
1,
0,
0,
0,
4,
4,
0,
2,
0,
0
] |
6536
|
[
"2.3.3",
"Name",
"List",
"Generated",
"using",
"Double",
"Propagation",
"We",
"implement",
"the",
"Double",
"Propagation",
"(",
"DP",
")",
"algorithm",
"described",
"in",
"Qiu",
"et",
"al",
".",
"("
] |
[
0,
0,
0,
0,
0,
3,
4,
0,
0,
0,
4,
4,
0,
1,
0,
0,
0,
0,
0,
0,
0,
0,
0
] |
6537
|
[
"the",
"(",
"Penn",
"Treebank",
")",
"annotation",
"style",
",",
"(",
"3",
")",
"the",
"(",
"LexTract",
")",
"extraction",
"tool",
",",
"(",
"4",
")",
"possible",
"unsuitability",
"of",
"the",
"(",
"TAG",
")",
"model",
",",
"and",
"(",
"5",
")",
"annotation",
"errors",
".",
"We"
] |
[
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0
] |
6538
|
[
"The",
"ISO",
"639-3",
"language",
"codes",
"for",
"our",
"eight",
"languages",
"are",
"as",
"follows",
":",
"Urdu",
"(",
"URD",
")",
",",
"Thai",
"(",
"THA",
")",
",",
"Bengali",
"(",
"BEN",
")",
",",
"Tamil",
"(",
"TAM",
")",
",",
"Punjabi",
"(",
"PAN",
")",
",",
"Tagalog",
"(",
"TGL",
")",
",",
"Pashto"
] |
[
0,
1,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
3,
0,
1,
0,
0,
3,
0,
1,
0,
0,
3,
0,
1,
0,
0,
3,
0,
1,
0,
0,
3,
0,
1,
0,
0,
3,
0,
1,
0,
0,
0
] |
6539
|
[
"icantly",
"better",
"performance",
"than",
"GIZA++",
".",
"We",
"also",
"evaluated",
"Support",
"Vector",
"Machines",
"(",
"SVM",
")",
"classifiers",
"on",
"the",
"same",
"first",
"order",
"feature",
"space",
"and"
] |
[
0,
0,
0,
0,
1,
0,
0,
0,
0,
3,
4,
4,
0,
1,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0
] |
6540
|
[
"user",
"gender",
"(",
"GEN",
")",
",",
"the",
"user",
"identity",
"(",
"UID",
")",
"(",
"e.g",
".",
"the",
"user",
"could",
"be",
"a",
"person",
"or",
"an",
"organization",
")",
",",
"and",
"the",
"source",
"document",
"ID",
"(",
"DID",
")",
".",
"We",
"also",
"mark",
"the",
"lan-"
] |
[
3,
3,
0,
1,
0,
0,
0,
4,
4,
0,
1,
0,
0,
0,
0,
0,
4,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
3,
4,
0,
2,
0,
0,
0,
0,
0,
0,
0
] |
6541
|
[
"In",
"this",
"work",
",",
"we",
"apply",
"Dirichlet",
"Process",
"Mixture",
"Models",
"(",
"DPMMs",
")",
"to",
"a",
"learning",
"task",
"in",
"natural",
"language",
"processing",
"(",
"NLP",
")",
":",
"lexical-semantic",
"verb",
"clustering",
"."
] |
[
0,
0,
0,
0,
0,
0,
3,
4,
4,
4,
0,
1,
0,
0,
3,
0,
0,
4,
4,
4,
4,
0,
1,
0,
0,
0,
0,
0,
0
] |
6542
|
[
"190",
"troductory",
"phase",
"(",
"GREET-INTRODUCE-TOPIC",
")",
",",
"the",
"negotiation",
"phase",
"(",
"NEGOTIATE",
")",
"and",
"the",
"closing",
"phase",
"(",
"FINISH",
")",
"."
] |
[
0,
0,
3,
0,
0,
0,
0,
0,
4,
4,
0,
1,
0,
0,
0,
4,
4,
0,
1,
0,
0
] |
6543
|
[
"In",
"Proceedings",
"of",
"the",
"NAACL/AMTA",
"Workshop",
"on",
"Syntax",
"and",
"Structure",
"in",
"Statistical",
"Translation",
"(",
"SSST",
")",
",",
"pages",
"33",
"?",
"40",
",",
"Rochester",
",",
"NY",
"."
] |
[
0,
0,
0,
0,
1,
0,
3,
4,
4,
4,
4,
4,
4,
0,
1,
0,
0,
0,
0,
0,
0,
0,
0,
0,
1,
0
] |
6544
|
[
"fered",
"to",
"punched",
"cards",
".",
"Abbreviated",
"alphabetical",
"symbols",
"are",
"used",
"for",
"the",
"syntactic",
"analysis",
"(",
"AP=adJective",
"phrase",
")",
"because",
"of",
"the",
"program",
"'s",
"24unlt",
"search",
"limitation",
"."
] |
[
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
3,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0
] |
6545
|
[
"relative-resource",
"?",
",",
"i.e",
".",
"EuroWordNet",
"(",
"EWN",
")",
".1",
"In",
"this",
"paper",
"we",
"start",
"by",
"briefly",
"recalling",
"the"
] |
[
0,
0,
0,
0,
0,
3,
0,
1,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0
] |
6546
|
[
"They",
"are",
"the",
"One-error",
"Loss",
"(",
"O-Loss",
")",
"function",
",",
"the",
"Symmetric",
"Loss",
"(",
"S-Loss",
")",
"function",
",",
"and",
"the",
"Hierarchical",
"Loss",
"(",
"H-Loss",
")",
"function",
":",
"?"
] |
[
0,
0,
0,
3,
3,
0,
2,
0,
0,
0,
0,
4,
4,
0,
2,
0,
0,
0,
0,
0,
4,
4,
0,
2,
0,
0,
0,
0
] |
6547
|
[
"other",
"side",
",",
"corpus-based",
"measures",
"such",
"as",
"Latent",
"Semantic",
"Analysis",
"(",
"LSA",
")",
"(",
"Landauer",
"et",
"al",
"1997",
")",
",",
"Explicit",
"Semantic",
"Analysis",
"(",
"ESA",
")",
"(",
"Gabrilovich",
"and",
"Markovitch",
",",
"2007",
")",
",",
"Salient",
"Semantic",
"Analysis"
] |
[
0,
0,
0,
0,
0,
0,
0,
3,
4,
4,
0,
1,
0,
0,
0,
0,
4,
0,
0,
0,
4,
4,
4,
0,
1,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
4,
4
] |
6548
|
[
"FIGURE",
"1",
":",
"Community",
"of",
"Inquiry",
"(",
"CoI",
")",
"model",
"(",
"Adapted",
"from",
":",
"Garrison",
"et",
"al",
"2000",
")"
] |
[
0,
0,
0,
0,
3,
4,
4,
0,
1,
0,
4,
0,
0,
0,
0,
0,
0,
0,
2
] |
6549
|
[
"sented",
"by",
"the",
"S",
"node",
")",
"are",
"extracted",
".",
"(",
"2",
")",
"VPs",
"(",
"NPs",
")",
"in",
"a",
"path",
"on",
"which",
"all",
"the",
"nodes",
"are",
"VPs",
"(",
"NPs",
")",
"are",
"also",
"recursively",
"extracted",
"and",
"regarded",
"as",
"hav-"
] |
[
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0
] |
6550
|
[
"during",
"this",
"period",
":",
"Carpetbagger",
"(",
"CB",
")",
",1",
"Daily",
"Kos",
"(",
"DK",
")",
",2",
"Matthew",
"Yglesias",
"(",
"MY",
")",
",3",
"Red",
"State",
"(",
"RS",
")",
",4",
"and",
"Right",
"Wing",
"News",
"(",
"RWN",
")",
".5",
"CB",
"and",
"MY",
"ceased",
"as",
"independent",
"bloggers",
"in",
"August",
"2008.6",
"Because"
] |
[
0,
0,
0,
0,
3,
0,
1,
0,
0,
3,
4,
0,
1,
0,
0,
3,
4,
0,
1,
0,
0,
3,
4,
0,
1,
0,
0,
0,
3,
4,
4,
0,
1,
0,
0,
2,
0,
2,
0,
4,
0,
0,
4,
0,
0,
0
] |
6551
|
[
"Cognitive",
"Science",
"Department",
"at",
"Xiamen",
"University",
"(",
"XMU",
")",
"?",
"?",
"Harbin",
"Institute",
"of",
"Technology",
"Shenzhen",
"Graduate",
"School",
"(",
"HITSZGS",
")",
"National",
"Taipei",
"University",
"of",
"Technology",
"(",
"NTUT",
")"
] |
[
0,
0,
0,
3,
3,
4,
0,
1,
0,
0,
0,
4,
4,
4,
4,
4,
4,
4,
0,
1,
0,
4,
4,
4,
4,
4,
0,
1,
0
] |
6552
|
[
"Turian",
"et",
"al",
".",
"(",
"2010",
")",
"applied",
"word",
"embeddings",
"to",
"chunking",
"and",
"Named",
"Entity",
"Recognition",
"(",
"NER",
")",
".",
"Collobert",
"et",
"al",
".",
"("
] |
[
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
3,
4,
4,
0,
1,
0,
0,
0,
0,
0,
0,
0
] |
6553
|
[
"J",
"=",
"Japanese",
"?",
"?",
"?",
"?",
"?",
"S",
"=",
"Spanish",
"JV",
"=",
"Joint",
"Venture",
"?",
"?",
"?",
"?",
"?",
"?",
"?",
"?",
"?",
"?",
"ME",
"=",
"Microelectronics"
] |
[
3,
0,
4,
0,
0,
0,
0,
0,
0,
0,
0,
2,
0,
4,
4,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
1,
0,
3
] |
6554
|
[
"0",
"ROOT",
"Figure",
"2",
":",
"Example",
"of",
"a",
"CoNLL-style",
"annotated",
"sentence",
".",
"Each",
"word",
"(",
"FORM",
")",
"is",
"numbered",
"(",
"ID",
")",
",",
"lemmatized",
"(",
"LEMMA",
")",
",",
"annotated",
"with",
"two",
"levels",
"of",
"part-of-speech",
"tags",
"(",
"CPOSTAG",
"and",
"POSTAG",
")",
",",
"annotated",
"with",
"morpho-"
] |
[
0,
0,
0,
0,
0,
0,
3,
4,
0,
0,
0,
0,
0,
0,
0,
1,
0,
3,
4,
0,
1,
0,
0,
4,
0,
1,
0,
0,
0,
0,
0,
0,
4,
4,
4,
0,
1,
0,
1,
0,
0,
0,
0,
0
] |
6555
|
[
"dimensional",
"space",
",",
"in",
"which",
"both",
"texts",
"and",
"terms",
"are",
"represented",
"by",
"means",
"of",
"Domain",
"Vectors",
"(",
"DVs",
")",
",",
"i.e",
".",
"vectors",
"representing",
"the",
"domain",
"relevances",
"among",
"the",
"linguistic",
"object",
"and"
] |
[
0,
0,
0,
3,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
4,
4,
0,
1,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0
] |
6556
|
[
"SIZE",
"=",
"sizesensorreading85",
"SHAPE",
"=",
"shapesensorreading62",
"COLOUR",
"=",
"coloursensorreadning78",
"?"
] |
[
1,
0,
3,
1,
0,
3,
1,
0,
3,
0
] |
6557
|
[
"languages",
"studied",
"differ",
"widely",
",",
"there",
"is",
"a",
"quasistandard",
"for",
"presenting",
"the",
"material",
",",
"in",
"the",
"form",
"of",
"interlinearized",
"glossed",
"text",
"(",
"IGT",
")",
".",
"IGT",
"typically"
] |
[
0,
0,
0,
0,
0,
0,
0,
3,
0,
0,
0,
0,
0,
0,
4,
0,
0,
0,
4,
4,
4,
0,
1,
0,
0,
2,
0
] |
6558
|
[
"This",
"work",
"addresses",
"a",
"major",
"bottleneck",
"in",
"the",
"development",
"of",
"Statistical",
"MT",
"(",
"SMT",
")",
"systems",
":",
"the",
"lack",
"of",
"sufficiently",
"large",
"parallel",
"corpora",
"for",
"most"
] |
[
0,
0,
0,
3,
0,
0,
0,
0,
0,
0,
0,
4,
0,
0,
2,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0
] |
6559
|
[
"In",
"Proc",
".",
"of",
"the",
"4th",
"Workshop",
"on",
"Treebanks",
"and",
"Linguistic",
"Theories",
"(",
"TLT",
")",
",",
"pages",
"149",
"?",
"160",
"."
] |
[
0,
0,
0,
0,
0,
0,
0,
0,
3,
4,
4,
4,
0,
1,
0,
0,
0,
0,
0,
0,
0
] |
6560
|
[
"4",
".",
"Template",
"Relation",
"(",
"TR",
")",
"recognition",
":",
"Finding",
"the",
"relation",
"between",
"TEs",
"and",
"a",
"question"
] |
[
0,
0,
0,
3,
0,
0,
1,
0,
0,
0,
0,
0,
0,
0,
0,
4,
0
] |
6561
|
[
"3.2.6",
".",
"Candidate",
"word",
"number",
"(",
"WNum",
")",
"Because",
"there",
"are",
"candidates",
"that",
"are",
"a",
"multi-"
] |
[
0,
0,
0,
0,
3,
0,
0,
1,
0,
0,
0,
0,
0,
0,
0,
0
] |
6562
|
[
"cognition",
"(",
"COG",
")",
"competition",
"(",
"COMP",
")",
"contact",
"(",
"CeNT",
")",
"motion",
"(",
"MOT",
")",
"emoeion",
"(",
"ENO",
")",
"perception",
"(",
"PER",
")",
"possession",
"(",
"POSS",
")",
"stat",
"ive",
"(",
"STA",
")"
] |
[
3,
0,
1,
0,
3,
0,
1,
0,
3,
0,
1,
0,
3,
0,
1,
0,
3,
0,
1,
0,
3,
0,
1,
0,
3,
0,
1,
0,
3,
4,
0,
1,
0
] |
6563
|
[
"colour",
"histograms",
"derived",
"from",
"images",
".",
"In",
"the",
"RGB",
"(",
"Red",
"Green",
"Blue",
")",
"colour",
"model",
",",
"each",
"pixel",
"is",
"represented",
"as",
"an",
"integer",
"in",
"range",
"of"
] |
[
0,
0,
0,
0,
0,
0,
0,
0,
1,
0,
3,
4,
4,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0
] |
6564
|
[
"documents",
".",
"Thus",
",",
"HTMM",
"can",
"be",
"seen",
"both",
"as",
"a",
"variation",
"of",
"Hidden",
"Markov",
"Model",
"(",
"HMM",
")",
"and",
"a",
"variation",
"of",
"LDA",
"."
] |
[
0,
0,
0,
0,
1,
0,
0,
0,
0,
0,
3,
0,
0,
4,
4,
4,
0,
1,
0,
0,
4,
0,
0,
1,
0
] |
6565
|
[
"Route",
"INJECTION",
"ORAL",
"SMOKING",
"SNORTING",
"Aspect",
"CHEMISTRY",
"(",
"Pharmacology",
",",
"TEK",
")",
"CULTURE",
"(",
"Culture",
",",
"Setting",
",",
"Social",
",",
"Spiritual",
")",
"EFFECTS",
"(",
"Effects",
")"
] |
[
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
1,
0,
1,
0,
3,
0,
0,
0,
0,
0,
0,
0,
1,
0,
3,
0
] |
6566
|
[
"1",
"Introduction",
"After",
"two",
"decades",
"of",
"steady",
"progress",
",",
"research",
"in",
"statistical",
"machine",
"translation",
"(",
"SMT",
")",
"started",
"to",
"cross",
"its",
"path",
"with",
"translation",
"industry",
"with",
"tan-"
] |
[
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
3,
4,
4,
4,
0,
1,
0,
0,
0,
0,
0,
0,
0,
4,
0,
0,
0
] |
6567
|
[
"=",
"where",
",",
"ij",
"is",
"the",
"term",
"frequency",
"(",
"TF",
")",
"of",
"the",
"j-th",
"word",
"in",
"the",
"vocabulary",
"in",
"the",
"document",
",",
"i.e",
".",
"the"
] |
[
0,
0,
0,
0,
0,
0,
3,
0,
0,
1,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0
] |
6568
|
[
"1",
"Introduction",
"Sign",
"Language",
"(",
"SL",
")",
"is",
"a",
"visual-gestural",
"language",
",",
"using",
"the",
"whole",
"upper",
"body",
"articulators"
] |
[
0,
0,
0,
3,
4,
0,
1,
0,
4,
0,
0,
0,
0,
0,
0,
0,
0,
0
] |
6569
|
[
"some",
"plan",
"P",
"such",
"that",
",",
"if",
"H",
"executes",
"P.",
"then",
"in",
"the",
"re-",
"sulting",
"state",
",",
"there",
"exists",
"a",
"\\",
"[",
"'",
"F",
"identifiable",
"term",
"P",
"'",
"such",
"that",
"H",
"knows",
"that",
"Denotation",
"(",
"Pl",
"=",
"Dem",
";",
"tation",
"(",
"DI",
")",
",",
"and",
"5",
"''",
"intends",
"that",
"H",
"execute",
"P",
"."
] |
[
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
3,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
4,
4,
4,
0,
1,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0
] |
6570
|
[
"though",
"this",
"is",
"never",
"the",
"case",
".",
")",
"The",
"second",
"such",
"feature",
"``",
"Theme",
"as",
"Chomeuf",
"(",
"TAC",
")",
"is",
"the",
"only",
"non-trinary-valued",
"feature",
"in",
"our",
"learner",
";",
"it",
"spec-"
] |
[
0,
0,
0,
0,
0,
0,
0,
0,
3,
0,
0,
0,
0,
4,
4,
4,
0,
1,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0
] |
6571
|
[
"HLT/EMNLP",
",",
"2005",
"http",
":",
"//www.nist.gov/speech/tests/ace/ace07/doc",
",",
"The",
"ACE",
"2007",
"(",
"ACE07",
")",
"Evaluation",
"Plan",
",",
"Evaluation",
"of",
"the",
"Detection",
"and",
"Recognition",
"of",
"ACE",
"Entities",
",",
"Val-"
] |
[
1,
0,
0,
0,
0,
0,
0,
0,
3,
4,
0,
2,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
4,
0,
0,
0
] |
6572
|
[
"]",
"}",
"(",
"7",
")",
"This",
"optimization",
"can",
"be",
"performed",
"using",
"the",
"expectation",
"maximization",
"(",
"EM",
")",
"algorithm",
"(",
"Dempster",
",",
"Laird",
",",
"and",
"Rubin",
"1977",
")",
"."
] |
[
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
3,
4,
0,
1,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0
] |
6573
|
[
"1",
"Introduction",
"Word",
"Sense",
"Disambiguation",
"(",
"WSD",
")",
"is",
"considered",
"one",
"of",
"the",
"most",
"important",
"prob-"
] |
[
0,
0,
0,
3,
4,
0,
0,
1,
4,
0,
0,
0,
0,
0,
0,
0
] |
6574
|
[
"?",
"TFN",
"Bank",
"(",
"TFNB",
")",
":",
"38,769",
"samples",
"CPN",
"Bank",
"(",
"CPNB",
")",
":",
"17,637",
"samples",
"The",
"difficulty",
"of",
"identifying",
"unknown",
"words",
"in"
] |
[
0,
3,
4,
0,
2,
0,
0,
0,
0,
4,
4,
0,
2,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0
] |
6575
|
[
"paper",
"is",
"the",
"following",
":",
"Def",
".",
"A",
"generative",
"system",
"(",
"GS",
")",
"is",
"a",
"sequence",
"TI",
",",
"...",
",",
"Tn",
"of",
"TS",
",",
"whe~'~-TR",
"(",
"Tl",
",",
"...",
",",
"Tn",
")",
"is",
"a",
"relation",
"between",
"strings",
"and",
"D-trees",
"and"
] |
[
0,
0,
0,
0,
0,
0,
0,
0,
3,
4,
0,
1,
0,
0,
4,
0,
0,
0,
0,
0,
0,
0,
1,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
4,
0,
0,
0,
0,
0,
0
] |
6576
|
[
"First",
"we",
"used",
"the",
"C",
"&",
"C",
"Combinatory",
"Categorial",
"Grammar",
"(",
"CCG",
")",
"parser5",
"(",
"C",
"&",
"C",
")",
"by",
"Clark",
"and",
"Curran",
"(",
"2004",
")",
"using",
"the",
"biomedical",
"model",
"described",
"in"
] |
[
0,
0,
0,
0,
3,
2,
4,
0,
4,
4,
0,
0,
2,
0,
0,
4,
2,
4,
2,
0,
0,
4,
4,
0,
0,
2,
0,
0,
0,
0,
0,
4
] |
6577
|
[
"Figure",
"1",
":",
"Na",
"?",
"?",
"ve",
"Bayes",
"Model",
"The",
"model",
"described",
"above",
"is",
"commonly",
"known",
"as",
"a",
"na",
"?",
"?",
"ve",
"Bayes",
"(",
"NB",
")",
"model",
".",
"NB",
"models",
"have"
] |
[
0,
0,
0,
3,
4,
4,
4,
4,
0,
0,
0,
0,
0,
0,
0,
0,
0,
4,
4,
4,
4,
4,
4,
0,
1,
0,
0,
0,
2,
0,
0
] |
6578
|
[
"5",
"System",
"Description",
"The",
"PEZ",
"system",
"consists",
"of",
"three",
"components",
",",
"viz",
"(",
"i",
")",
"a",
"Web",
"Translation",
"Memory",
"(",
"WebTM",
")",
"crawler",
",",
"(",
"ii",
")",
"the",
"XLING",
"reranker",
"and",
"(",
"iii",
")",
"a",
"longest"
] |
[
0,
0,
0,
0,
1,
0,
0,
0,
0,
0,
0,
0,
0,
3,
0,
4,
4,
4,
4,
0,
2,
0,
0,
0,
0,
0,
0,
0,
1,
0,
0,
0,
0,
0,
4,
0
] |
6579
|
[
"our",
"proposed",
"STRAIN",
"approach",
".",
"The",
"results",
"of",
"using",
"sentence",
"training",
"(",
"STr",
")",
"and",
"sentence",
"testing",
"(",
"STe",
")",
"are",
"shown",
"in",
"the",
"STR/STE",
"row",
"of",
"Table",
"5",
"."
] |
[
0,
0,
1,
0,
0,
0,
0,
0,
0,
3,
4,
0,
1,
0,
0,
4,
4,
0,
1,
0,
0,
0,
4,
0,
1,
0,
0,
0,
0,
0
] |
6580
|
[
"?",
"Toral",
"(",
"2013",
")",
"explores",
"the",
"selection",
"of",
"data",
"to",
"train",
"domain-specific",
"language",
"models",
"(",
"LM",
")",
"from",
"non-domain",
"specific",
"corpora",
"by",
"means"
] |
[
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
3,
4,
0,
1,
0,
0,
0,
0,
0,
0,
0
] |
6581
|
[
"P",
"i",
"jPMI",
"P",
"i",
"P",
"j=",
"Equation",
"2",
":",
"Pointwise",
"Mutual",
"Information",
"(",
"PMI",
")",
"between",
"two",
"terms",
"i",
"and",
"j",
"."
] |
[
3,
4,
0,
4,
4,
4,
0,
0,
0,
0,
4,
4,
4,
0,
2,
0,
0,
0,
0,
4,
0,
0,
0
] |
6582
|
[
"2",
":",
"boston",
"sweep",
"colorado",
"to",
"win",
"world",
"series",
"3",
":",
"rookies",
"respond",
"in",
"first",
"crack",
"at",
"the",
"big",
"time",
"C-LR=C-LexRank",
";",
"WDS=Word",
"Distributional",
"Similarity",
"Table",
"4",
":",
"Top",
"3",
"ranked",
"summaries",
"of",
"the",
"redsox",
"cluster"
] |
[
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
3,
4,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0
] |
6583
|
[
"X",
"'",
"1",
"''",
"~",
",",
".",
"\\",
"[",
"-1",
"Def",
"in",
"i",
"t",
"ion",
"2.2",
"A",
"N",
":",
"M",
"sur",
"face",
"coerc",
"ion",
"(",
"SC",
")",
"ru",
"le",
"ix",
"a",
"quadruple",
"(",
"/",
",",
"c/",
",",
"c~",
",",
"r",
")",
"where",
"l",
"and",
"r"
] |
[
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
3,
0,
4,
0,
0,
0,
0,
0,
0,
4,
4,
4,
0,
0,
1,
0,
0,
0,
4,
0,
0,
0,
0,
0,
0,
0,
0,
4,
2,
0,
0,
0,
4
] |
6584
|
[
"1",
"Introduction",
"Spoken",
"Dialogue",
"Systems",
"(",
"SDSs",
")",
"play",
"a",
"key",
"role",
"in",
"achieving",
"natural",
"human-machine",
"interaction",
"."
] |
[
0,
0,
0,
3,
4,
0,
0,
1,
0,
4,
0,
0,
0,
0,
0,
0,
0,
0
] |
6585
|
[
"Table",
"10",
":",
"A=acoustic",
",",
"P=psycholinguistic",
",",
"POS=part-of-speech",
",",
"C=complexity",
",",
"F=fluency",
",",
"VR=vocabulary",
"richness",
",",
"CFG=CFG",
"production",
"rule",
"features",
"."
] |
[
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
3,
0,
0,
0,
0,
0,
0
] |
6586
|
[
"9",
"Here",
",",
"we",
"present",
"the",
"generation-oriented",
"PG",
"Workbench",
"(",
"PGW",
")",
",",
"which",
"assists",
"grammar",
"developers",
",",
"among",
"other",
"things",
",",
"in",
"testing",
"whether",
"the",
"implemented",
"syntactic",
"and",
"lexical",
"knowledge",
"allows",
"all",
"and",
"only",
"well-formed",
"permutations",
".",
"In",
"Section",
"2",
",",
"we",
"describe",
"PG",
"?",
"s",
"topology-based",
"linearizer",
"implemented",
"in",
"the",
"PGW",
"gen-erator",
",",
"whose",
"software",
"design",
"is",
"sketched",
"in",
"Section",
"3",
"."
] |
[
0,
0,
0,
0,
0,
0,
0,
0,
3,
0,
0,
1,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
1,
2,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0
] |
6587
|
[
"Furthermore",
",",
"to",
"create",
"a",
"fully",
"text-bound",
"subset",
",",
"family",
"memberships",
"relations",
"(",
"MEMBER",
")",
"were",
"resolved",
"into",
"single",
"edges",
"and",
"suitable",
"references",
"to"
] |
[
0,
0,
0,
0,
3,
0,
0,
0,
0,
0,
4,
4,
0,
1,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0
] |
6588
|
[
"tation",
"for",
"the",
"joint",
"learning",
"process",
".",
"Specifically",
",",
"we",
"make",
"use",
"of",
"the",
"latent",
"structural",
"SVM",
"(",
"LS-SVM",
")",
"(",
"Yu",
"and",
"Joachims",
",",
"2009",
")",
"formulation",
"."
] |
[
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
3,
4,
4,
0,
2,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0
] |
6589
|
[
"2013",
"temporal",
"summarization",
".",
"In",
"Proceedings",
"of",
"the",
"22nd",
"Text",
"Retrieval",
"Conference",
"(",
"TREC",
")",
",",
"November",
"."
] |
[
0,
0,
0,
0,
0,
0,
0,
0,
0,
3,
4,
4,
0,
1,
0,
0,
0,
0
] |
6590
|
[
"Fortunately",
",",
"learning",
"the",
"reward",
"function",
"using",
"IRL",
"methods",
"have",
"already",
"been",
"proposed",
"for",
"the",
"general",
"(",
"PO",
")",
"MDP",
"framework",
"(",
"Ng",
"and",
"Russell",
",",
"2000",
";",
"Kim",
"et",
"al.",
","
] |
[
0,
0,
0,
0,
0,
0,
0,
1,
0,
0,
0,
0,
3,
4,
0,
0,
0,
1,
0,
1,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0
] |
6591
|
[
"156",
"The",
"Basque",
"Dependency",
"Treebank",
"(",
"BDT",
")",
"is",
"a",
"dependency",
"treebank",
"in",
"its",
"original",
"design",
",",
"due",
"to"
] |
[
0,
0,
0,
3,
4,
0,
0,
1,
0,
4,
0,
0,
0,
0,
0,
0,
0,
0,
0
] |
6592
|
[
"?",
"Negat",
"ive",
"Precis",
"ion",
"(",
"I~P",
")",
":",
"*",
"F",
"-measure",
"(",
"FM",
")",
"?",
"(",
"~2+I",
")",
"?",
"PP",
"?",
"PR",
"/32",
"?"
] |
[
0,
0,
0,
0,
0,
0,
1,
0,
0,
0,
3,
4,
0,
2,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0
] |
6593
|
[
"In",
"Proc",
".",
"IEEE",
"Automatic",
"Speech",
"Recognition",
"and",
"Understanding",
"(",
"ASRU",
")",
",",
"Merano",
",",
"Italy",
",",
"December",
"."
] |
[
0,
0,
0,
1,
3,
4,
4,
4,
4,
0,
1,
0,
0,
0,
0,
0,
0,
0,
0
] |
6594
|
[
"Table",
"4",
":",
"Evaluation",
"results",
".",
"Abbreviations",
":",
"TVN",
"(",
"Tone",
"&",
"Vowel",
"Normalization",
")",
";",
"N-LM",
"(",
"N-order",
"Language",
"Modelling",
")",
";",
"DS",
"(",
"Dataset",
")",
";",
"PK",
"(",
"Prior",
"Knowledge",
")",
";",
"WC",
"(",
"Weighting-based",
"Corrector",
")",
"."
] |
[
0,
0,
0,
0,
0,
0,
0,
0,
1,
0,
0,
0,
0,
0,
0,
0,
1,
0,
3,
4,
4,
0,
0,
1,
0,
3,
0,
0,
1,
0,
3,
4,
0,
0,
1,
0,
3,
4,
0,
0
] |
6595
|
[
"3",
"Baseline",
"SMT",
"system",
"The",
"goal",
"of",
"statistical",
"machine",
"translation",
"(",
"SMT",
")",
"is",
"to",
"produce",
"a",
"target",
"sentence",
"e",
"from",
"a",
"source",
"sen-"
] |
[
0,
0,
0,
0,
0,
0,
0,
0,
3,
4,
0,
0,
1,
4,
0,
0,
4,
0,
0,
4,
0,
4,
0,
0
] |
6596
|
[
"transduction",
"and",
"matching",
"words",
"approximately",
".",
"Unicode",
"(",
"UTF8",
")",
"is",
"fully",
"supported",
"and",
"is",
"in",
"fact",
"the",
"only",
"encoding",
"accepted",
"by",
"Foma",
"."
] |
[
0,
0,
0,
0,
0,
0,
3,
0,
1,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0
] |
6597
|
[
"Technology",
"(",
"NAST",
")",
",",
"Lao",
"PDR",
"?",
"Madan",
"Puraskar",
"Pustakalaya",
"(",
"MPP",
")",
",",
"Nepal"
] |
[
0,
0,
0,
0,
0,
0,
0,
0,
3,
4,
4,
0,
1,
0,
0,
0
] |
6598
|
[
"capture",
"all",
"the",
"types",
"of",
"entities",
".",
"Typical",
"structures",
"of",
"Chinese",
"person",
"name",
"(",
"CN",
")",
",",
"location",
"name",
"(",
"LN",
")",
"and",
"organization",
"name",
"(",
"ON",
")",
"are",
"as",
"follows",
":"
] |
[
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
3,
4,
3,
0,
1,
0,
0,
4,
4,
0,
1,
0,
0,
0,
4,
0,
0,
0,
0,
0,
0,
0
] |
6599
|
[
"2.1",
"Purver",
",",
"Ginzburg",
"and",
"Healey",
"(",
"PGH",
")",
"Purver",
",",
"Ginzburg",
"and",
"Healey",
"(",
"2003",
")",
"investigated",
"CRs",
"in",
"the",
"British",
"National",
"Corpus",
"(",
"BNC",
")",
"(",
"Burnard",
",",
"2000",
")",
"."
] |
[
0,
3,
4,
4,
4,
4,
0,
1,
0,
4,
4,
4,
4,
4,
0,
0,
0,
0,
1,
4,
0,
3,
4,
4,
0,
1,
0,
0,
0,
4,
0,
0,
0
] |
Subsets and Splits
No community queries yet
The top public SQL queries from the community will appear here once available.