id
stringlengths
1
4
tokens
list
ner_tags
list
6500
[ "back", ".", "We", "define", "a", "currency", "for", "annotation", "cost", "as", "Annotation", "cost", "Units", "(", "AUs", ")", ".", "For", "an", "annotation", "bud-" ]
[ 0, 0, 0, 0, 3, 0, 0, 0, 4, 0, 4, 4, 4, 0, 1, 0, 0, 0, 0, 0, 0 ]
6501
[ "sible", "classes", "we", "show", "the", "accuracy", "of", "the", "correct", "hashtag", "being", "amongst", "the", "top", "1,5", "or", "50", "hashtags", "as", "well", "as", "the", "Mean", "Reciprocal", "Rank", "(", "MRR", ")", ".", "The" ]
[ 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 3, 4, 4, 0, 1, 0, 0, 0 ]
6502
[ "54", "Proceedings", "of", "the", "2014", "Conference", "on", "Empirical", "Methods", "in", "Natural", "Language", "Processing", "(", "EMNLP", ")", ",", "pages", "325", "?", "335", ",", "October", "25-29", ",", "2014", ",", "Doha", ",", "Qatar", "." ]
[ 0, 0, 0, 0, 0, 0, 0, 3, 4, 4, 4, 4, 4, 0, 1, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0 ]
6503
[ "3", "Data", "The", "RST", "Discourse", "Treebank", "(", "RST-DT", ")", "(", "Carlson", "et", "al", ",", "2002", ")", "was", "used", "for", "training", "and", "testing", "." ]
[ 0, 0, 0, 0, 3, 4, 0, 0, 1, 0, 0, 0, 0, 0, 0, 2, 0, 0, 0, 0, 0, 0, 0 ]
6504
[ "When", "ready", "and", "mature", ",", "technology", "and", "language", "processing", "techniques", "will", "be", "incorporated", "into", "Foreign", "Broadcast", "Information", "Service", "(", "FBIS", ")", "processing", "." ]
[ 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 3, 4, 4, 4, 0, 1, 0, 0, 0 ]
6505
[ "3.2", "Formalizing", "Paradigmatic", "Relations", "with", "Lexical", "Functions", "Lexical", "functions", "(", "LF", ")", "are", "a", "formal", "tool", "designed", "to", "describe", "all", "types", "of", "genuine", "lexical", "relations" ]
[ 0, 0, 0, 0, 0, 3, 0, 4, 4, 0, 1, 0, 0, 4, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0 ]
6506
[ "Evaluating", "the", "quality", "of", "language", "output", "tasks", "such", "as", "Machine", "Translation", "(", "MT", ")", "and", "Automatic", "Summarisation", "(", "AS", ")", "is", "a", "challenging", "topic", "in", "Natural", "Language", "Processing" ]
[ 0, 0, 0, 0, 0, 0, 0, 0, 0, 3, 4, 0, 1, 0, 0, 3, 4, 0, 1, 0, 4, 4, 0, 0, 4, 0, 0, 0 ]
6507
[ "tent", "both", "in", "their", "living", "rooms", "and", "on", "their", "mobile", "devices", ".", "Digital", "video", "recorders", "(", "DVRs", ")", "allow", "people", "to", "record", "TV", "programs", "from", "hundreds", "of", "chan-" ]
[ 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 3, 4, 4, 0, 1, 0, 0, 0, 0, 4, 1, 0, 0, 0, 0, 0 ]
6508
[ "2.1", "Named", "Entity", "Recognition", "We", "regard", "named", "entity", "recognition", "(", "NER", ")", "as", "a", "standalone", "task", ",", "independent", "of", "language", "identification", "." ]
[ 0, 0, 0, 0, 0, 0, 0, 3, 4, 0, 0, 1, 0, 4, 0, 0, 0, 0, 0, 0, 0, 0 ]
6509
[ "Context-Free", "Grammars", "2.1", "Minimalist", "Grammars", "A", "Minimalist", "Grammar", "(", "MG", ")", "(", "Stabler", "and", "Keenan", ",", "2003", ")", "1", "is", "a", "five-tuple" ]
[ 0, 0, 0, 3, 0, 0, 4, 4, 0, 1, 0, 0, 0, 0, 0, 0, 0, 0, 0, 4, 4, 0 ]
6510
[ "As", "shown", "in", "the", "table", ",", "all", "models", "perform", "equally", "well", "on", "identification", ",", "which", "is", "determined", "by", "the", "frame", "matcher", "(", "FM", ")", ";", "i.e.", ",", "any", "extracted", "argument", "receiving", "one", "or", "more", "candidate", "roles", "is", "?" ]
[ 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 3, 4, 0, 1, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0 ]
6511
[ "The", "CoreSC", "scheme", "consists", "of", "three", "layers", ";", "the", "first", "layer", "corresponds", "to", "eleven", "concepts", "(", "Background", "(", "BAC", ")", ",", "Hypothesis", "(", "HYP", ")", ",", "Motivation", "(", "MOT", ")", ",", "Goal", "(", "GOA", ")", ",", "Object", "(", "OBJ", ")", ",", "Method", "(", "MET", ")", ",", "Model" ]
[ 0, 1, 0, 0, 0, 0, 0, 0, 3, 0, 0, 0, 0, 0, 0, 0, 3, 0, 1, 0, 0, 4, 0, 1, 0, 0, 3, 0, 1, 0, 0, 3, 0, 1, 0, 0, 3, 0, 1, 0, 0, 3, 0, 1, 0, 0, 0 ]
6512
[ "Feature", "F1,344", "d", "Automated", "Readability", "Index", "(", "ARI", ")", "0.187", "0.047", "Average", "Sentence", "Length", "(", "ASL", ")", "3.870", "0.213", "Sentence", "Complexity", "(", "COM", ")", "10.93", "0.357" ]
[ 0, 0, 3, 4, 4, 4, 0, 1, 0, 0, 0, 3, 4, 4, 0, 1, 0, 0, 0, 4, 3, 0, 1, 0, 0, 0 ]
6513
[ "to", "do", "the", "testing", "on", "real", "emotions", ".", "The", "Berlin", "Emotional", "Database", "(", "EMO-DB", ")", "contains", "the", "set", "of", "emotions", "from", "the", "MPEG-4", "standard", "(", "anger", "," ]
[ 0, 0, 0, 0, 3, 0, 0, 0, 0, 0, 4, 4, 0, 1, 0, 0, 0, 0, 0, 0, 0, 0, 1, 0, 0, 0, 0 ]
6514
[ "Queue", "to", "for", "user", "intervention", ".", "4.2", ",", "Document", "Processor", "(", "DP", ")", "The", "DP", "identifies", "and", "extracts", "all", "SGML", "tags", "de-" ]
[ 0, 0, 0, 0, 0, 0, 0, 0, 3, 4, 0, 1, 0, 0, 2, 0, 0, 0, 0, 1, 0, 0 ]
6515
[ "systematic", "way", ".", "The", "MIME", "(", "Managing", "Information", "in", "Medical", "Emergencies", ")", "1", "project", "is", "developing", "technology", "to" ]
[ 0, 0, 0, 0, 1, 0, 3, 4, 4, 4, 4, 0, 0, 0, 0, 0, 0, 0 ]
6516
[ "07", "a", "Single", "0.71", "1.00", "0.83", "0.00", "0.00", "0.00", "0.42", "1.39", "9", "Table", "9", "Constituent", "parsing", "evaluation", "results", "of", "Task", "2-2", "(", "Close", "Track", ")", ",", "ranked", "with", "Tot-F1", "(", "S_S=simple", "sentence", ",", "C_S=complex", "sentence", ")", "ID", "Sys-ID", "Model", "Constituents", "in", "S_S", "C_S", "constituent", "Total", "POS-A", "Rank" ]
[ 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 3, 0, 0, 4, 0, 1, 2, 0, 0, 0, 1, 2, 0, 0, 1, 0 ]
6517
[ "2214", "Proceedings", "of", "the", "of", "the", "EACL", "2014", "Workshop", "on", "Dialogue", "in", "Motion", "(", "DM", ")", ",", "pages", "1", "?", "9", ",", "Gothenburg", ",", "Sweden", ",", "April", "26-30", "2014", "." ]
[ 0, 0, 0, 0, 0, 0, 1, 0, 0, 3, 4, 4, 4, 0, 1, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0 ]
6518
[ "In", "Proceedings", "of", "the", "Conference", "of", "the", "Pacific", "Association", "for", "Computational", "Linguistics", "(", "PACLING", ")", ",", "pages", "120", "?", "128", "." ]
[ 0, 0, 0, 0, 0, 0, 0, 3, 4, 4, 4, 4, 0, 1, 0, 0, 0, 0, 0, 0, 0 ]
6519
[ "2", "Long", "Short-Term", "Memory", "Networks", "2.1", "Overview", "Recurrent", "neural", "networks", "(", "RNNs", ")", "are", "able", "to", "process", "input", "sequences", "of", "arbitrary", "length", "via", "the", "re-" ]
[ 0, 0, 0, 0, 0, 0, 0, 3, 4, 4, 0, 1, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0 ]
6520
[ "determine", "the", "appropriate", "xpressional", "form", ".", "Hovy", "'s", "text", "structurer", "(", "Hovy", "1988b", ")", ",", "for", "example", ",", "uses", "rhetorical", "relations", "as", "defined", "in", "Rhetorical", "Structure", "Theory", "(", "RST", ")", "(", "Mann", "and", "Thompson", "1987", ")", "to", "order", "a", "set", "of", "propositions", "to", "be", "expressed", "." ]
[ 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 3, 4, 4, 0, 1, 0, 0, 0, 0, 0, 0, 0, 4, 0, 4, 0, 0, 0, 4, 0, 0, 0 ]
6521
[ "seeds", "more", "complex", "models", "with", "simpler", "models", ",", "and", "the", "parameters", "of", "each", "model", "are", "estimated", "through", "an", "Expectation", "Maximization", "(", "EM", ")", "procedure", "." ]
[ 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 3, 4, 0, 1, 0, 0, 0 ]
6522
[ "vincent.claveau", "@", "irisa.fr", "christian.raymond", "@", "irisa.fr", "R", "?", "SUM", "?", "Dans", "cet", "article", ",", "nous", "d", "?", "crivons", "notre", "participation", "au", "D", "?", "fi", "Fouille", "de", "Texte", "(", "DeFT", ")", "2012", ".", "Ced", "?", "fi", "consistait", "en", "l", "?", "attribution", "automatique", "de", "mots-cl", "?", "s", "?" ]
[ 0, 0, 0, 0, 0, 0, 1, 3, 2, 4, 0, 0, 0, 0, 0, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 4, 0, 2, 0, 0, 0, 0, 4, 4, 0, 0, 4, 4, 0, 0, 4, 0, 4, 4, 4 ]
6523
[ "EUROTYP", "+", "+", "+", "+", "+", "+", "Leipzig", "Glossing", "Rules", "+", "+", "+", "+", "+", "+", "+", "+", "Penn", "Treebank", "(", "POS", ")", "+", "+", "+", "+", "+", "+", "+", "+", "STTS", "+", "+", "+", "+", "+", "+", "+" ]
[ 1, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 3, 4, 0, 1, 0, 0, 0, 0, 0, 0, 0, 0, 0, 1, 0, 0, 0, 0, 0, 0, 0 ]
6524
[ "We", "first", "experiment", "with", "the", "separately", "trained", "supertagger", "and", "parser", ",", "which", "are", "then", "combined", "using", "belief", "propagation", "(", "BP", ")", "and", "dual", "decomposition", "(", "DD", ")", "." ]
[ 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 3, 4, 0, 1, 0, 0, 3, 4, 0, 1, 0, 0 ]
6525
[ "We", "show", "that", "languageindependent", "features", "can", "be", "used", "for", "regression", "with", "Support", "Vector", "Machines", "(", "SVMs", ")", "and", "the", "Margin-Infused", "Relaxed", "Algorithm", "(", "MIRA", ")", ",", "and" ]
[ 0, 0, 0, 0, 0, 0, 0, 3, 0, 0, 0, 3, 4, 4, 0, 1, 0, 0, 0, 4, 4, 4, 0, 1, 0, 0, 0 ]
6526
[ "tional", "words", "and", "notional", "words", ".", "In", "the", "field", "of", "Natural", "Language", "Processing", "(", "NLP", ")", ",", "many", "studies", "on", "text", "computing", "or", "word", "meaning" ]
[ 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 3, 4, 0, 0, 1, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0 ]
6527
[ "wards", "a", "Shared", "Task", "for", "Multiword", "Expressions", ".", "ACL", "Special", "Interest", "Group", "on", "the", "Lexicon", "(", "SIGLEX", ")", ",", "Marrakech", "." ]
[ 0, 3, 0, 0, 0, 0, 0, 0, 1, 4, 4, 4, 4, 4, 4, 0, 1, 0, 0, 0, 0 ]
6528
[ "kept", "on", "a", "ventilator", "for", "medical", "reasons", ".", "Change", "of", "state", "(", "COS", ")", "is", "most", "often", "understood", "as", "an", "aspectual", "difference", "that", "is", "reflected", "in", "verb" ]
[ 0, 0, 3, 0, 0, 0, 0, 0, 4, 4, 4, 0, 1, 0, 0, 0, 0, 0, 0, 4, 0, 0, 0, 0, 0, 0, 0 ]
6529
[ ",", "with", "different", "projection", "and", "SRL", "training", "methods", ".", "SP=Supplement", ";", "OW=Overwrite", "." ]
[ 0, 0, 0, 0, 0, 1, 0, 0, 0, 0, 0, 0, 0 ]
6530
[ "NER", "model", "was", "shown", "in", "Table", "4", ".", "We", "use", "the", "Peking", "University", "(", "PKU", ")", "named", "entity", "corpus", "to", "train", "the", "models", "." ]
[ 1, 0, 0, 0, 3, 0, 0, 0, 0, 0, 0, 4, 4, 0, 1, 0, 0, 0, 0, 0, 0, 0, 0, 0 ]
6531
[ "pre-rendered", "animations", ".", "The", "Natural", "Language", "Understanding", "(", "NLU", ")", "module", "needs", "to", "cope", "with", "both", "chat", "and", "military" ]
[ 0, 0, 0, 0, 3, 4, 4, 0, 1, 0, 0, 0, 0, 0, 0, 0, 0, 4, 0 ]
6532
[ "Interpreting", "news", "requires", "identifying", "its", "constituent", "events", ".", "Information", "extraction", "(", "IE", ")", "makes", "this", "feasible", "by", "considering", "only", "events", "of", "a", "specified", "type", "," ]
[ 0, 0, 0, 0, 0, 0, 0, 0, 3, 4, 0, 1, 0, 0, 0, 0, 0, 0, 0, 0, 0, 4, 0, 0, 0 ]
6533
[ "must", "be", "stored", "at", "each", "step", "of", "the", "decoding", "algorithm", ".", "This", "information", "includes", ":", "the", "current", "score", "(", "SCORE", ")", ",", "the", "pointer", "to", "the", "previous", "lexical", "item", "(", "BPO", ")", "on", "the", "best" ]
[ 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 3, 0, 1, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 1, 0, 0, 0, 0 ]
6534
[ "tities", "e1", ",", "e2", ",", "ei", ",", "..", ",", "eE", "on", "translated", "English", "documents", "through", "aforementioned", "step", ",", "meanwhile", ",", "we", "consider", "all", "noun", "phrases", "(", "NP", ")", "in", "original", "Chinese", "documents", "and", "generate", "mention", "candidates" ]
[ 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 3, 0, 0, 1, 0, 0, 0, 0, 0, 0, 0, 0, 0 ]
6535
[ "Japanese", "Translated", "SemEval", "2007", "Test", "Corpus", "(", "in", "%", ")", "Before", "Morphology", "[", "After", "Morphology", "]", "Emotion", "Score", "(", "ES", ")", "?", "0", "Emotion", "Score", "(", "ES", ")", "?" ]
[ 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 3, 4, 0, 1, 0, 0, 0, 4, 4, 0, 2, 0, 0 ]
6536
[ "2.3.3", "Name", "List", "Generated", "using", "Double", "Propagation", "We", "implement", "the", "Double", "Propagation", "(", "DP", ")", "algorithm", "described", "in", "Qiu", "et", "al", ".", "(" ]
[ 0, 0, 0, 0, 0, 3, 4, 0, 0, 0, 4, 4, 0, 1, 0, 0, 0, 0, 0, 0, 0, 0, 0 ]
6537
[ "the", "(", "Penn", "Treebank", ")", "annotation", "style", ",", "(", "3", ")", "the", "(", "LexTract", ")", "extraction", "tool", ",", "(", "4", ")", "possible", "unsuitability", "of", "the", "(", "TAG", ")", "model", ",", "and", "(", "5", ")", "annotation", "errors", ".", "We" ]
[ 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0 ]
6538
[ "The", "ISO", "639-3", "language", "codes", "for", "our", "eight", "languages", "are", "as", "follows", ":", "Urdu", "(", "URD", ")", ",", "Thai", "(", "THA", ")", ",", "Bengali", "(", "BEN", ")", ",", "Tamil", "(", "TAM", ")", ",", "Punjabi", "(", "PAN", ")", ",", "Tagalog", "(", "TGL", ")", ",", "Pashto" ]
[ 0, 1, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 3, 0, 1, 0, 0, 3, 0, 1, 0, 0, 3, 0, 1, 0, 0, 3, 0, 1, 0, 0, 3, 0, 1, 0, 0, 3, 0, 1, 0, 0, 0 ]
6539
[ "icantly", "better", "performance", "than", "GIZA++", ".", "We", "also", "evaluated", "Support", "Vector", "Machines", "(", "SVM", ")", "classifiers", "on", "the", "same", "first", "order", "feature", "space", "and" ]
[ 0, 0, 0, 0, 1, 0, 0, 0, 0, 3, 4, 4, 0, 1, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0 ]
6540
[ "user", "gender", "(", "GEN", ")", ",", "the", "user", "identity", "(", "UID", ")", "(", "e.g", ".", "the", "user", "could", "be", "a", "person", "or", "an", "organization", ")", ",", "and", "the", "source", "document", "ID", "(", "DID", ")", ".", "We", "also", "mark", "the", "lan-" ]
[ 3, 3, 0, 1, 0, 0, 0, 4, 4, 0, 1, 0, 0, 0, 0, 0, 4, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 3, 4, 0, 2, 0, 0, 0, 0, 0, 0, 0 ]
6541
[ "In", "this", "work", ",", "we", "apply", "Dirichlet", "Process", "Mixture", "Models", "(", "DPMMs", ")", "to", "a", "learning", "task", "in", "natural", "language", "processing", "(", "NLP", ")", ":", "lexical-semantic", "verb", "clustering", "." ]
[ 0, 0, 0, 0, 0, 0, 3, 4, 4, 4, 0, 1, 0, 0, 3, 0, 0, 4, 4, 4, 4, 0, 1, 0, 0, 0, 0, 0, 0 ]
6542
[ "190", "troductory", "phase", "(", "GREET-INTRODUCE-TOPIC", ")", ",", "the", "negotiation", "phase", "(", "NEGOTIATE", ")", "and", "the", "closing", "phase", "(", "FINISH", ")", "." ]
[ 0, 0, 3, 0, 0, 0, 0, 0, 4, 4, 0, 1, 0, 0, 0, 4, 4, 0, 1, 0, 0 ]
6543
[ "In", "Proceedings", "of", "the", "NAACL/AMTA", "Workshop", "on", "Syntax", "and", "Structure", "in", "Statistical", "Translation", "(", "SSST", ")", ",", "pages", "33", "?", "40", ",", "Rochester", ",", "NY", "." ]
[ 0, 0, 0, 0, 1, 0, 3, 4, 4, 4, 4, 4, 4, 0, 1, 0, 0, 0, 0, 0, 0, 0, 0, 0, 1, 0 ]
6544
[ "fered", "to", "punched", "cards", ".", "Abbreviated", "alphabetical", "symbols", "are", "used", "for", "the", "syntactic", "analysis", "(", "AP=adJective", "phrase", ")", "because", "of", "the", "program", "'s", "24unlt", "search", "limitation", "." ]
[ 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 3, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0 ]
6545
[ "relative-resource", "?", ",", "i.e", ".", "EuroWordNet", "(", "EWN", ")", ".1", "In", "this", "paper", "we", "start", "by", "briefly", "recalling", "the" ]
[ 0, 0, 0, 0, 0, 3, 0, 1, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0 ]
6546
[ "They", "are", "the", "One-error", "Loss", "(", "O-Loss", ")", "function", ",", "the", "Symmetric", "Loss", "(", "S-Loss", ")", "function", ",", "and", "the", "Hierarchical", "Loss", "(", "H-Loss", ")", "function", ":", "?" ]
[ 0, 0, 0, 3, 3, 0, 2, 0, 0, 0, 0, 4, 4, 0, 2, 0, 0, 0, 0, 0, 4, 4, 0, 2, 0, 0, 0, 0 ]
6547
[ "other", "side", ",", "corpus-based", "measures", "such", "as", "Latent", "Semantic", "Analysis", "(", "LSA", ")", "(", "Landauer", "et", "al", "1997", ")", ",", "Explicit", "Semantic", "Analysis", "(", "ESA", ")", "(", "Gabrilovich", "and", "Markovitch", ",", "2007", ")", ",", "Salient", "Semantic", "Analysis" ]
[ 0, 0, 0, 0, 0, 0, 0, 3, 4, 4, 0, 1, 0, 0, 0, 0, 4, 0, 0, 0, 4, 4, 4, 0, 1, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 4, 4 ]
6548
[ "FIGURE", "1", ":", "Community", "of", "Inquiry", "(", "CoI", ")", "model", "(", "Adapted", "from", ":", "Garrison", "et", "al", "2000", ")" ]
[ 0, 0, 0, 0, 3, 4, 4, 0, 1, 0, 4, 0, 0, 0, 0, 0, 0, 0, 2 ]
6549
[ "sented", "by", "the", "S", "node", ")", "are", "extracted", ".", "(", "2", ")", "VPs", "(", "NPs", ")", "in", "a", "path", "on", "which", "all", "the", "nodes", "are", "VPs", "(", "NPs", ")", "are", "also", "recursively", "extracted", "and", "regarded", "as", "hav-" ]
[ 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0 ]
6550
[ "during", "this", "period", ":", "Carpetbagger", "(", "CB", ")", ",1", "Daily", "Kos", "(", "DK", ")", ",2", "Matthew", "Yglesias", "(", "MY", ")", ",3", "Red", "State", "(", "RS", ")", ",4", "and", "Right", "Wing", "News", "(", "RWN", ")", ".5", "CB", "and", "MY", "ceased", "as", "independent", "bloggers", "in", "August", "2008.6", "Because" ]
[ 0, 0, 0, 0, 3, 0, 1, 0, 0, 3, 4, 0, 1, 0, 0, 3, 4, 0, 1, 0, 0, 3, 4, 0, 1, 0, 0, 0, 3, 4, 4, 0, 1, 0, 0, 2, 0, 2, 0, 4, 0, 0, 4, 0, 0, 0 ]
6551
[ "Cognitive", "Science", "Department", "at", "Xiamen", "University", "(", "XMU", ")", "?", "?", "Harbin", "Institute", "of", "Technology", "Shenzhen", "Graduate", "School", "(", "HITSZGS", ")", "National", "Taipei", "University", "of", "Technology", "(", "NTUT", ")" ]
[ 0, 0, 0, 3, 3, 4, 0, 1, 0, 0, 0, 4, 4, 4, 4, 4, 4, 4, 0, 1, 0, 4, 4, 4, 4, 4, 0, 1, 0 ]
6552
[ "Turian", "et", "al", ".", "(", "2010", ")", "applied", "word", "embeddings", "to", "chunking", "and", "Named", "Entity", "Recognition", "(", "NER", ")", ".", "Collobert", "et", "al", ".", "(" ]
[ 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 3, 4, 4, 0, 1, 0, 0, 0, 0, 0, 0, 0 ]
6553
[ "J", "=", "Japanese", "?", "?", "?", "?", "?", "S", "=", "Spanish", "JV", "=", "Joint", "Venture", "?", "?", "?", "?", "?", "?", "?", "?", "?", "?", "ME", "=", "Microelectronics" ]
[ 3, 0, 4, 0, 0, 0, 0, 0, 0, 0, 0, 2, 0, 4, 4, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 1, 0, 3 ]
6554
[ "0", "ROOT", "Figure", "2", ":", "Example", "of", "a", "CoNLL-style", "annotated", "sentence", ".", "Each", "word", "(", "FORM", ")", "is", "numbered", "(", "ID", ")", ",", "lemmatized", "(", "LEMMA", ")", ",", "annotated", "with", "two", "levels", "of", "part-of-speech", "tags", "(", "CPOSTAG", "and", "POSTAG", ")", ",", "annotated", "with", "morpho-" ]
[ 0, 0, 0, 0, 0, 0, 3, 4, 0, 0, 0, 0, 0, 0, 0, 1, 0, 3, 4, 0, 1, 0, 0, 4, 0, 1, 0, 0, 0, 0, 0, 0, 4, 4, 4, 0, 1, 0, 1, 0, 0, 0, 0, 0 ]
6555
[ "dimensional", "space", ",", "in", "which", "both", "texts", "and", "terms", "are", "represented", "by", "means", "of", "Domain", "Vectors", "(", "DVs", ")", ",", "i.e", ".", "vectors", "representing", "the", "domain", "relevances", "among", "the", "linguistic", "object", "and" ]
[ 0, 0, 0, 3, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 4, 4, 0, 1, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0 ]
6556
[ "SIZE", "=", "sizesensorreading85", "SHAPE", "=", "shapesensorreading62", "COLOUR", "=", "coloursensorreadning78", "?" ]
[ 1, 0, 3, 1, 0, 3, 1, 0, 3, 0 ]
6557
[ "languages", "studied", "differ", "widely", ",", "there", "is", "a", "quasistandard", "for", "presenting", "the", "material", ",", "in", "the", "form", "of", "interlinearized", "glossed", "text", "(", "IGT", ")", ".", "IGT", "typically" ]
[ 0, 0, 0, 0, 0, 0, 0, 3, 0, 0, 0, 0, 0, 0, 4, 0, 0, 0, 4, 4, 4, 0, 1, 0, 0, 2, 0 ]
6558
[ "This", "work", "addresses", "a", "major", "bottleneck", "in", "the", "development", "of", "Statistical", "MT", "(", "SMT", ")", "systems", ":", "the", "lack", "of", "sufficiently", "large", "parallel", "corpora", "for", "most" ]
[ 0, 0, 0, 3, 0, 0, 0, 0, 0, 0, 0, 4, 0, 0, 2, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0 ]
6559
[ "In", "Proc", ".", "of", "the", "4th", "Workshop", "on", "Treebanks", "and", "Linguistic", "Theories", "(", "TLT", ")", ",", "pages", "149", "?", "160", "." ]
[ 0, 0, 0, 0, 0, 0, 0, 0, 3, 4, 4, 4, 0, 1, 0, 0, 0, 0, 0, 0, 0 ]
6560
[ "4", ".", "Template", "Relation", "(", "TR", ")", "recognition", ":", "Finding", "the", "relation", "between", "TEs", "and", "a", "question" ]
[ 0, 0, 0, 3, 0, 0, 1, 0, 0, 0, 0, 0, 0, 0, 0, 4, 0 ]
6561
[ "3.2.6", ".", "Candidate", "word", "number", "(", "WNum", ")", "Because", "there", "are", "candidates", "that", "are", "a", "multi-" ]
[ 0, 0, 0, 0, 3, 0, 0, 1, 0, 0, 0, 0, 0, 0, 0, 0 ]
6562
[ "cognition", "(", "COG", ")", "competition", "(", "COMP", ")", "contact", "(", "CeNT", ")", "motion", "(", "MOT", ")", "emoeion", "(", "ENO", ")", "perception", "(", "PER", ")", "possession", "(", "POSS", ")", "stat", "ive", "(", "STA", ")" ]
[ 3, 0, 1, 0, 3, 0, 1, 0, 3, 0, 1, 0, 3, 0, 1, 0, 3, 0, 1, 0, 3, 0, 1, 0, 3, 0, 1, 0, 3, 4, 0, 1, 0 ]
6563
[ "colour", "histograms", "derived", "from", "images", ".", "In", "the", "RGB", "(", "Red", "Green", "Blue", ")", "colour", "model", ",", "each", "pixel", "is", "represented", "as", "an", "integer", "in", "range", "of" ]
[ 0, 0, 0, 0, 0, 0, 0, 0, 1, 0, 3, 4, 4, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0 ]
6564
[ "documents", ".", "Thus", ",", "HTMM", "can", "be", "seen", "both", "as", "a", "variation", "of", "Hidden", "Markov", "Model", "(", "HMM", ")", "and", "a", "variation", "of", "LDA", "." ]
[ 0, 0, 0, 0, 1, 0, 0, 0, 0, 0, 3, 0, 0, 4, 4, 4, 0, 1, 0, 0, 4, 0, 0, 1, 0 ]
6565
[ "Route", "INJECTION", "ORAL", "SMOKING", "SNORTING", "Aspect", "CHEMISTRY", "(", "Pharmacology", ",", "TEK", ")", "CULTURE", "(", "Culture", ",", "Setting", ",", "Social", ",", "Spiritual", ")", "EFFECTS", "(", "Effects", ")" ]
[ 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 1, 0, 1, 0, 3, 0, 0, 0, 0, 0, 0, 0, 1, 0, 3, 0 ]
6566
[ "1", "Introduction", "After", "two", "decades", "of", "steady", "progress", ",", "research", "in", "statistical", "machine", "translation", "(", "SMT", ")", "started", "to", "cross", "its", "path", "with", "translation", "industry", "with", "tan-" ]
[ 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 3, 4, 4, 4, 0, 1, 0, 0, 0, 0, 0, 0, 0, 4, 0, 0, 0 ]
6567
[ "=", "where", ",", "ij", "is", "the", "term", "frequency", "(", "TF", ")", "of", "the", "j-th", "word", "in", "the", "vocabulary", "in", "the", "document", ",", "i.e", ".", "the" ]
[ 0, 0, 0, 0, 0, 0, 3, 0, 0, 1, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0 ]
6568
[ "1", "Introduction", "Sign", "Language", "(", "SL", ")", "is", "a", "visual-gestural", "language", ",", "using", "the", "whole", "upper", "body", "articulators" ]
[ 0, 0, 0, 3, 4, 0, 1, 0, 4, 0, 0, 0, 0, 0, 0, 0, 0, 0 ]
6569
[ "some", "plan", "P", "such", "that", ",", "if", "H", "executes", "P.", "then", "in", "the", "re-", "sulting", "state", ",", "there", "exists", "a", "\\", "[", "'", "F", "identifiable", "term", "P", "'", "such", "that", "H", "knows", "that", "Denotation", "(", "Pl", "=", "Dem", ";", "tation", "(", "DI", ")", ",", "and", "5", "''", "intends", "that", "H", "execute", "P", "." ]
[ 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 3, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 4, 4, 4, 0, 1, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0 ]
6570
[ "though", "this", "is", "never", "the", "case", ".", ")", "The", "second", "such", "feature", "``", "Theme", "as", "Chomeuf", "(", "TAC", ")", "is", "the", "only", "non-trinary-valued", "feature", "in", "our", "learner", ";", "it", "spec-" ]
[ 0, 0, 0, 0, 0, 0, 0, 0, 3, 0, 0, 0, 0, 4, 4, 4, 0, 1, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0 ]
6571
[ "HLT/EMNLP", ",", "2005", "http", ":", "//www.nist.gov/speech/tests/ace/ace07/doc", ",", "The", "ACE", "2007", "(", "ACE07", ")", "Evaluation", "Plan", ",", "Evaluation", "of", "the", "Detection", "and", "Recognition", "of", "ACE", "Entities", ",", "Val-" ]
[ 1, 0, 0, 0, 0, 0, 0, 0, 3, 4, 0, 2, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 4, 0, 0, 0 ]
6572
[ "]", "}", "(", "7", ")", "This", "optimization", "can", "be", "performed", "using", "the", "expectation", "maximization", "(", "EM", ")", "algorithm", "(", "Dempster", ",", "Laird", ",", "and", "Rubin", "1977", ")", "." ]
[ 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 3, 4, 0, 1, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0 ]
6573
[ "1", "Introduction", "Word", "Sense", "Disambiguation", "(", "WSD", ")", "is", "considered", "one", "of", "the", "most", "important", "prob-" ]
[ 0, 0, 0, 3, 4, 0, 0, 1, 4, 0, 0, 0, 0, 0, 0, 0 ]
6574
[ "?", "TFN", "Bank", "(", "TFNB", ")", ":", "38,769", "samples", "CPN", "Bank", "(", "CPNB", ")", ":", "17,637", "samples", "The", "difficulty", "of", "identifying", "unknown", "words", "in" ]
[ 0, 3, 4, 0, 2, 0, 0, 0, 0, 4, 4, 0, 2, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0 ]
6575
[ "paper", "is", "the", "following", ":", "Def", ".", "A", "generative", "system", "(", "GS", ")", "is", "a", "sequence", "TI", ",", "...", ",", "Tn", "of", "TS", ",", "whe~'~-TR", "(", "Tl", ",", "...", ",", "Tn", ")", "is", "a", "relation", "between", "strings", "and", "D-trees", "and" ]
[ 0, 0, 0, 0, 0, 0, 0, 0, 3, 4, 0, 1, 0, 0, 4, 0, 0, 0, 0, 0, 0, 0, 1, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 4, 0, 0, 0, 0, 0, 0 ]
6576
[ "First", "we", "used", "the", "C", "&", "C", "Combinatory", "Categorial", "Grammar", "(", "CCG", ")", "parser5", "(", "C", "&", "C", ")", "by", "Clark", "and", "Curran", "(", "2004", ")", "using", "the", "biomedical", "model", "described", "in" ]
[ 0, 0, 0, 0, 3, 2, 4, 0, 4, 4, 0, 0, 2, 0, 0, 4, 2, 4, 2, 0, 0, 4, 4, 0, 0, 2, 0, 0, 0, 0, 0, 4 ]
6577
[ "Figure", "1", ":", "Na", "?", "?", "ve", "Bayes", "Model", "The", "model", "described", "above", "is", "commonly", "known", "as", "a", "na", "?", "?", "ve", "Bayes", "(", "NB", ")", "model", ".", "NB", "models", "have" ]
[ 0, 0, 0, 3, 4, 4, 4, 4, 0, 0, 0, 0, 0, 0, 0, 0, 0, 4, 4, 4, 4, 4, 4, 0, 1, 0, 0, 0, 2, 0, 0 ]
6578
[ "5", "System", "Description", "The", "PEZ", "system", "consists", "of", "three", "components", ",", "viz", "(", "i", ")", "a", "Web", "Translation", "Memory", "(", "WebTM", ")", "crawler", ",", "(", "ii", ")", "the", "XLING", "reranker", "and", "(", "iii", ")", "a", "longest" ]
[ 0, 0, 0, 0, 1, 0, 0, 0, 0, 0, 0, 0, 0, 3, 0, 4, 4, 4, 4, 0, 2, 0, 0, 0, 0, 0, 0, 0, 1, 0, 0, 0, 0, 0, 4, 0 ]
6579
[ "our", "proposed", "STRAIN", "approach", ".", "The", "results", "of", "using", "sentence", "training", "(", "STr", ")", "and", "sentence", "testing", "(", "STe", ")", "are", "shown", "in", "the", "STR/STE", "row", "of", "Table", "5", "." ]
[ 0, 0, 1, 0, 0, 0, 0, 0, 0, 3, 4, 0, 1, 0, 0, 4, 4, 0, 1, 0, 0, 0, 4, 0, 1, 0, 0, 0, 0, 0 ]
6580
[ "?", "Toral", "(", "2013", ")", "explores", "the", "selection", "of", "data", "to", "train", "domain-specific", "language", "models", "(", "LM", ")", "from", "non-domain", "specific", "corpora", "by", "means" ]
[ 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 3, 4, 0, 1, 0, 0, 0, 0, 0, 0, 0 ]
6581
[ "P", "i", "jPMI", "P", "i", "P", "j=", "Equation", "2", ":", "Pointwise", "Mutual", "Information", "(", "PMI", ")", "between", "two", "terms", "i", "and", "j", "." ]
[ 3, 4, 0, 4, 4, 4, 0, 0, 0, 0, 4, 4, 4, 0, 2, 0, 0, 0, 0, 4, 0, 0, 0 ]
6582
[ "2", ":", "boston", "sweep", "colorado", "to", "win", "world", "series", "3", ":", "rookies", "respond", "in", "first", "crack", "at", "the", "big", "time", "C-LR=C-LexRank", ";", "WDS=Word", "Distributional", "Similarity", "Table", "4", ":", "Top", "3", "ranked", "summaries", "of", "the", "redsox", "cluster" ]
[ 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 3, 4, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0 ]
6583
[ "X", "'", "1", "''", "~", ",", ".", "\\", "[", "-1", "Def", "in", "i", "t", "ion", "2.2", "A", "N", ":", "M", "sur", "face", "coerc", "ion", "(", "SC", ")", "ru", "le", "ix", "a", "quadruple", "(", "/", ",", "c/", ",", "c~", ",", "r", ")", "where", "l", "and", "r" ]
[ 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 3, 0, 4, 0, 0, 0, 0, 0, 0, 4, 4, 4, 0, 0, 1, 0, 0, 0, 4, 0, 0, 0, 0, 0, 0, 0, 0, 4, 2, 0, 0, 0, 4 ]
6584
[ "1", "Introduction", "Spoken", "Dialogue", "Systems", "(", "SDSs", ")", "play", "a", "key", "role", "in", "achieving", "natural", "human-machine", "interaction", "." ]
[ 0, 0, 0, 3, 4, 0, 0, 1, 0, 4, 0, 0, 0, 0, 0, 0, 0, 0 ]
6585
[ "Table", "10", ":", "A=acoustic", ",", "P=psycholinguistic", ",", "POS=part-of-speech", ",", "C=complexity", ",", "F=fluency", ",", "VR=vocabulary", "richness", ",", "CFG=CFG", "production", "rule", "features", "." ]
[ 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 3, 0, 0, 0, 0, 0, 0 ]
6586
[ "9", "Here", ",", "we", "present", "the", "generation-oriented", "PG", "Workbench", "(", "PGW", ")", ",", "which", "assists", "grammar", "developers", ",", "among", "other", "things", ",", "in", "testing", "whether", "the", "implemented", "syntactic", "and", "lexical", "knowledge", "allows", "all", "and", "only", "well-formed", "permutations", ".", "In", "Section", "2", ",", "we", "describe", "PG", "?", "s", "topology-based", "linearizer", "implemented", "in", "the", "PGW", "gen-erator", ",", "whose", "software", "design", "is", "sketched", "in", "Section", "3", "." ]
[ 0, 0, 0, 0, 0, 0, 0, 0, 3, 0, 0, 1, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 1, 2, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0 ]
6587
[ "Furthermore", ",", "to", "create", "a", "fully", "text-bound", "subset", ",", "family", "memberships", "relations", "(", "MEMBER", ")", "were", "resolved", "into", "single", "edges", "and", "suitable", "references", "to" ]
[ 0, 0, 0, 0, 3, 0, 0, 0, 0, 0, 4, 4, 0, 1, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0 ]
6588
[ "tation", "for", "the", "joint", "learning", "process", ".", "Specifically", ",", "we", "make", "use", "of", "the", "latent", "structural", "SVM", "(", "LS-SVM", ")", "(", "Yu", "and", "Joachims", ",", "2009", ")", "formulation", "." ]
[ 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 3, 4, 4, 0, 2, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0 ]
6589
[ "2013", "temporal", "summarization", ".", "In", "Proceedings", "of", "the", "22nd", "Text", "Retrieval", "Conference", "(", "TREC", ")", ",", "November", "." ]
[ 0, 0, 0, 0, 0, 0, 0, 0, 0, 3, 4, 4, 0, 1, 0, 0, 0, 0 ]
6590
[ "Fortunately", ",", "learning", "the", "reward", "function", "using", "IRL", "methods", "have", "already", "been", "proposed", "for", "the", "general", "(", "PO", ")", "MDP", "framework", "(", "Ng", "and", "Russell", ",", "2000", ";", "Kim", "et", "al.", "," ]
[ 0, 0, 0, 0, 0, 0, 0, 1, 0, 0, 0, 0, 3, 4, 0, 0, 0, 1, 0, 1, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0 ]
6591
[ "156", "The", "Basque", "Dependency", "Treebank", "(", "BDT", ")", "is", "a", "dependency", "treebank", "in", "its", "original", "design", ",", "due", "to" ]
[ 0, 0, 0, 3, 4, 0, 0, 1, 0, 4, 0, 0, 0, 0, 0, 0, 0, 0, 0 ]
6592
[ "?", "Negat", "ive", "Precis", "ion", "(", "I~P", ")", ":", "*", "F", "-measure", "(", "FM", ")", "?", "(", "~2+I", ")", "?", "PP", "?", "PR", "/32", "?" ]
[ 0, 0, 0, 0, 0, 0, 1, 0, 0, 0, 3, 4, 0, 2, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0 ]
6593
[ "In", "Proc", ".", "IEEE", "Automatic", "Speech", "Recognition", "and", "Understanding", "(", "ASRU", ")", ",", "Merano", ",", "Italy", ",", "December", "." ]
[ 0, 0, 0, 1, 3, 4, 4, 4, 4, 0, 1, 0, 0, 0, 0, 0, 0, 0, 0 ]
6594
[ "Table", "4", ":", "Evaluation", "results", ".", "Abbreviations", ":", "TVN", "(", "Tone", "&", "Vowel", "Normalization", ")", ";", "N-LM", "(", "N-order", "Language", "Modelling", ")", ";", "DS", "(", "Dataset", ")", ";", "PK", "(", "Prior", "Knowledge", ")", ";", "WC", "(", "Weighting-based", "Corrector", ")", "." ]
[ 0, 0, 0, 0, 0, 0, 0, 0, 1, 0, 0, 0, 0, 0, 0, 0, 1, 0, 3, 4, 4, 0, 0, 1, 0, 3, 0, 0, 1, 0, 3, 4, 0, 0, 1, 0, 3, 4, 0, 0 ]
6595
[ "3", "Baseline", "SMT", "system", "The", "goal", "of", "statistical", "machine", "translation", "(", "SMT", ")", "is", "to", "produce", "a", "target", "sentence", "e", "from", "a", "source", "sen-" ]
[ 0, 0, 0, 0, 0, 0, 0, 0, 3, 4, 0, 0, 1, 4, 0, 0, 4, 0, 0, 4, 0, 4, 0, 0 ]
6596
[ "transduction", "and", "matching", "words", "approximately", ".", "Unicode", "(", "UTF8", ")", "is", "fully", "supported", "and", "is", "in", "fact", "the", "only", "encoding", "accepted", "by", "Foma", "." ]
[ 0, 0, 0, 0, 0, 0, 3, 0, 1, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0 ]
6597
[ "Technology", "(", "NAST", ")", ",", "Lao", "PDR", "?", "Madan", "Puraskar", "Pustakalaya", "(", "MPP", ")", ",", "Nepal" ]
[ 0, 0, 0, 0, 0, 0, 0, 0, 3, 4, 4, 0, 1, 0, 0, 0 ]
6598
[ "capture", "all", "the", "types", "of", "entities", ".", "Typical", "structures", "of", "Chinese", "person", "name", "(", "CN", ")", ",", "location", "name", "(", "LN", ")", "and", "organization", "name", "(", "ON", ")", "are", "as", "follows", ":" ]
[ 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 3, 4, 3, 0, 1, 0, 0, 4, 4, 0, 1, 0, 0, 0, 4, 0, 0, 0, 0, 0, 0, 0 ]
6599
[ "2.1", "Purver", ",", "Ginzburg", "and", "Healey", "(", "PGH", ")", "Purver", ",", "Ginzburg", "and", "Healey", "(", "2003", ")", "investigated", "CRs", "in", "the", "British", "National", "Corpus", "(", "BNC", ")", "(", "Burnard", ",", "2000", ")", "." ]
[ 0, 3, 4, 4, 4, 4, 0, 1, 0, 4, 4, 4, 4, 4, 0, 0, 0, 0, 1, 4, 0, 3, 4, 4, 0, 1, 0, 0, 0, 4, 0, 0, 0 ]