Search is not available for this dataset
repo
stringlengths
2
152
file
stringlengths
15
239
code
stringlengths
0
58.4M
file_length
int64
0
58.4M
avg_line_length
float64
0
1.81M
max_line_length
int64
0
12.7M
extension_type
stringclasses
364 values
spaCy
spaCy-master/spacy/lang/lij/punctuation.py
from ..char_classes import ALPHA from ..punctuation import TOKENIZER_INFIXES ELISION = " ' ’ ".strip().replace(" ", "").replace("\n", "") _infixes = TOKENIZER_INFIXES + [ r"(?<=[{a}][{el}])(?=[{a}])".format(a=ALPHA, el=ELISION) ] TOKENIZER_INFIXES = _infixes
267
21.333333
60
py
spaCy
spaCy-master/spacy/lang/lij/stop_words.py
STOP_WORDS = set( """ a à â a-a a-e a-i a-o aiva aloa an ancheu ancon apreuvo ascì atra atre atri atro avanti avei bella belle belli bello ben ch' che chì chi ciù co-a co-e co-i co-o comm' comme con cösa coscì cöse d' da da-a da-e da-i da-o dapeu de delongo derê di do doe doî donde dòppo é e ê ea ean emmo en ëse fin fiña gh' ghe guæei i î in insemme int' inta inte inti into l' lê lì lô m' ma manco me megio meno mezo mi na n' ne ni ninte nisciun nisciuña no o ò ô oua parte pe pe-a pe-i pe-e pe-o perché pittin pö primma pròpio quæ quand' quande quarche quella quelle quelli quello s' sce scê sci sciâ sciô sciù se segge seu sò solo son sott' sta stæta stæte stæti stæto ste sti sto tanta tante tanti tanto te ti torna tra tròppo tutta tutte tutti tutto un uña unn' unna za zu """.split() )
815
19.4
100
py
spaCy
spaCy-master/spacy/lang/lij/tokenizer_exceptions.py
from ...symbols import ORTH from ...util import update_exc from ..tokenizer_exceptions import BASE_EXCEPTIONS _exc = {} for raw in [ "a-e", "a-o", "a-i", "a-a", "co-a", "co-e", "co-i", "co-o", "da-a", "da-e", "da-i", "da-o", "pe-a", "pe-e", "pe-i", "pe-o", ]: for orth in [raw, raw.capitalize()]: _exc[orth] = [{ORTH: orth}] # Prefix + prepositions with à (e.g. "sott'a-o") for prep in [ "a-a", "a-e", "a-o", "a-i", ]: for prefix in [ "sott'", "sott’", "contr'", "contr’", "ch'", "ch’", "s'", "s’", ]: for prefix_orth in [prefix, prefix.capitalize()]: _exc[prefix_orth + prep] = [{ORTH: prefix_orth}, {ORTH: prep}] TOKENIZER_EXCEPTIONS = update_exc(BASE_EXCEPTIONS, _exc)
861
16.24
74
py
spaCy
spaCy-master/spacy/lang/lt/__init__.py
from ...language import BaseDefaults, Language from .lex_attrs import LEX_ATTRS from .punctuation import TOKENIZER_INFIXES, TOKENIZER_SUFFIXES from .stop_words import STOP_WORDS from .tokenizer_exceptions import TOKENIZER_EXCEPTIONS class LithuanianDefaults(BaseDefaults): infixes = TOKENIZER_INFIXES suffixes = TOKENIZER_SUFFIXES tokenizer_exceptions = TOKENIZER_EXCEPTIONS stop_words = STOP_WORDS lex_attr_getters = LEX_ATTRS class Lithuanian(Language): lang = "lt" Defaults = LithuanianDefaults __all__ = ["Lithuanian"]
557
24.363636
62
py
spaCy
spaCy-master/spacy/lang/lt/examples.py
""" Example sentences to test spaCy and its language models. >>> from spacy.lang.lt.examples import sentences >>> docs = nlp.pipe(sentences) """ sentences = [ "Jaunikis pirmąją vestuvinę naktį iškeitė į areštinės gultą", "Bepiločiai automobiliai išnaikins vairavimo mokyklas, autoservisus ir eismo nelaimes", "Vilniuje galvojama uždrausti naudoti skėčius", "Londonas yra didelis miestas Jungtinėje Karalystėje", "Kur tu?", "Kas yra Prancūzijos prezidentas?", "Kokia yra Jungtinių Amerikos Valstijų sostinė?", "Kada gimė Dalia Grybauskaitė?", ]
579
29.526316
91
py
spaCy
spaCy-master/spacy/lang/lt/lex_attrs.py
from ...attrs import LIKE_NUM _num_words = { "antra", "antrai", "antrais", "antram", "antrame", "antras", "antri", "antriems", "antro", "antroje", "antromis", "antroms", "antros", "antrose", "antru", "antruose", "antrus", "antrą", "antrų", "aštunta", "aštuntai", "aštuntais", "aštuntam", "aštuntame", "aštuntas", "aštunti", "aštuntiems", "aštunto", "aštuntoje", "aštuntomis", "aštuntoms", "aštuntos", "aštuntose", "aštuntu", "aštuntuose", "aštuntus", "aštuntą", "aštuntų", "aštuoneri", "aštuoneriais", "aštuonerias", "aštuoneriems", "aštuoneriomis", "aštuonerioms", "aštuonerios", "aštuoneriose", "aštuoneriuose", "aštuonerius", "aštuonerių", "aštuonetai", "aštuonetais", "aštuonetams", "aštuonetas", "aštuonete", "aštuoneto", "aštuonetu", "aštuonetui", "aštuonetuose", "aštuonetus", "aštuonetą", "aštuonetų", "aštuoni", "aštuoniais", "aštuonias", "aštuoniasdešimt", "aštuoniasdešimta", "aštuoniasdešimtai", "aštuoniasdešimtais", "aštuoniasdešimtam", "aštuoniasdešimtame", "aštuoniasdešimtas", "aštuoniasdešimti", "aštuoniasdešimtiems", "aštuoniasdešimties", "aštuoniasdešimtimi", "aštuoniasdešimtimis", "aštuoniasdešimtims", "aštuoniasdešimtis", "aštuoniasdešimto", "aštuoniasdešimtoje", "aštuoniasdešimtomis", "aštuoniasdešimtoms", "aštuoniasdešimtos", "aštuoniasdešimtose", "aštuoniasdešimtu", "aštuoniasdešimtuose", "aštuoniasdešimtus", "aštuoniasdešimtyje", "aštuoniasdešimtys", "aštuoniasdešimtyse", "aštuoniasdešimtą", "aštuoniasdešimtį", "aštuoniasdešimtų", "aštuoniasdešimčia", "aštuoniasdešimčiai", "aštuoniasdešimčių", "aštuoniems", "aštuoniolika", "aštuoniolikai", "aštuoniolikoje", "aštuoniolikos", "aštuoniolikta", "aštuonioliktai", "aštuonioliktais", "aštuonioliktam", "aštuonioliktame", "aštuonioliktas", "aštuoniolikti", "aštuonioliktiems", "aštuoniolikto", "aštuonioliktoje", "aštuonioliktomis", "aštuonioliktoms", "aštuonioliktos", "aštuonioliktose", "aštuonioliktu", "aštuonioliktuose", "aštuonioliktus", "aštuonioliktą", "aštuonioliktų", "aštuoniomis", "aštuonioms", "aštuonios", "aštuoniose", "aštuonis", "aštuoniuose", "aštuonių", "bilijonai", "bilijonais", "bilijonams", "bilijonas", "bilijone", "bilijono", "bilijonu", "bilijonui", "bilijonuose", "bilijonus", "bilijoną", "bilijonų", "devinta", "devintai", "devintais", "devintam", "devintame", "devintas", "devinti", "devintiems", "devinto", "devintoje", "devintomis", "devintoms", "devintos", "devintose", "devintu", "devintuose", "devintus", "devintą", "devintų", "devyneri", "devyneriais", "devynerias", "devyneriems", "devyneriomis", "devynerioms", "devynerios", "devyneriose", "devyneriuose", "devynerius", "devynerių", "devynetas", "devynete", "devyneto", "devynetu", "devynetui", "devynetą", "devyni", "devyniais", "devynias", "devyniasdešimt", "devyniasdešimta", "devyniasdešimtai", "devyniasdešimtais", "devyniasdešimtam", "devyniasdešimtame", "devyniasdešimtas", "devyniasdešimti", "devyniasdešimtiems", "devyniasdešimties", "devyniasdešimtimi", "devyniasdešimtimis", "devyniasdešimtims", "devyniasdešimtis", "devyniasdešimto", "devyniasdešimtoje", "devyniasdešimtomis", "devyniasdešimtoms", "devyniasdešimtos", "devyniasdešimtose", "devyniasdešimtu", "devyniasdešimtuose", "devyniasdešimtus", "devyniasdešimtyje", "devyniasdešimtys", "devyniasdešimtyse", "devyniasdešimtą", "devyniasdešimtį", "devyniasdešimtų", "devyniasdešimčia", "devyniasdešimčiai", "devyniasdešimčių", "devyniems", "devyniolika", "devyniolikai", "devyniolikoje", "devyniolikos", "devyniolikta", "devynioliktai", "devynioliktais", "devynioliktam", "devynioliktame", "devynioliktas", "devyniolikti", "devynioliktiems", "devyniolikto", "devynioliktoje", "devynioliktomis", "devynioliktoms", "devynioliktos", "devynioliktose", "devynioliktu", "devynioliktuose", "devynioliktus", "devynioliktą", "devynioliktų", "devyniomis", "devynioms", "devynios", "devyniose", "devynis", "devyniuose", "devynių", "dešimt", "dešimta", "dešimtai", "dešimtais", "dešimtam", "dešimtame", "dešimtas", "dešimti", "dešimtiems", "dešimties", "dešimtimi", "dešimtimis", "dešimtims", "dešimtis", "dešimto", "dešimtoje", "dešimtomis", "dešimtoms", "dešimtos", "dešimtose", "dešimtu", "dešimtuose", "dešimtus", "dešimtyje", "dešimtys", "dešimtyse", "dešimtą", "dešimtį", "dešimtų", "dešimčia", "dešimčiai", "dešimčių", "du", "dutūkstanta", "dutūkstantai", "dutūkstantais", "dutūkstantam", "dutūkstantame", "dutūkstantas", "dutūkstanti", "dutūkstantiems", "dutūkstanto", "dutūkstantoje", "dutūkstantomis", "dutūkstantoms", "dutūkstantos", "dutūkstantose", "dutūkstantu", "dutūkstantuose", "dutūkstantus", "dutūkstantą", "dutūkstantų", "dušimta", "dušimtai", "dušimtais", "dušimtam", "dušimtame", "dušimtas", "dušimti", "dušimtiems", "dušimto", "dušimtoje", "dušimtomis", "dušimtoms", "dušimtos", "dušimtose", "dušimtu", "dušimtuose", "dušimtus", "dušimtą", "dušimtų", "dvejais", "dvejas", "dvejetai", "dvejetais", "dvejetams", "dvejetas", "dvejete", "dvejeto", "dvejetu", "dvejetui", "dvejetuose", "dvejetus", "dvejetą", "dvejetų", "dveji", "dvejiems", "dvejomis", "dvejoms", "dvejos", "dvejose", "dvejuose", "dvejus", "dvejų", "dvi", "dvidešimt", "dvidešimta", "dvidešimtai", "dvidešimtais", "dvidešimtam", "dvidešimtame", "dvidešimtas", "dvidešimti", "dvidešimtiems", "dvidešimties", "dvidešimtimi", "dvidešimtimis", "dvidešimtims", "dvidešimtis", "dvidešimto", "dvidešimtoje", "dvidešimtomis", "dvidešimtoms", "dvidešimtos", "dvidešimtose", "dvidešimtu", "dvidešimtuose", "dvidešimtus", "dvidešimtyje", "dvidešimtys", "dvidešimtyse", "dvidešimtą", "dvidešimtį", "dvidešimtų", "dvidešimčia", "dvidešimčiai", "dvidešimčių", "dviejose", "dviejuose", "dviejų", "dviem", "dvylika", "dvylikai", "dvylikoje", "dvylikos", "dvylikta", "dvyliktai", "dvyliktais", "dvyliktam", "dvyliktame", "dvyliktas", "dvylikti", "dvyliktiems", "dvylikto", "dvyliktoje", "dvyliktomis", "dvyliktoms", "dvyliktos", "dvyliktose", "dvyliktu", "dvyliktuose", "dvyliktus", "dvyliktą", "dvyliktų", "keturi", "keturiais", "keturias", "keturiasdešimt", "keturiasdešimta", "keturiasdešimtai", "keturiasdešimtais", "keturiasdešimtam", "keturiasdešimtame", "keturiasdešimtas", "keturiasdešimti", "keturiasdešimtiems", "keturiasdešimties", "keturiasdešimtimi", "keturiasdešimtimis", "keturiasdešimtims", "keturiasdešimtis", "keturiasdešimto", "keturiasdešimtoje", "keturiasdešimtomis", "keturiasdešimtoms", "keturiasdešimtos", "keturiasdešimtose", "keturiasdešimtu", "keturiasdešimtuose", "keturiasdešimtus", "keturiasdešimtyje", "keturiasdešimtys", "keturiasdešimtyse", "keturiasdešimtą", "keturiasdešimtį", "keturiasdešimtų", "keturiasdešimčia", "keturiasdešimčiai", "keturiasdešimčių", "keturiems", "keturiolika", "keturiolikai", "keturiolikoje", "keturiolikos", "keturiolikta", "keturioliktai", "keturioliktais", "keturioliktam", "keturioliktame", "keturioliktas", "keturiolikti", "keturioliktiems", "keturiolikto", "keturioliktoje", "keturioliktomis", "keturioliktoms", "keturioliktos", "keturioliktose", "keturioliktu", "keturioliktuose", "keturioliktus", "keturioliktą", "keturioliktų", "keturiomis", "keturioms", "keturios", "keturiose", "keturis", "keturiuose", "keturių", "ketveri", "ketveriais", "ketverias", "ketveriems", "ketveriomis", "ketverioms", "ketverios", "ketveriose", "ketveriuose", "ketverius", "ketverių", "ketvertai", "ketvertais", "ketvertams", "ketvertas", "ketverte", "ketverto", "ketvertu", "ketvertui", "ketvertuose", "ketvertus", "ketvertą", "ketvertų", "ketvirta", "ketvirtai", "ketvirtais", "ketvirtam", "ketvirtame", "ketvirtas", "ketvirti", "ketvirtiems", "ketvirto", "ketvirtoje", "ketvirtomis", "ketvirtoms", "ketvirtos", "ketvirtose", "ketvirtu", "ketvirtuose", "ketvirtus", "ketvirtą", "ketvirtų", "milijardai", "milijardais", "milijardams", "milijardas", "milijarde", "milijardo", "milijardu", "milijardui", "milijarduose", "milijardus", "milijardą", "milijardų", "milijonai", "milijonais", "milijonams", "milijonas", "milijone", "milijono", "milijonu", "milijonui", "milijonuose", "milijonus", "milijoną", "milijonų", "penkeri", "penkeriais", "penkerias", "penkeriems", "penkeriomis", "penkerioms", "penkerios", "penkeriose", "penkeriuose", "penkerius", "penkerių", "penketai", "penketais", "penketams", "penketas", "penkete", "penketo", "penketu", "penketui", "penketuose", "penketus", "penketą", "penketų", "penki", "penkiais", "penkias", "penkiasdešimt", "penkiasdešimta", "penkiasdešimtai", "penkiasdešimtais", "penkiasdešimtam", "penkiasdešimtame", "penkiasdešimtas", "penkiasdešimti", "penkiasdešimtiems", "penkiasdešimties", "penkiasdešimtimi", "penkiasdešimtimis", "penkiasdešimtims", "penkiasdešimtis", "penkiasdešimto", "penkiasdešimtoje", "penkiasdešimtomis", "penkiasdešimtoms", "penkiasdešimtos", "penkiasdešimtose", "penkiasdešimtu", "penkiasdešimtuose", "penkiasdešimtus", "penkiasdešimtyje", "penkiasdešimtys", "penkiasdešimtyse", "penkiasdešimtą", "penkiasdešimtį", "penkiasdešimtų", "penkiasdešimčia", "penkiasdešimčiai", "penkiasdešimčių", "penkiems", "penkiolika", "penkiolikai", "penkiolikoje", "penkiolikos", "penkiolikta", "penkioliktai", "penkioliktais", "penkioliktam", "penkioliktame", "penkioliktas", "penkiolikti", "penkioliktiems", "penkiolikto", "penkioliktoje", "penkioliktomis", "penkioliktoms", "penkioliktos", "penkioliktose", "penkioliktu", "penkioliktuose", "penkioliktus", "penkioliktą", "penkioliktų", "penkiomis", "penkioms", "penkios", "penkiose", "penkis", "penkiuose", "penkišimta", "penkišimtai", "penkišimtais", "penkišimtam", "penkišimtame", "penkišimtas", "penkišimti", "penkišimtiems", "penkišimto", "penkišimtoje", "penkišimtomis", "penkišimtoms", "penkišimtos", "penkišimtose", "penkišimtu", "penkišimtuose", "penkišimtus", "penkišimtą", "penkišimtų", "penkių", "penkta", "penktai", "penktais", "penktam", "penktame", "penktas", "penkti", "penktiems", "penkto", "penktoje", "penktomis", "penktoms", "penktos", "penktose", "penktu", "penktuose", "penktus", "penktą", "penktų", "pirma", "pirmai", "pirmais", "pirmaisiais", "pirmajai", "pirmajam", "pirmajame", "pirmam", "pirmame", "pirmas", "pirmasis", "pirmi", "pirmieji", "pirmiems", "pirmiesiems", "pirmo", "pirmoje", "pirmoji", "pirmojo", "pirmojoje", "pirmomis", "pirmoms", "pirmos", "pirmose", "pirmosiomis", "pirmosioms", "pirmosios", "pirmosiose", "pirmu", "pirmuoju", "pirmuose", "pirmuosiuose", "pirmuosius", "pirmus", "pirmą", "pirmąja", "pirmąją", "pirmąjį", "pirmąsias", "pirmų", "pirmųjų", "pusantro", "pusantros", "pusantrų", "pusdevinto", "pusdevintos", "pusdevintų", "pusdešimto", "pusdešimtos", "pusdešimtų", "pusketvirto", "pusketvirtos", "pusketvirtų", "puspenkto", "puspenktos", "puspenktų", "pusseptinto", "pusseptintos", "pusseptintų", "pustrečio", "pustrečios", "pustrečių", "pusšešto", "pusšeštos", "pusšeštų", "septinta", "septintai", "septintais", "septintam", "septintame", "septintas", "septinti", "septintiems", "septinto", "septintoje", "septintomis", "septintoms", "septintos", "septintose", "septintu", "septintuose", "septintus", "septintą", "septintų", "septyneri", "septyneriais", "septynerias", "septyneriems", "septyneriomis", "septynerioms", "septynerios", "septyneriose", "septyneriuose", "septynerius", "septynerių", "septynetas", "septynete", "septyneto", "septynetu", "septynetui", "septynetą", "septyni", "septyniais", "septynias", "septyniasdešimt", "septyniasdešimta", "septyniasdešimtai", "septyniasdešimtais", "septyniasdešimtam", "septyniasdešimtame", "septyniasdešimtas", "septyniasdešimti", "septyniasdešimtiems", "septyniasdešimties", "septyniasdešimtimi", "septyniasdešimtimis", "septyniasdešimtims", "septyniasdešimtis", "septyniasdešimto", "septyniasdešimtoje", "septyniasdešimtomis", "septyniasdešimtoms", "septyniasdešimtos", "septyniasdešimtose", "septyniasdešimtu", "septyniasdešimtuose", "septyniasdešimtus", "septyniasdešimtyje", "septyniasdešimtys", "septyniasdešimtyse", "septyniasdešimtą", "septyniasdešimtį", "septyniasdešimtų", "septyniasdešimčia", "septyniasdešimčiai", "septyniasdešimčių", "septyniems", "septyniolika", "septyniolikai", "septyniolikoje", "septyniolikos", "septyniolikta", "septynioliktai", "septynioliktais", "septynioliktam", "septynioliktame", "septynioliktas", "septyniolikti", "septynioliktiems", "septyniolikto", "septynioliktoje", "septynioliktomis", "septynioliktoms", "septynioliktos", "septynioliktose", "septynioliktu", "septynioliktuose", "septynioliktus", "septynioliktą", "septynioliktų", "septyniomis", "septynioms", "septynios", "septyniose", "septynis", "septyniuose", "septynių", "skaitvardi", "skaitvardis", "skaitvardyje", "skaitvardį", "skaitvardžiai", "skaitvardžiais", "skaitvardžiams", "skaitvardžio", "skaitvardžiu", "skaitvardžiui", "skaitvardžiuose", "skaitvardžius", "skaitvardžių", "trejais", "trejas", "trejetai", "trejetais", "trejetams", "trejetas", "trejete", "trejeto", "trejetu", "trejetui", "trejetuose", "trejetus", "trejetą", "trejetų", "treji", "trejiems", "trejomis", "trejoms", "trejos", "trejose", "trejuose", "trejus", "trejų", "treti", "tretiems", "trečia", "trečiai", "trečiais", "trečiam", "trečiame", "trečias", "trečio", "trečioje", "trečiomis", "trečioms", "trečios", "trečiose", "trečiu", "trečiuose", "trečius", "trečią", "trečių", "trijose", "trijuose", "trijų", "trilijonai", "trilijonais", "trilijonams", "trilijonas", "trilijone", "trilijono", "trilijonu", "trilijonui", "trilijonuose", "trilijonus", "trilijoną", "trilijonų", "trimis", "trims", "tris", "trisdešimt", "trisdešimta", "trisdešimtai", "trisdešimtais", "trisdešimtam", "trisdešimtame", "trisdešimtas", "trisdešimti", "trisdešimtiems", "trisdešimties", "trisdešimtimi", "trisdešimtimis", "trisdešimtims", "trisdešimtis", "trisdešimto", "trisdešimtoje", "trisdešimtomis", "trisdešimtoms", "trisdešimtos", "trisdešimtose", "trisdešimtu", "trisdešimtuose", "trisdešimtus", "trisdešimtyje", "trisdešimtys", "trisdešimtyse", "trisdešimtą", "trisdešimtį", "trisdešimtų", "trisdešimčia", "trisdešimčiai", "trisdešimčių", "trylika", "trylikai", "trylikoje", "trylikos", "trylikta", "tryliktai", "tryliktais", "tryliktam", "tryliktame", "tryliktas", "trylikti", "tryliktiems", "trylikto", "tryliktoje", "tryliktomis", "tryliktoms", "tryliktos", "tryliktose", "tryliktu", "tryliktuose", "tryliktus", "tryliktą", "tryliktų", "trys", "tūkstanta", "tūkstantai", "tūkstantais", "tūkstantam", "tūkstantame", "tūkstantas", "tūkstanti", "tūkstantiems", "tūkstantis", "tūkstanto", "tūkstantoje", "tūkstantomis", "tūkstantoms", "tūkstantos", "tūkstantose", "tūkstantu", "tūkstantuose", "tūkstantus", "tūkstantyje", "tūkstantą", "tūkstantį", "tūkstantų", "tūkstančiai", "tūkstančiais", "tūkstančiams", "tūkstančio", "tūkstančiu", "tūkstančiui", "tūkstančiuose", "tūkstančius", "tūkstančių", "vienam", "viename", "vienas", "vieno", "vienu", "vienuolika", "vienuolikai", "vienuolikoje", "vienuolikos", "vienuolikta", "vienuoliktais", "vienuoliktam", "vienuoliktame", "vienuoliktas", "vienuolikti", "vienuoliktiems", "vienuolikto", "vienuoliktoje", "vienuoliktomis", "vienuoliktoms", "vienuoliktos", "vienuoliktose", "vienuoliktu", "vienuoliktuose", "vienuoliktus", "vienuoliktą", "vienuoliktų", "vienuoliką", "vieną", "šešeri", "šešeriais", "šešerias", "šešeriems", "šešeriomis", "šešerioms", "šešerios", "šešeriose", "šešeriuose", "šešerius", "šešerių", "šešetai", "šešetais", "šešetams", "šešetas", "šešete", "šešeto", "šešetu", "šešetui", "šešetuose", "šešetus", "šešetą", "šešetų", "šeši", "šešiais", "šešias", "šešiasdešimt", "šešiasdešimta", "šešiasdešimtai", "šešiasdešimtais", "šešiasdešimtam", "šešiasdešimtame", "šešiasdešimtas", "šešiasdešimti", "šešiasdešimtiems", "šešiasdešimties", "šešiasdešimtimi", "šešiasdešimtimis", "šešiasdešimtims", "šešiasdešimtis", "šešiasdešimto", "šešiasdešimtoje", "šešiasdešimtomis", "šešiasdešimtoms", "šešiasdešimtos", "šešiasdešimtose", "šešiasdešimtu", "šešiasdešimtuose", "šešiasdešimtus", "šešiasdešimtyje", "šešiasdešimtys", "šešiasdešimtyse", "šešiasdešimtą", "šešiasdešimtį", "šešiasdešimtų", "šešiasdešimčia", "šešiasdešimčiai", "šešiasdešimčių", "šešiems", "šešiolika", "šešiolikai", "šešiolikoje", "šešiolikos", "šešiolikta", "šešioliktai", "šešioliktais", "šešioliktam", "šešioliktame", "šešioliktas", "šešiolikti", "šešioliktiems", "šešiolikto", "šešioliktoje", "šešioliktomis", "šešioliktoms", "šešioliktos", "šešioliktose", "šešioliktu", "šešioliktuose", "šešioliktus", "šešioliktą", "šešioliktų", "šešiomis", "šešioms", "šešios", "šešiose", "šešis", "šešiuose", "šešių", "šešta", "šeštai", "šeštais", "šeštam", "šeštame", "šeštas", "šešti", "šeštiems", "šešto", "šeštoje", "šeštomis", "šeštoms", "šeštos", "šeštose", "šeštu", "šeštuose", "šeštus", "šeštą", "šeštų", "šimtai", "šimtais", "šimtams", "šimtas", "šimte", "šimto", "šimtu", "šimtui", "šimtuose", "šimtus", "šimtą", "šimtų", } def like_num(text): text = text.replace(",", "").replace(".", "") if text.isdigit(): return True if text.count("/") == 1: num, denom = text.split("/") if num.isdigit() and denom.isdigit(): return True if text.lower() in _num_words: return True return False LEX_ATTRS = {LIKE_NUM: like_num}
21,536
17.711555
49
py
spaCy
spaCy-master/spacy/lang/lt/punctuation.py
from ..char_classes import ( ALPHA, ALPHA_LOWER, ALPHA_UPPER, CONCAT_QUOTES, HYPHENS, LIST_ELLIPSES, LIST_ICONS, ) from ..punctuation import TOKENIZER_SUFFIXES _infixes = ( LIST_ELLIPSES + LIST_ICONS + [ r"(?<=[0-9])[+\*^](?=[0-9-])", r"(?<=[{al}{q}])\.(?=[{au}{q}])".format( al=ALPHA_LOWER, au=ALPHA_UPPER, q=CONCAT_QUOTES ), r"(?<=[{a}]),(?=[{a}])".format(a=ALPHA), r"(?<=[{a}])(?:{h})(?=[{a}])".format(a=ALPHA, h=HYPHENS), r"(?<=[{a}0-9])[:<>=/](?=[{a}])".format(a=ALPHA), ] ) _suffixes = [r"\."] + list(TOKENIZER_SUFFIXES) TOKENIZER_INFIXES = _infixes TOKENIZER_SUFFIXES = _suffixes
696
20.78125
65
py
spaCy
spaCy-master/spacy/lang/lt/stop_words.py
STOP_WORDS = { "a", "abejais", "abejas", "abejetam", "abejetame", "abejetas", "abejeto", "abejetu", "abejetą", "abeji", "abejiems", "abejomis", "abejoms", "abejos", "abejose", "abejuose", "abejus", "abejų", "abi", "abidvi", "abiejose", "abiejuose", "abiejų", "abiem", "abiems", "abigaliai", "abipus", "abu", "abudu", "aha", "ai", "aiman", "aj", "ajajai", "ak", "aleliuja", "aliai", "alio", "amen", "ana", "anai", "anaiptol", "anais", "anaisiais", "anajai", "anajam", "anajame", "anam", "aname", "anapus", "anas", "anasai", "anasis", "ane", "anei", "anie", "aniedvi", "aniedviem", "anieji", "aniem", "aniemdviem", "aniems", "aniesiems", "ano", "anodviem", "anoj", "anoje", "anoji", "anojo", "anojoje", "anokia", "anokiai", "anokiais", "anokiam", "anokiame", "anokias", "anokie", "anokiems", "anokio", "anokioje", "anokiomis", "anokioms", "anokios", "anokiose", "anokiu", "anokiuose", "anokius", "anokią", "anokių", "anoks", "anoksai", "anokį", "anom", "anomdviem", "anomis", "anoms", "anos", "anose", "anosiomis", "anosioms", "anosios", "anosiose", "anot", "ant", "antai", "antrokia", "antrokiai", "antrokiais", "antrokiam", "antrokiame", "antrokias", "antrokie", "antrokiems", "antrokio", "antrokioje", "antrokiomis", "antrokioms", "antrokios", "antrokiose", "antrokiu", "antrokiuose", "antrokius", "antrokią", "antrokių", "antroks", "antrokį", "anuo", "anuodu", "anuoju", "anuos", "anuose", "anuosiuose", "anuosius", "aną", "anąja", "anąją", "anąjį", "anąsias", "anąįį", "anų", "anųdviejų", "anųjų", "apie", "aplink", "ar", "arba", "argi", "arti", "at", "aukščiau", "ačiū", "aš", "bakst", "bambt", "bau", "be", "bei", "beje", "bemaž", "bene", "bent", "berods", "bet", "betgi", "beveik", "bis", "brakšt", "braukšt", "bravo", "bumbt", "būtent", "cakt", "capt", "cha", "cit", "cvakt", "dar", "dargi", "daugmaž", "deja", "dievaž", "din", "dirst", "dribt", "drykt", "dunkst", "dvejokia", "dvejokiai", "dvejokiais", "dvejokiam", "dvejokiame", "dvejokias", "dvejokie", "dvejokiems", "dvejokio", "dvejokioje", "dvejokiomis", "dvejokioms", "dvejokios", "dvejokiose", "dvejokiu", "dvejokiuose", "dvejokius", "dvejokią", "dvejokių", "dvejoks", "dvejokį", "dzin", "dėka", "dėkui", "dėl", "dėlei", "dėlto", "e", "ech", "ei", "ej", "et", "fe", "gaila", "gal", "galbūt", "galgi", "gan", "gana", "gi", "greta", "idant", "iki", "ir", "irgi", "it", "itin", "iš", "išilgai", "išvis", "ja", "jai", "jais", "jaisiais", "jajai", "jajam", "jajame", "jam", "jame", "jas", "jau", "jei", "jeigu", "ji", "jie", "jiedu", "jiedvi", "jiedviem", "jieji", "jiemdviem", "jiems", "jiesiems", "jinai", "jis", "jisai", "jo", "jodviem", "jog", "joje", "joji", "jojo", "jojoje", "jokia", "jokiai", "jokiais", "jokiam", "jokiame", "jokias", "jokie", "jokiems", "jokio", "jokioje", "jokiomis", "jokioms", "jokios", "jokiose", "jokiu", "jokiuose", "jokius", "jokią", "jokių", "joks", "jokį", "jomdviem", "jomis", "joms", "jos", "jose", "josiomis", "josioms", "josios", "josiose", "judu", "judvi", "judviejose", "judviejuose", "judviejų", "judviem", "juk", "jumis", "jums", "jumyse", "juo", "juodu", "juoju", "juos", "juose", "juosiuose", "juosius", "jus", "ją", "jąja", "jąją", "jąsias", "jį", "jįjį", "jūs", "jūsiške", "jūsiškei", "jūsiškes", "jūsiškiai", "jūsiškiais", "jūsiškiam", "jūsiškiame", "jūsiškiams", "jūsiškio", "jūsiškis", "jūsiškiu", "jūsiškiuose", "jūsiškius", "jūsiškių", "jūsiškė", "jūsiškėje", "jūsiškėmis", "jūsiškėms", "jūsiškės", "jūsiškėse", "jūsiškę", "jūsiškį", "jūsų", "jų", "jųdviejų", "jųjų", "kad", "kada", "kadangi", "kai", "kaip", "kaipgi", "kapt", "kas", "katra", "katrai", "katrais", "katram", "katrame", "katras", "katrie", "katriedvi", "katriems", "katro", "katroje", "katromis", "katroms", "katros", "katrose", "katruo", "katruodu", "katruos", "katruose", "katrą", "katrų", "kaukšt", "kažin", "kažkas", "kažkatra", "kažkatras", "kažkokia", "kažkokiai", "kažkokiais", "kažkokiam", "kažkokiame", "kažkokias", "kažkokie", "kažkokiems", "kažkokio", "kažkokioje", "kažkokiomis", "kažkokioms", "kažkokios", "kažkokiose", "kažkokiu", "kažkokiuose", "kažkokius", "kažkokią", "kažkokių", "kažkoks", "kažkoksai", "kažkokį", "kažkuri", "kažkuria", "kažkuriai", "kažkuriais", "kažkuriam", "kažkuriame", "kažkurias", "kažkurie", "kažkuriems", "kažkurio", "kažkurioje", "kažkuriomis", "kažkurioms", "kažkurios", "kažkuriose", "kažkuris", "kažkuriuo", "kažkuriuos", "kažkuriuose", "kažkurią", "kažkurių", "kažkurį", "keleri", "keleriais", "kelerias", "keleriems", "keleriomis", "kelerioms", "kelerios", "keleriose", "keleriuose", "kelerius", "kelerių", "keletas", "kelete", "keleto", "keletu", "keletui", "keletą", "keli", "keliais", "kelias", "keliasdešimt", "keliems", "kelinta", "kelintai", "kelintaisiais", "kelintajai", "kelintajam", "kelintajame", "kelintam", "kelintame", "kelintas", "kelintasis", "kelintieji", "kelintiesiems", "kelinto", "kelintoje", "kelintoji", "kelintojo", "kelintojoje", "kelintos", "kelintosioms", "kelintosios", "kelintosiose", "kelintu", "kelintuoju", "kelintuosiuose", "kelintuosius", "kelintą", "kelintąją", "kelintąjį", "kelintąsias", "kelintųjų", "keliolika", "keliolikai", "keliolikoje", "keliolikos", "keliomis", "kelioms", "kelios", "keliose", "kelis", "keliuose", "kelių", "kiaurai", "kiek", "kiekviena", "kiekvienai", "kiekvienais", "kiekvienam", "kiekviename", "kiekvienas", "kiekvieni", "kiekvieniems", "kiekvieno", "kiekvienoje", "kiekvienomis", "kiekvienoms", "kiekvienos", "kiekvienose", "kiekvienu", "kiekvienuose", "kiekvienus", "kiekvieną", "kiekvienų", "kieno", "kita", "kitai", "kitais", "kitam", "kitame", "kitas", "kiti", "kitiems", "kito", "kitoje", "kitokia", "kitokiai", "kitokiais", "kitokiam", "kitokiame", "kitokias", "kitokie", "kitokiems", "kitokio", "kitokioje", "kitokiomis", "kitokioms", "kitokios", "kitokiose", "kitokiu", "kitokiuose", "kitokius", "kitokią", "kitokių", "kitoks", "kitokį", "kitomis", "kitoms", "kitos", "kitose", "kitu", "kituose", "kitus", "kitą", "kitų", "kodėl", "kokia", "kokiai", "kokiais", "kokiam", "kokiame", "kokias", "kokie", "kokiem", "kokiems", "kokio", "kokioje", "kokiomis", "kokioms", "kokios", "kokiose", "kokiu", "kokiuose", "kokius", "kokią", "kokių", "koks", "koksai", "kokį", "kol", "kolei", "kone", "kuomet", "kur", "kurgi", "kuri", "kuria", "kuriai", "kuriais", "kuriam", "kuriame", "kurias", "kurie", "kuriedvi", "kuriem", "kuriems", "kurio", "kurioje", "kuriomis", "kurioms", "kurion", "kurios", "kuriose", "kuris", "kuriuo", "kuriuodu", "kuriuos", "kuriuose", "kurią", "kurių", "kurį", "labanakt", "labanaktis", "labas", "lai", "lig", "ligi", "link", "lyg", "man", "mana", "manai", "manais", "manaisiais", "manajai", "manajam", "manajame", "manam", "maname", "manas", "manasai", "manasis", "mane", "mani", "manieji", "maniems", "maniesiems", "manim", "manimi", "maniške", "maniškei", "maniškes", "maniškiai", "maniškiais", "maniškiam", "maniškiame", "maniškiams", "maniškio", "maniškis", "maniškiu", "maniškiuose", "maniškius", "maniškių", "maniškė", "maniškėje", "maniškėmis", "maniškėms", "maniškės", "maniškėse", "maniškę", "maniškį", "mano", "manoje", "manoji", "manojo", "manojoje", "manomis", "manoms", "manos", "manose", "manosiomis", "manosioms", "manosios", "manosiose", "manu", "manuoju", "manuose", "manuosiuose", "manuosius", "manus", "many", "manyje", "maną", "manąja", "manąją", "manąjį", "manąsias", "manęs", "manų", "manųjų", "mat", "maždaug", "mažne", "mes", "mudu", "mudvi", "mudviejose", "mudviejuose", "mudviejų", "mudviem", "mudviems", "mumis", "mums", "mumyse", "mus", "mūs", "mūsiške", "mūsiškei", "mūsiškes", "mūsiškiai", "mūsiškiais", "mūsiškiam", "mūsiškiame", "mūsiškiams", "mūsiškio", "mūsiškis", "mūsiškiu", "mūsiškiuose", "mūsiškius", "mūsiškių", "mūsiškė", "mūsiškėje", "mūsiškėmis", "mūsiškėms", "mūsiškės", "mūsiškėse", "mūsiškę", "mūsiškį", "mūsų", "na", "nagi", "ne", "nebe", "nebent", "negi", "negu", "nei", "nejau", "nejaugi", "nekaip", "nelyginant", "nes", "net", "netgi", "netoli", "neva", "niekatra", "niekatrai", "niekatrais", "niekatram", "niekatrame", "niekatras", "niekatrie", "niekatriems", "niekatro", "niekatroje", "niekatromis", "niekatroms", "niekatros", "niekatrose", "niekatruo", "niekatruos", "niekatruose", "niekatrą", "niekatrų", "nors", "nuo", "nė", "nėmaž", "o", "ogi", "oho", "oi", "oj", "op", "opa", "paeiliui", "pagal", "pagaliau", "pakeliui", "pala", "palaipsniui", "palei", "pas", "pasak", "paskos", "paskui", "paskum", "pat", "pati", "patiem", "patiems", "paties", "pats", "patsai", "patys", "patį", "paukšt", "pačia", "pačiai", "pačiais", "pačiam", "pačiame", "pačias", "pačioje", "pačiomis", "pačioms", "pačios", "pačiose", "pačiu", "pačiuose", "pačius", "pačią", "pačių", "per", "pernelyg", "pirm", "pirma", "pirmiau", "pliumpt", "plius", "po", "pokšt", "prie", "prieš", "priešais", "pro", "pusiau", "pykšt", "rasi", "rodos", "sau", "sava", "savai", "savais", "savaisiais", "savajai", "savajam", "savajame", "savam", "savame", "savas", "savasai", "savasis", "save", "savi", "savieji", "saviems", "saviesiems", "savim", "savimi", "saviške", "saviškei", "saviškes", "saviškiai", "saviškiais", "saviškiam", "saviškiame", "saviškiams", "saviškio", "saviškis", "saviškiu", "saviškiuose", "saviškius", "saviškių", "saviškė", "saviškėje", "saviškėmis", "saviškėms", "saviškės", "saviškėse", "saviškę", "saviškį", "savo", "savoje", "savoji", "savojo", "savojoje", "savomis", "savoms", "savos", "savose", "savosiomis", "savosioms", "savosios", "savosiose", "savu", "savuoju", "savuose", "savuosiuose", "savuosius", "savus", "savyj", "savyje", "savą", "savąja", "savąją", "savąjį", "savąsias", "savęs", "savų", "savųjų", "skersai", "skradžiai", "stačiai", "strikt", "strykt", "stukt", "su", "sudie", "sudieu", "sudiev", "sulig", "ta", "tad", "tai", "taigi", "taip", "taipogi", "tais", "taisiais", "tajai", "tajam", "tajame", "tam", "tame", "tamsta", "tamstai", "tamstas", "tamstoje", "tamstomis", "tamstoms", "tamstos", "tamstose", "tamstą", "tamstų", "tarp", "tarsi", "tartum", "tarytum", "tas", "tasai", "tau", "tava", "tavai", "tavais", "tavaisiais", "tavajai", "tavajam", "tavajame", "tavam", "tavame", "tavas", "tavasai", "tavasis", "tave", "tavi", "tavieji", "taviems", "taviesiems", "tavim", "tavimi", "taviške", "taviškei", "taviškes", "taviškiai", "taviškiais", "taviškiam", "taviškiame", "taviškiams", "taviškio", "taviškis", "taviškiu", "taviškiuose", "taviškius", "taviškių", "taviškė", "taviškėje", "taviškėmis", "taviškėms", "taviškės", "taviškėse", "taviškę", "taviškį", "tavo", "tavoje", "tavoji", "tavojo", "tavojoje", "tavomis", "tavoms", "tavos", "tavose", "tavosiomis", "tavosioms", "tavosios", "tavosiose", "tavu", "tavuoju", "tavuose", "tavuosiuose", "tavuosius", "tavus", "tavy", "tavyje", "tavą", "tavąja", "tavąją", "tavąjį", "tavąsias", "tavęs", "tavų", "tavųjų", "tačiau", "te", "tegu", "tegul", "tie", "tiedu", "tiedvi", "tiedviejose", "tiedviejuose", "tiedviejų", "tiedviem", "tiedviems", "tieji", "tiem", "tiemdviem", "tiems", "ties", "tiesiems", "tiesiog", "tik", "tikriausiai", "tiktai", "to", "todviem", "toj", "toje", "toji", "tojo", "tojoje", "tokia", "tokiai", "tokiais", "tokiam", "tokiame", "tokias", "tokie", "tokiems", "tokio", "tokioje", "tokiomis", "tokioms", "tokios", "tokiose", "tokiu", "tokiuose", "tokius", "tokią", "tokių", "toks", "toksai", "tokį", "tol", "tolei", "toliau", "tom", "tomdviem", "tomis", "toms", "tos", "tose", "tosiomis", "tosioms", "tosios", "tosiose", "trakšt", "trinkt", "tu", "tuo", "tuodu", "tuoju", "tuos", "tuose", "tuosiuose", "tuosius", "turbūt", "tą", "tąja", "tąją", "tąjį", "tąsias", "tąįį", "tūla", "tūlai", "tūlais", "tūlam", "tūlame", "tūlas", "tūli", "tūliems", "tūlo", "tūloje", "tūlomis", "tūloms", "tūlos", "tūlose", "tūlu", "tūluose", "tūlus", "tūlą", "tūlų", "tų", "tųdviejų", "tųjų", "ui", "už", "užtat", "užuot", "užvis", "va", "vai", "valio", "vau", "viduj", "vidury", "vien", "vienas", "vienokia", "vienoks", "vietoj", "virš", "viršuj", "viršum", "vis", "visa", "visas", "visgi", "visokia", "visoks", "vos", "vėl", "vėlgi", "y", "ypač", "čikšt", "činkšt", "ėgi", "į", "įkypai", "įstrižai", "ša", "šalia", "šast", "še", "šekit", "ši", "šia", "šiai", "šiaipjau", "šiais", "šiaisiais", "šiajai", "šiajam", "šiajame", "šiam", "šiame", "šiapus", "šias", "šie", "šiedu", "šiedvi", "šiedviejose", "šiedviejuose", "šiedviejų", "šiedviem", "šiedviems", "šieji", "šiemdviem", "šiems", "šiesiems", "šio", "šiodviem", "šioje", "šioji", "šiojo", "šiojoje", "šiokia", "šiokiai", "šiokiais", "šiokiam", "šiokiame", "šiokias", "šiokie", "šiokiems", "šiokio", "šiokioje", "šiokiomis", "šiokioms", "šiokios", "šiokiose", "šiokiu", "šiokiuose", "šiokius", "šiokią", "šiokių", "šioks", "šioksai", "šiokį", "šiomdviem", "šiomis", "šioms", "šios", "šiose", "šiosiomis", "šiosioms", "šiosios", "šiosiose", "šis", "šisai", "šit", "šita", "šitai", "šitais", "šitaisiais", "šitajai", "šitajam", "šitajame", "šitam", "šitame", "šitas", "šitasai", "šitie", "šitiedvi", "šitiedviem", "šitieji", "šitiem", "šitiemdviem", "šitiems", "šitiesiems", "šito", "šitodviem", "šitoj", "šitoje", "šitoji", "šitojo", "šitojoje", "šitokia", "šitokiai", "šitokiais", "šitokiam", "šitokiame", "šitokias", "šitokie", "šitokiems", "šitokio", "šitokioje", "šitokiomis", "šitokioms", "šitokios", "šitokiose", "šitokiu", "šitokiuose", "šitokius", "šitokią", "šitokių", "šitoks", "šitoksai", "šitokį", "šitom", "šitomdviem", "šitomis", "šitoms", "šitos", "šitose", "šitosiomis", "šitosioms", "šitosios", "šitosiose", "šituo", "šituodu", "šituoju", "šituos", "šituose", "šituosiuose", "šituosius", "šitą", "šitąja", "šitąją", "šitąsias", "šitų", "šitųdviejų", "šitųjų", "šiuo", "šiuodu", "šiuoju", "šiuos", "šiuose", "šiuosiuose", "šiuosius", "šią", "šiąja", "šiąją", "šiąsias", "šių", "šiųdviejų", "šiųjų", "škac", "škic", "šlept", "šmurkšt", "štai", "šį", "šįjį", "žemiau", "žūtbūt", }
19,027
13.447988
21
py
spaCy
spaCy-master/spacy/lang/lt/tokenizer_exceptions.py
from ...symbols import ORTH from ...util import update_exc from ..tokenizer_exceptions import BASE_EXCEPTIONS _exc = {} for orth in ["n-tosios", "?!"]: _exc[orth] = [{ORTH: orth}] mod_base_exceptions = { exc: val for exc, val in BASE_EXCEPTIONS.items() if not exc.endswith(".") } del mod_base_exceptions["8)"] TOKENIZER_EXCEPTIONS = update_exc(mod_base_exceptions, _exc)
382
24.533333
77
py
spaCy
spaCy-master/spacy/lang/lv/__init__.py
from ...language import BaseDefaults, Language from .stop_words import STOP_WORDS class LatvianDefaults(BaseDefaults): stop_words = STOP_WORDS class Latvian(Language): lang = "lv" Defaults = LatvianDefaults __all__ = ["Latvian"]
247
15.533333
46
py
spaCy
spaCy-master/spacy/lang/lv/stop_words.py
# Source: https://github.com/stopwords-iso/stopwords-lv STOP_WORDS = set( """ aiz ap apakš apakšpus ar arī augšpus bet bez bija biji biju bijām bijāt būs būsi būsiet būsim būt būšu caur diemžēl diezin droši dēļ esam esat esi esmu gan gar iekam iekams iekām iekāms iekš iekšpus ik ir it itin iz ja jau jeb jebšu jel jo jā ka kamēr kaut kolīdz kopš kā kļuva kļuvi kļuvu kļuvām kļuvāt kļūs kļūsi kļūsiet kļūsim kļūst kļūstam kļūstat kļūsti kļūstu kļūt kļūšu labad lai lejpus līdz līdzko ne nebūt nedz nekā nevis nezin no nu nē otrpus pa par pat pie pirms pret priekš pār pēc starp tad tak tapi taps tapsi tapsiet tapsim tapt tapāt tapšu taču te tiec tiek tiekam tiekat tieku tik tika tikai tiki tikko tiklab tiklīdz tiks tiksiet tiksim tikt tiku tikvien tikām tikāt tikšu tomēr topat turpretim turpretī tā tādēļ tālab tāpēc un uz vai var varat varēja varēji varēju varējām varējāt varēs varēsi varēsiet varēsim varēt varēšu vien virs virspus vis viņpus zem ārpus šaipus """.split() )
986
4.875
55
py
spaCy
spaCy-master/spacy/lang/mk/__init__.py
from typing import Callable, Optional from thinc.api import Model from ...attrs import LANG from ...language import BaseDefaults, Language from ...lookups import Lookups from ...util import update_exc from ..tokenizer_exceptions import BASE_EXCEPTIONS from .lemmatizer import MacedonianLemmatizer from .lex_attrs import LEX_ATTRS from .stop_words import STOP_WORDS from .tokenizer_exceptions import TOKENIZER_EXCEPTIONS class MacedonianDefaults(BaseDefaults): lex_attr_getters = dict(Language.Defaults.lex_attr_getters) lex_attr_getters[LANG] = lambda text: "mk" # Optional: replace flags with custom functions, e.g. like_num() lex_attr_getters.update(LEX_ATTRS) # Merge base exceptions and custom tokenizer exceptions tokenizer_exceptions = update_exc(BASE_EXCEPTIONS, TOKENIZER_EXCEPTIONS) stop_words = STOP_WORDS @classmethod def create_lemmatizer(cls, nlp=None, lookups=None): if lookups is None: lookups = Lookups() return MacedonianLemmatizer(lookups) class Macedonian(Language): lang = "mk" Defaults = MacedonianDefaults @Macedonian.factory( "lemmatizer", assigns=["token.lemma"], default_config={ "model": None, "mode": "rule", "overwrite": False, "scorer": {"@scorers": "spacy.lemmatizer_scorer.v1"}, }, default_score_weights={"lemma_acc": 1.0}, ) def make_lemmatizer( nlp: Language, model: Optional[Model], name: str, mode: str, overwrite: bool, scorer: Optional[Callable], ): return MacedonianLemmatizer( nlp.vocab, model, name, mode=mode, overwrite=overwrite, scorer=scorer ) __all__ = ["Macedonian"]
1,690
25.421875
77
py
spaCy
spaCy-master/spacy/lang/mk/lemmatizer.py
from collections import OrderedDict from typing import List from ...pipeline import Lemmatizer from ...tokens import Token class MacedonianLemmatizer(Lemmatizer): def rule_lemmatize(self, token: Token) -> List[str]: string = token.text univ_pos = token.pos_.lower() if univ_pos in ("", "eol", "space"): return [string.lower()] if string[-3:] == "јќи": string = string[:-3] univ_pos = "verb" index_table = self.lookups.get_table("lemma_index", {}) exc_table = self.lookups.get_table("lemma_exc", {}) rules_table = self.lookups.get_table("lemma_rules", {}) if not any( ( index_table.get(univ_pos), exc_table.get(univ_pos), rules_table.get(univ_pos), ) ): if univ_pos == "propn": return [string] else: return [string.lower()] index = index_table.get(univ_pos, {}) exceptions = exc_table.get(univ_pos, {}) rules = rules_table.get(univ_pos, []) orig = string string = string.lower() forms = [] for old, new in rules: if string.endswith(old): form = string[: len(string) - len(old)] + new if not form: continue if form in index or not form.isalpha(): forms.append(form) forms = list(OrderedDict.fromkeys(forms)) for form in exceptions.get(string, []): if form not in forms: forms.insert(0, form) if not forms: forms.append(orig) return forms
1,715
28.084746
63
py
spaCy
spaCy-master/spacy/lang/mk/lex_attrs.py
from ...attrs import LIKE_NUM _num_words = [ "нула", "еден", "една", "едно", "два", "две", "три", "четири", "пет", "шест", "седум", "осум", "девет", "десет", "единаесет", "дванаесет", "тринаесет", "четиринаесет", "петнаесет", "шеснаесет", "седумнаесет", "осумнаесет", "деветнаесет", "дваесет", "триесет", "четириесет", "педесет", "шеесет", "седумдесет", "осумдесет", "деведесет", "сто", "двесте", "триста", "четиристотини", "петстотини", "шестотини", "седумстотини", "осумстотини", "деветстотини", "илјада", "илјади", "милион", "милиони", "милијарда", "милијарди", "билион", "билиони", "двајца", "тројца", "четворица", "петмина", "шестмина", "седуммина", "осуммина", "деветмина", "обата", "обајцата", "прв", "втор", "трет", "четврт", "седм", "осм", "двестоти", "два-три", "два-триесет", "два-триесетмина", "два-тринаесет", "два-тројца", "две-три", "две-тристотини", "пет-шеесет", "пет-шеесетмина", "пет-шеснаесетмина", "пет-шест", "пет-шестмина", "пет-шестотини", "петина", "осмина", "седум-осум", "седум-осумдесет", "седум-осуммина", "седум-осумнаесет", "седум-осумнаесетмина", "три-четириесет", "три-четиринаесет", "шеесет", "шеесетина", "шеесетмина", "шеснаесет", "шеснаесетмина", "шест-седум", "шест-седумдесет", "шест-седумнаесет", "шест-седумстотини", "шестоти", "шестотини", ] def like_num(text): if text.startswith(("+", "-", "±", "~")): text = text[1:] text = text.replace(",", "").replace(".", "") if text.isdigit(): return True if text.count("/") == 1: num, denom = text.split("/") if num.isdigit() and denom.isdigit(): return True text_lower = text.lower() if text_lower in _num_words: return True if text_lower.endswith(("а", "о", "и")): if text_lower[:-1] in _num_words: return True if text_lower.endswith(("ти", "та", "то", "на")): if text_lower[:-2] in _num_words: return True if text_lower.endswith(("ата", "иот", "ите", "ина", "чки")): if text_lower[:-3] in _num_words: return True if text_lower.endswith(("мина", "тина")): if text_lower[:-4] in _num_words: return True return False LEX_ATTRS = {LIKE_NUM: like_num}
2,612
17.798561
64
py
spaCy
spaCy-master/spacy/lang/mk/stop_words.py
STOP_WORDS = set( """ а абре aв аи ако алало ам ама аман ами амин априли-ли-ли ау аух ауч ах аха аха-ха аш ашколсум ашколсун ај ајде ајс аџаба бавно бам бам-бум бап бар баре барем бау бау-бау баш бај бе беа бев бевме бевте без безбели бездруго белки беше би бидејќи бим бис бла блазе богами божем боц браво бравос бре бреј брзо бришка бррр бу бум буф буц бујрум ваа вам варај варда вас вај ве велат вели версус веќе ви виа види вие вистина витос внатре во воз вон впрочем врв вред време врз всушност втор галиба ги гитла го годе годишник горе гра гуц гљу да даан дава дал дали дан два дваесет дванаесет двајца две двесте движам движат движи движиме движите движиш де деведесет девет деветнаесет деветстотини деветти дека дел делми демек десет десетина десетти деситици дејгиди дејди ди дилми дин дип дно до доволно додека додуша докај доколку доправено доправи досамоти доста држи дрн друг друга другата други другиот другите друго другото дум дур дури е евала еве евет ега егиди еден едикојси единаесет единствено еднаш едно ексик ела елбете елем ели ем еми ене ете еурека ех еј жими жити за завал заврши зад задека задоволна задржи заедно зар зарад заради заре зарем затоа зашто згора зема земе земува зер значи зошто зуј и иако из извезен изгледа измеѓу износ или или-или илјада илјади им има имаа имаат имавме имавте имам имаме имате имаш имаше име имено именува имплицира имплицираат имплицирам имплицираме имплицирате имплицираш инаку индицира исечок исклучен исклучена исклучени исклучено искористен искористена искористени искористено искористи искрај исти исто итака итн их иха ихуу иш ишала иј ка каде кажува како каков камоли кај ква ки кит кло клум кога кого кого-годе кое кои количество количина колку кому кон користена користени користено користи кот котрр кош-кош кој која којзнае којшто кр-кр-кр крај крек крз крк крц куку кукуригу куш ле лебами леле лели ли лиду луп ма макар малку марш мат мац машала ме мене место меѓу меѓувреме меѓутоа ми мое може можеби молам моли мор мора море мори мразец му муклец мутлак муц мјау на навидум навистина над надвор назад накај накрај нали нам наместо наоколу направено направи напред нас наспоред наспрема наспроти насред натаму натема начин наш наша наше наши нај најдоцна најмалку најмногу не неа него негов негова негови негово незе нека некаде некако некаков некого некое некои неколку некому некој некојси нели немој нему неоти нечиј нешто нејзе нејзин нејзини нејзино нејсе ни нив нивен нивна нивни нивно ние низ никаде никако никогаш никого никому никој ним нити нито ниту ничиј ништо но нѐ о обр ова ова-она оваа овај овде овега овие овој од одавде оди однесува односно одошто околу олеле олкацок он она онаа онака онаков онде они оние оно оној оп освем освен осем осми осум осумдесет осумнаесет осумстотитни отаде оти откако откај откога отколку оттаму оттука оф ох ој па пак папа пардон пате-ќуте пати пау паче пеесет пеки пет петнаесет петстотини петти пи пи-пи пис плас плус по побавно поблиску побрзо побуни повеќе повторно под подалеку подолу подоцна подруго позади поинаква поинакви поинакво поинаков поинаку покаже покажува покрај полно помалку помеѓу понатаму понекогаш понекој поради поразличен поразлична поразлични поразлично поседува после последен последна последни последно поспоро потег потоа пошироко прави празно прв пред през преку претежно претходен претходна претходни претходник претходно при присвои притоа причинува пријатно просто против прр пст пук пусто пуф пуј пфуј пшт ради различен различна различни различно разни разоружен разредлив рамките рамнообразно растревожено растреперено расчувствувано ратоборно рече роден с сакан сам сама сами самите само самоти свое свои свој своја се себе себеси сега седми седум седумдесет седумнаесет седумстотини секаде секаков секи секогаш секого секому секој секојдневно сем сенешто сепак сериозен сериозна сериозни сериозно сет сечиј сешто си сиктер сиот сип сиреч сите сичко скок скоро скрц следбеник следбеничка следен следователно следствено сме со соне сопствен сопствена сопствени сопствено сосе сосем сполај според споро спрема спроти спротив сред среде среќно срочен сст става ставаат ставам ставаме ставате ставаш стави сте сто стоп страна сум сума супер сус сѐ та таа така таква такви таков тамам таму тангар-мангар тандар-мандар тап твое те тебе тебека тек текот ти тие тизе тик-так тики тоа тогаш тој трак трака-трука трас треба трет три триесет тринаест триста труп трупа трус ту тука туку тукушто туф у уа убаво уви ужасно уз ура уу уф уха уш уште фазен фала фил филан фис фиу фиљан фоб фон ха ха-ха хе хеј хеј хи хм хо цак цап целина цело цигу-лигу циц чекај често четврт четири четириесет четиринаесет четирстотини чие чии чик чик-чирик чини чиш чиј чија чијшто чкрап чому чук чукш чуму чунки шеесет шеснаесет шест шести шестотини ширум шлак шлап шлапа-шлупа шлуп шмрк што штогоде штом штотуку штрак штрап штрап-штруп шуќур ѓиди ѓоа ѓоамити ѕан ѕе ѕин ја јадец јазе јали јас јаска јок ќе ќешки ѝ џагара-магара џанам џив-џив """.split() )
4,993
5.120098
17
py
spaCy
spaCy-master/spacy/lang/mk/tokenizer_exceptions.py
from ...symbols import NORM, ORTH _exc = {} _abbr_exc = [ {ORTH: "м", NORM: "метар"}, {ORTH: "мм", NORM: "милиметар"}, {ORTH: "цм", NORM: "центиметар"}, {ORTH: "см", NORM: "сантиметар"}, {ORTH: "дм", NORM: "дециметар"}, {ORTH: "км", NORM: "километар"}, {ORTH: "кг", NORM: "килограм"}, {ORTH: "дкг", NORM: "декаграм"}, {ORTH: "дг", NORM: "дециграм"}, {ORTH: "мг", NORM: "милиграм"}, {ORTH: "г", NORM: "грам"}, {ORTH: "т", NORM: "тон"}, {ORTH: "кл", NORM: "килолитар"}, {ORTH: "хл", NORM: "хектолитар"}, {ORTH: "дкл", NORM: "декалитар"}, {ORTH: "л", NORM: "литар"}, {ORTH: "дл", NORM: "децилитар"}, ] for abbr in _abbr_exc: _exc[abbr[ORTH]] = [abbr] _abbr_line_exc = [ {ORTH: "д-р", NORM: "доктор"}, {ORTH: "м-р", NORM: "магистер"}, {ORTH: "г-ѓа", NORM: "госпоѓа"}, {ORTH: "г-ца", NORM: "госпоѓица"}, {ORTH: "г-дин", NORM: "господин"}, ] for abbr in _abbr_line_exc: _exc[abbr[ORTH]] = [abbr] _abbr_dot_exc = [ {ORTH: "в.", NORM: "век"}, {ORTH: "в.д.", NORM: "вршител на должност"}, {ORTH: "г.", NORM: "година"}, {ORTH: "г.г.", NORM: "господин господин"}, {ORTH: "м.р.", NORM: "машки род"}, {ORTH: "год.", NORM: "женски род"}, {ORTH: "с.р.", NORM: "среден род"}, {ORTH: "н.е.", NORM: "наша ера"}, {ORTH: "о.г.", NORM: "оваа година"}, {ORTH: "о.м.", NORM: "овој месец"}, {ORTH: "с.", NORM: "село"}, {ORTH: "т.", NORM: "точка"}, {ORTH: "т.е.", NORM: "то ест"}, {ORTH: "т.н.", NORM: "таканаречен"}, {ORTH: "бр.", NORM: "број"}, {ORTH: "гр.", NORM: "град"}, {ORTH: "др.", NORM: "другар"}, {ORTH: "и др.", NORM: "и друго"}, {ORTH: "и сл.", NORM: "и слично"}, {ORTH: "кн.", NORM: "книга"}, {ORTH: "мн.", NORM: "множина"}, {ORTH: "на пр.", NORM: "на пример"}, {ORTH: "св.", NORM: "свети"}, {ORTH: "сп.", NORM: "списание"}, {ORTH: "с.", NORM: "страница"}, {ORTH: "стр.", NORM: "страница"}, {ORTH: "чл.", NORM: "член"}, {ORTH: "арх.", NORM: "архитект"}, {ORTH: "бел.", NORM: "белешка"}, {ORTH: "гимн.", NORM: "гимназија"}, {ORTH: "ден.", NORM: "денар"}, {ORTH: "ул.", NORM: "улица"}, {ORTH: "инж.", NORM: "инженер"}, {ORTH: "проф.", NORM: "професор"}, {ORTH: "студ.", NORM: "студент"}, {ORTH: "бот.", NORM: "ботаника"}, {ORTH: "мат.", NORM: "математика"}, {ORTH: "мед.", NORM: "медицина"}, {ORTH: "прил.", NORM: "прилог"}, {ORTH: "прид.", NORM: "придавка"}, {ORTH: "сврз.", NORM: "сврзник"}, {ORTH: "физ.", NORM: "физика"}, {ORTH: "хем.", NORM: "хемија"}, {ORTH: "пр. н.", NORM: "природни науки"}, {ORTH: "истор.", NORM: "историја"}, {ORTH: "геогр.", NORM: "географија"}, {ORTH: "литер.", NORM: "литература"}, ] for abbr in _abbr_dot_exc: _exc[abbr[ORTH]] = [abbr] TOKENIZER_EXCEPTIONS = _exc
2,878
29.62766
48
py
spaCy
spaCy-master/spacy/lang/ml/__init__.py
from ...language import BaseDefaults, Language from .lex_attrs import LEX_ATTRS from .stop_words import STOP_WORDS class MalayalamDefaults(BaseDefaults): lex_attr_getters = LEX_ATTRS stop_words = STOP_WORDS class Malayalam(Language): lang = "ml" Defaults = MalayalamDefaults __all__ = ["Malayalam"]
321
17.941176
46
py
spaCy
spaCy-master/spacy/lang/ml/examples.py
""" Example sentences to test spaCy and its language models. >>> from spacy.lang.ml.examples import sentences >>> docs = nlp.pipe(sentences) """ sentences = [ "അനാവശ്യമായി കണ്ണിലും മൂക്കിലും വായിലും സ്പർശിക്കാതിരിക്കുക", "പൊതുരംഗത്ത് മലയാള ഭാഷയുടെ സമഗ്രപുരോഗതി ലക്ഷ്യമാക്കി പ്രവർത്തിക്കുന്ന സംഘടനയായ മലയാളഐക്യവേദിയുടെ വിദ്യാർത്ഥിക്കൂട്ടായ്മയാണ് വിദ്യാർത്ഥി മലയാളവേദി", "എന്താണ്‌ കവാടങ്ങൾ?", "ചുരുക്കത്തിൽ വിക്കിപീഡിയയുടെ ഉള്ളടക്കത്തിലേക്കുള്ള പടിപ്പുരകളാണ്‌‌ കവാടങ്ങൾ. അവ ലളിതവും വായനക്കാരനെ ആകർഷിക്കുന്നതുമായിരിക്കും", "പതിനൊന്നുപേർ വീതമുള്ള രണ്ടു ടീമുകൾ കളിക്കുന്ന സംഘകായിക വിനോദമാണു ക്രിക്കറ്റ്", ]
625
38.125
151
py
spaCy
spaCy-master/spacy/lang/ml/lex_attrs.py
from ...attrs import LIKE_NUM # reference 2: https://www.omniglot.com/language/numbers/malayalam.htm _num_words = [ "പൂജ്യം ", "ഒന്ന് ", "രണ്ട് ", "മൂന്ന് ", "നാല്‌ ", "അഞ്ച് ", "ആറ് ", "ഏഴ് ", "എട്ട് ", "ഒന്‍പത് ", "പത്ത് ", "പതിനൊന്ന്", "പന്ത്രണ്ട്", "പതി മൂന്നു", "പതിനാല്", "പതിനഞ്ച്", "പതിനാറ്", "പതിനേഴ്", "പതിനെട്ട്", "പത്തൊമ്പതു", "ഇരുപത്", "ഇരുപത്തിഒന്ന്", "ഇരുപത്തിരണ്ട്‌", "ഇരുപത്തിമൂന്ന്", "ഇരുപത്തിനാല്", "ഇരുപത്തിഅഞ്ചു", "ഇരുപത്തിആറ്", "ഇരുപത്തിഏഴ്", "ഇരുപത്തിഎട്ടു", "ഇരുപത്തിഒന്‍പത്", "മുപ്പത്", "മുപ്പത്തിഒന്ന്", "മുപ്പത്തിരണ്ട്", "മുപ്പത്തിമൂന്ന്", "മുപ്പത്തിനാല്", "മുപ്പത്തിഅഞ്ചു", "മുപ്പത്തിആറ്", "മുപ്പത്തിഏഴ്", "മുപ്പത്തിഎട്ട്", "മുപ്പത്തിഒന്‍പതു", "നാല്‍പത്‌ ", "അന്‍പത് ", "അറുപത് ", "എഴുപത് ", "എണ്‍പത് ", "തൊണ്ണൂറ് ", "നുറ് ", "ആയിരം ", "പത്തുലക്ഷം", ] def like_num(text): """ Check if text resembles a number """ if text.startswith(("+", "-", "±", "~")): text = text[1:] text = text.replace(",", "").replace(".", "") if text.isdigit(): return True if text.count("/") == 1: num, denom = text.split("/") if num.isdigit() and denom.isdigit(): return True if text in _num_words: return True return False LEX_ATTRS = {LIKE_NUM: like_num}
1,451
17.857143
70
py
spaCy
spaCy-master/spacy/lang/ml/stop_words.py
STOP_WORDS = set( """ അത് ഇത് ആയിരുന്നു ആകുന്നു വരെ അന്നേരം അന്ന് ഇന്ന് ആണ് """.split() )
94
5.785714
17
py
spaCy
spaCy-master/spacy/lang/mr/__init__.py
from ...language import BaseDefaults, Language from .stop_words import STOP_WORDS class MarathiDefaults(BaseDefaults): stop_words = STOP_WORDS class Marathi(Language): lang = "mr" Defaults = MarathiDefaults __all__ = ["Marathi"]
247
15.533333
46
py
spaCy
spaCy-master/spacy/lang/mr/stop_words.py
# Source: https://github.com/stopwords-iso/stopwords-mr/blob/master/stopwords-mr.txt, https://github.com/6/stopwords-json/edit/master/dist/mr.json STOP_WORDS = set( """ न अतरी तो हें तें कां आणि जें जे मग ते मी जो परी गा हे ऐसें आतां नाहीं तेथ हा तया असे म्हणे काय कीं जैसें तंव तूं होय जैसा आहे पैं तैसा जरी म्हणोनि एक ऐसा जी ना मज एथ या जेथ जया तुज तेणें तैं पां असो करी ऐसी येणें जाहला तेंचि आघवें होती कांहीं होऊनि एकें मातें ठायीं ये सकळ केलें जेणें जाण जैसी होये जेवीं एऱ्हवीं मीचि किरीटी दिसे देवा हो तरि कीजे तैसे आपण तिये कर्म नोहे इये पडे माझें तैसी लागे नाना जंव कीर अधिक अनेक अशी असलयाचे असलेल्या असा असून असे आज आणि आता आपल्या आला आली आले आहे आहेत एक एका कमी करणयात करून का काम काय काही किवा की केला केली केले कोटी गेल्या घेऊन जात झाला झाली झाले झालेल्या टा तर तरी तसेच ता ती तीन ते तो त्या त्याचा त्याची त्याच्या त्याना त्यानी त्यामुळे त्री दिली दोन न पण पम परयतन पाटील म मात्र माहिती मी मुबी म्हणजे म्हणाले म्हणून या याचा याची याच्या याना यानी येणार येत येथील येथे लाख व व्यकत सर्व सागित्ले सुरू हजार हा ही हे होणार होत होता होती होते """.split() )
1,068
4.53886
146
py
spaCy
spaCy-master/spacy/lang/ms/__init__.py
from ...language import BaseDefaults, Language from .lex_attrs import LEX_ATTRS from .punctuation import TOKENIZER_INFIXES, TOKENIZER_PREFIXES, TOKENIZER_SUFFIXES from .stop_words import STOP_WORDS from .syntax_iterators import SYNTAX_ITERATORS from .tokenizer_exceptions import TOKENIZER_EXCEPTIONS class MalayDefaults(BaseDefaults): tokenizer_exceptions = TOKENIZER_EXCEPTIONS prefixes = TOKENIZER_PREFIXES suffixes = TOKENIZER_SUFFIXES infixes = TOKENIZER_INFIXES syntax_iterators = SYNTAX_ITERATORS lex_attr_getters = LEX_ATTRS stop_words = STOP_WORDS class Malay(Language): lang = "ms" Defaults = MalayDefaults __all__ = ["Malay"]
678
26.16
82
py
spaCy
spaCy-master/spacy/lang/ms/_tokenizer_exceptions_list.py
# from https://prpm.dbp.gov.my/cari1?keyword= # dbp https://en.wikipedia.org/wiki/Dewan_Bahasa_dan_Pustaka MS_BASE_EXCEPTIONS = set( """ aba-aba abah-abah abar-abar abrit-abritan abu-abu abuk-abuk abun-abun acak-acak acak-acakan acang-acang aci-aci aci-acian aci-acinya adang-adang adap-adapan adik-beradik aduk-adukan agak-agak agar-agar agut-agut air-cooled ajar-ajar aji-aji akal-akal akhir-akhir aki-aki alah-mengalahi alan-alan alang-alang alang-alangan alap-alap ali-ali alih-alih aling-aling aling-alingan alip-alipan alon-alon alu-alu alu-aluan alun-alun alur-alur ambah-ambah ambai-ambai ambil-mengambil ambring-ambringan ambu-ambu ambung-ambung amin-amin ampai-ampai amung-amung anai-anai anak-anak anak-anakan anak-beranak ancak-ancak ancang-ancang andang-andang angan-angan anggar-anggar angin-angin angin-anginan angkul-angkul angkup-angkup angkut-angkut ani-ani aning-aning anjang-anjang anjing-anjing anjung-anjung anjung-anjungan antar-antar ante-mortem anting-anting antung-antung anyam-menganyam apa-apa api-api apit-apit aprit-apritan arah-arah arak-arakan aram-aram ari-ari aru-aru asa-asaan asam-asaman asuh-asuh atas-mengatasi ati-ati audio-visual avant-garde awang-awang awang-gemawang ayak-ayak ayam-ayam ayam-ayaman ayang-ayang ayeng-ayengan ayun-temayun back-up bahu-membahu baik-baik bajang-bajang baji-baji balai-balai balam-balam balas-membalas baling-baling balut-balut bangun-bangun bantal-bantal barat-barat barau-barau bari-bari barung-barung basa-basi bata-bata batir-batir bau-bauan bayang-bayang bedil-bedal begana-begini bekal-bekalan belat-belit belu-belai benggal-benggil bengkal-bengkil bengkang-bengkok bengkang-bengkong berabad-abad berabun-rabun berada-ada beragah-agah beragak-agak beragam-ragam beraja-raja berakit-rakit beraku-akuan beralun-alun beramah-ramahan beramah-tamah beramai-ramai berambai-ambai berambal-ambalan beramuk-amukan berandai-andai berandai-randai berang-berang berangan-angan beranggap-anggapan berangguk-angguk berangin-angin berangka-angka berangka-angkaan berangkai-rangkai beranja-anja berantai-rantai berapi-api berapung-apung berarak-arakan beras-beras berasing-asingan beratus-ratus berawas-awas berayal-ayalan berayun-ayun berbagai-bagai berbahas-bahasan berbalas-balasan berbalik-balik berbanjar-banjar berbantah-bantah berbanyak-banyak berbarik-barik berbasah-basah berbatu-batu berbayang-bayang berbecak-becak berbedil-bedilan berbeka-beka berbelakang-belakangan berbelang-belang berbeli-belian berbelit-belit berbelok-belok berbenar-benar berbencah-bencah berbesar-besar berbidai-bidai berbiku-biku berbilik-bilik berbinar-binar berbincang-bincang berbingkah-bingkah berbintang-bintang berbintik-bintik berbintil-bintil berbisik-bisik berbolak-balik berbolong-bolong berbondong-bondong berbongkah-bongkah berbuai-buai berbual-bual berbukit-bukit berbulan-bulan berbunga-bunga berbuntut-buntut berbunuh-bunuhan berburu-buru berburuk-buruk berbutir-butir bercabang-cabang bercaci-cacian bercakap-cakap bercakar-cakaran bercantik-cantik bercari-cari bercari-carian bercarik-carik bercepat-cepat bercerai-berai bercerai-cerai bercetai-cetai bercikun-cikun bercinta-cintaan bercita-cita berciut-ciut berconteng-conteng bercoreng-coreng bercoreng-moreng bercuit-cuit bercumbu-cumbu bercumbu-cumbuan bercura-bura bercura-cura berdada-dadaan berdahulu-dahuluan berdalam-dalam berdebar-debar berdecap-decap berdedai-dedai berdegap-degap berdegar-degar berdeham-deham berdekah-dekah berdekat-dekat berdelat-delat berdembun-dembun berdempang-dempang berdendam-dendaman berdengkang-dengkang berdentang-dentang berdentum-dentum berdentung-dentung berdepak-depak berdepan-depan berderai-derai berderak-derak berderau-derau berdering-dering berderung-derung berdesak-desakan berdesing-desing berdesus-desus berdikit-dikit berdingkit-dingkit berdua-dua berduri-duri berduru-duru berduyun-duyun berebut-rebut berebut-rebutan beregang-regang berek-berek berembut-rembut berempat-empat berenak-enak berenteng-renteng beresah-resah berfoya-foya bergagah-gagahan bergagap-gagap bergalur-galur berganda-ganda berganti-ganti bergarah-garah bergaruk-garuk bergegas-gegas bergelang-gelang bergelap-gelap bergelas-gelasan bergeleng-geleng bergemal-gemal bergembut-gembut bergerek-gerek bergesa-gesa bergilir-gilir bergolek-golek bergores-gores bergotong-royong bergugus-gugus bergulung-gulung bergulut-gulut bergumpal-gumpal bergunung-gunung berhadap-hadapan berhamun-hamun berhandai-handai berhanyut-hanyut berhari-hari berhati-hati berhilau-hilau berhujan-hujan beria-ia beria-ria beriak-riak beribu-ribu berigi-rigi bering-bering beringat-ingat beringgit-ringgit berintik-rintik beriring-iring beriring-iringan berjabir-jabir berjaga-jaga berjagung-jagung berjalan-jalan berjalar-jalar berjalin-jalin berjalur-jalur berjam-jam berjauh-jauhan berjejal-jejal berjela-jela berjenis-jenis berjenjang-jenjang berjilid-jilid berjinak-jinak berjingkat-jingkat berjingkrak-jingkrak berjongkok-jongkok berjubel-jubel berjujut-jujutan berjulai-julai berjumbai-jumbai berjurai-jurai berjurus-jurus berjuta-juta berkaca-kaca berkait-kaitan berkala-kala berkali-kali berkanjar-kanjar berkaok-kaok berkarung-karung berkasih-kasihan berkata-kata berkatak-katak berkecai-kecai berkecek-kecek berkecil-kecil berkecil-kecilan berkedip-kedip berkejang-kejang berkejap-kejap berkejar-kejaran berkelar-kelar berkelip-kelip berkelit-kelit berkelok-kelok berkelompok-kelompok berkelun-kelun berkembur-kembur berkempul-kempul berkena-kenaan berkenal-kenalan berkendur-kendur berkeok-keok berkepak-kepak berkepal-kepal berkeping-keping berkepul-kepul berkeras-kerasan berkeritik-keritik berkeruit-keruit berkerut-kerut berketak-ketak berketak-ketik berketi-keti berketil-ketil berketuk-ketak berketul-ketul berkial-kial berkian-kian berkias-kiasan berkibar-kibar berkilah-kilah berkilat-kilat berkilau-kilauan berkilo-kilo berkinja-kinja berkipas-kipas berkira-kira berkirim-kiriman berkobar-kobar berkobok-kobok berkocak-kocak berkodi-kodi berkolek-kolek berkopah-kopah berkotak-kotak berkuat-kuatan berkunang-kunang berkurun-kurun berkusau-kusau berkusu-kusu berkusut-kusut berkuting-kuting berkutu-kutuan berlabun-labun berlain-lainan berlalai-lalai berlama-lama berlambai-lambai berlambak-lambak berlampang-lampang berlapang-lapang berlapis-lapis berlapuk-lapuk berlarah-larah berlarat-larat berlari-larian berlarik-larik berlarut-larut berlawak-lawak berlayap-layapan berlebih-lebih berlebih-lebihan berlekas-lekas berlena-lena berlengah-lengah berlenggek-lenggek berlenggok-lenggok berleret-leret berliang-liuk berliku-liku berlimpah-limpah berlimpap-limpap berlimpit-limpit berlinang-linang berlindak-lindak berlipat-lipat berlompok-lompok berloncat-loncatan berlopak-lopak berlubang-lubang bermaaf-maafan bermacam-macam bermain-main bermalas-malas bermanik-manik bermanis-manis bermanja-manja bermasak-masak bermati-mati bermegah-megah bermemek-memek bermesra-mesraan bermewah-mewah berminggu-minggu berminta-minta bermuda-muda bermudah-mudah bermuka-muka bermula-mula bermulut-mulut bernafsi-nafsi bernaka-naka berniat-niat berogak-ogak beroleng-oleng berolok-olok beromong-omong beronggok-onggok berorang-orang beroyal-royal berpada-pada berpahit-pahit berpair-pair berpal-pal berpalu-palu berpalu-paluan berpalun-palun berpandai-pandai berpandang-pandangan berpangkat-pangkat berpanjang-panjang berpasang-pasang berpasang-pasangan berpayah-payah berpeluh-peluh berpeluk-pelukan berpenat-penat berpencar-pencar berpendar-pendar berpenggal-penggal berperai-perai berpesai-pesai berpesta-pesta berpesuk-pesuk berpetak-petak berpeti-peti berpihak-pihak berpijar-pijar berpikul-pikul berpilih-pilih berpilin-pilin berpindah-pindah berpintal-pintal berpirau-pirau berpisah-pisah berpolah-polah berpongah-pongah berpontang-panting berporah-porah berpotong-potong berpuak-puak berpual-pual berpugak-pugak berpuluh-puluh berpulun-pulun berpuntal-puntal berpura-pura berpusar-pusar berpusing-pusing berpusu-pusu berputar-putar bersaf-saf bersahut-sahutan bersakit-sakit bersalah-salahan bersalam-salaman bersalin-salin bersama-sama bersambut-sambutan bersampan-sampan bersantai-santai bersapa-sapaan bersarang-sarang bersedan-sedan bersedia-sedia bersedu-sedu bersekat-sekat berselang-selang berselang-seli bersembur-semburan bersempit-sempit bersenang-senang bersenang-senangkan bersenda-senda bersendi-sendi bersepah-sepah bersepi-sepi berserak-serak berseri-seri bersesak-sesak bersetai-setai bersia-sia bersiap-siap bersiar-siar bersilir-silir bersimbur-simburan bersinau-sinau bersorak-sorai bersuap-suapan bersudah-sudah bersuka-suka bersuka-sukaan bersuku-suku bersumpah-sumpahan bersungguh-sungguh bersungut-sungut bersunyi-sunyi bersusah-susah bersusuk-susuk bersusuk-susukan bersutan-sutan bertabur-tabur bertahu-tahu bertahun-tahun bertajuk-tajuk bertakik-takik bertala-tala bertali-tali bertalu-talu bertambah-tambah bertanda-tandaan bertangis-tangisan bertangkil-tangkil bertanya-tanya bertarik-tarikan bertatai-tatai bertatih-tatih bertawan-tawan bertawar-tawaran bertebu-tebu bertebu-tebukan berteguh-teguh berteguh-teguhan berteka-teki bertelau-telau bertele-tele bertempat-tempat bertempuh-tempuh bertenang-tenang bertenggang-tenggangan bertentu-tentu bertepek-tepek berterang-terang berterang-terangan bertikam-tikaman bertimbal-timbalan bertimbun-timbun bertimpa-timpa bertimpas-timpas bertingkah-tingkah bertingkat-tingkat bertinjau-tinjauan bertiras-tiras bertitar-titar bertoboh-toboh bertolak-tolak bertolak-tolakan bertolong-tolongan bertonjol-tonjol bertua-tua bertua-tuaan bertual-tual bertubi-tubi bertukar-tukar bertukar-tukaran bertukas-tukas bertumpak-tumpak bertunda-tunda bertunjuk-tunjukan bertura-tura berturut-turut bertutur-tutur beruas-ruas berubah-ubah berulang-alik berulang-ulang berumbai-rumbai berundung-undung berunggas-runggas berungkur-ungkuran beruntai-untai beruntun-runtun berunyai-unyai berupa-rupa berura-ura beruris-uris berurut-urutan berwarna-warna berwarna-warni berwindu-windu berwiru-wiru beryang-yang besar-besaran betak-betak beti-beti betul-betul biang-biang biar-biar biji-bijian bila-bila bilang-bilang bincang-bincut bini-binian biri-biri biru-biru bisik-bisik biti-biti bolak-balik bolang-baling bongkar-bangkir buah-buahan buat-buatan buaya-buaya bubun-bubun bugi-bugi built-in bukan-bukan bulan-bulan bulan-bulanan bulang-bulang bulat-bulat buli-buli bulu-bulu buluh-buluh bulus-bulus bunga-bungaan bunuh-membunuh bunyi-bunyian buru-buru burung-burungan bye-bye cabik-cabik caing-caing calar-balar cara-cara carut-marut cawi-cawi cebar-cebur celam-celum celangak-celinguk celas-celus celedang-celedok celengkak-celengkok cemas-cemas centang-perenang cepat-cepat cerai-berai ceruk-menceruk ceruk-meruk check-up chit-chat cirit-birit cita-cita close-up closed-circuit cobak-cabik cobar-cabir cola-cala compang-camping congak-cangit congkah-cangkih congkah-mangkih copak-capik corak-carik corat-coret coreng-moreng cuang-caing cubung-cubung culik-culik cuma-cuma cumi-cumi cungap-cangip cupu-cupu dahulu-mendahului dali-dali dapur-dapur dari-dari daru-daru datang-datang datang-mendatangi daun-daunan dawai-dawai dayang-dayang degap-degap dekak-dekak dekat-dekat dengar-dengaran desas-desus diam-diam do-it-yourself dokok-dokok dolak-dalik dorong-mendorong drive-in dua-dua dua-duanya duduk-duduk dulang-dulang ecek-ecek embuh-embuhan empek-empek empok-empok encal-encal endap-endap endut-endutan engah-engah enggan-enggan engkah-engkah entah-berentah erang-erot erong-erong fast-food fifty-fifty flip-flop follow-up foya-foya gaba-gaba gabai-gabai gada-gada gading-gading gado-gado gajah-gajahan gala-gala gali-galian galing-galing galu-galu gamit-gamitan gampang-gampangan ganal-ganal ganda-berganda gapah-gopoh gara-gara garah-garah gatal-gatal gawar-gawar gaya-gayanya gedebak-gedebuk gelang-gelang gelembung-gelembungan geli-geli geliang-geliut geliat-geliut gempul-gempul gendang-gendang genjang-genjot gerabak-gerubuk gerak-gerik gerbas-gerbus gerit-gerit geruh-gerah getak-getuk geti-geti gila-gila gila-gilaan gilang-gemilang gilap-gemilap gili-gili giling-giling ginang-ginang girik-girik giring-giring go-kart golak-galik gonta-ganti gotong-royong gual-gail gudu-gudu gula-gula gulang-gulang guna-guna guntang-guntang gunung-ganang gunung-gemunung gunung-gunungan habis-habis habis-habisan halai-balai half-time hampir-hampir harap-harapan harum-haruman hati-hati heavy-duty hebat-hebatan hidup-hidup hiru-biru hiruk-pikuk hubaya-hubaya hula-hula huru-hara ibar-ibar icak-icak igau-igauan ikut-ikut ikut-ikutan ilam-ilam imbang-imbangan inang-inang inca-binca incang-incut ingat-ingat ingat-ingatan ingau-ingauan inggang-inggung injak-injak iras-iras iring-iringan iseng-iseng jadi-jadian jala-jala jamah-jamahan jambu-jambu jangan-jangan jarang-jarang jari-jari jaring-jaring jarum-jarum jauh-jauh jawi-jawi jebat-jebatan jelur-jelir jendal-jendul jenggar-jenggur jentik-jentik jerah-jerih jolong-jolong jongkar-jangkir juak-juak juang-juang julung-julung jurai-jurai kabu-kabu kacang-kacang kacang-kacangan kacau-balau kadang-kadang kail-kail kait-kait kakek-kakek kalau-kalau kaleng-kalengan kalut-malut kambing-kambing kanak-kanak kapa-kapa kapan-kapan kapu-kapu karang-karangan karang-mengarang kareseh-peseh karut-marut katang-katang kawa-kawa kayu-kayuan keabu-abuan keasyik-asyikan kebarat-baratan kebasah-basahan kebat-kebit kebata-bataan kebelanda-belandaan kebiru-biruan kebudak-budakan kecil-kecilan kecil-mengecil kecuh-kecah kedek-kedek kegadis-gadisan kegelap-gelapan kegila-gilaan kegirang-girangan kehijau-hijauan kehitam-hitaman kejaga-jagaan kejingga-jinggaan kekabur-kaburan kekanak-kanakan kekoboi-koboian kekuning-kuningan kelak-kelik kelak-keluk kelaki-lakian kelang-kelok kelap-kelip kelek-kelek kelek-kelekan kelik-kelik kelip-kelip kelusuh-kelasah kelut-melut kemak-kemik kemalu-maluan kemanja-manjaan kemarah-marahan kemasam-masaman kemati-matian kemerah-merahan kempang-kempis kempas-kempis kemuda-mudaan kena-mengena kenal-mengenal kenang-kenangan kencang-kencung kendang-kendang kendang-kendangan kentung-kentung kenyat-kenyit kepandir-pandiran kepang-kepot keperak-perakan kepilu-piluan kepura-puraan keputih-putihan kerah-kerahan kerancak-rancakan kerang-kerangan kerang-keroh kerang-kerung kerap-kerap keras-mengerasi kercap-kercip kercap-kercup keriang-keriut kernyat-kernyut kerong-kerong keropas-kerapis kertak-kertuk keruntang-pungkang kesap-kesip kesenak-senakan kesewenang-wenangan kesia-siaan kesik-kesik kesipu-sipuan kesu-kesi kesuh-kesih kesuk-kesik ketergesa-gesaan keti-keti ketidur-tiduran ketiga-tiganya ketua-tuaan ketuan-tuanan keungu-unguan kia-kia kiak-kiak kial-kial kiang-kiut kibang-kibut kicang-kecoh kicang-kicu kida-kida kilau-mengilau kili-kili kira-kira kira-kiraan kisi-kisi kocah-kacih kodok-kodok kolang-kaling koleh-koleh kolong-kolong koma-koma komat-kamit kontal-kantil kontang-kanting kosak-kasik kotak-katik kotak-kotak kuat-kuat kucar-kacir kucing-kucing kucing-kucingan kuda-kuda kuda-kudaan kudap-kudap kulah-kulah kulak-kulak kulik-kulik kulum-kulum kumat-kamit kunang-kunang kupat-kapit kupu-kupu kura-kura kurang-kurang kusat-mesat kutat-kutet kuti-kuti labi-labi labu-labu lagi-lagi laguh-lagah laki-laki lalu-lalang lama-kelamaan lama-lama lamat-lamat lambat-lambat lancar-lancar langak-longok langit-langit lanja-lanjaan lapat-lapat large-scale lari-lari lauk-pauk lawah-lawah lawak-lawak lawi-lawi layang-layang layu-layuan lebih-lebih legak-legok lekak-lekuk lekap-lekup lekas-lekas lekuh-lekih lekup-lekap lenggak-lenggok lenggok-lenggok lengket-lengket lentam-lentum lentang-lentok lentang-lentung lepa-lepa lerang-lerang lereng-lereng letah-letai letup-letup liang-liuk lidah-lidah line-up liuk-liuk liung-liung lobi-lobi lock-up lopak-lapik lopak-lopak lumba-lumba lumi-lumi luntang-lantung lupa-lupa lupa-lupaan main-mainan makan-makanan make-up malai-malai malam-malam malar-malar mali-mali malu-malu mana-mana manik-manik manis-manisan mark-up masing-masing mata-mata mati-matian maya-maya megap-megap megrek-megrek melak-melak melambai-lambai melambai-lambaikan melambat-lambatkan melaun-laun melawak-lawak melayap-layap melayap-layapkan melebih-lebihi melebih-lebihkan melejang-lejangkan melengah-lengah melihat-lihat melimpah-limpah melincah-lincah meloncat-loncat melonco-lonco melonjak-lonjak memacak-macak memaki-maki memaksa-maksa memandai-mandai memanggil-manggil memanis-manis memanjut-manjut memasak-masak memata-matai mematah-matah mematut-matut memayah-mayahkan membagi-bagikan membalik-balik membangkit-bangkit membayang-bayangi membayang-bayangkan membelai-belai membenar-benar membenar-benari memberai-beraikan membesar-besarkan membolak-balikkan membuang-buang membuat-buat membunga-bungai memburu-buru memburu-burukan memburuk-burukkan memencak-mencak memencar-mencar memetak-metak memetang-metangkan memetir-metir memikir-mikirkan memilih-milih meminang-minang meminta-minta memisah-misahkan memontang-mantingkan memperamat-amat memperamat-amatkan memperbagai-bagaikan memperganda-gandakan memperganduh-ganduhkan mempermacam-macamkan memperolok-olokkan mempersama-samakan mempertubi-tubi mempertubi-tubikan memperturut-turutkan memuja-muja memukang-mukang memulun-mulun memundi-mundi memundi-mundikan memuyu-muyu menagak-nagak menakut-nakuti menanjur-nanjur menanti-nanti menari-nari mencabik-cabik mencabik-cabikkan mencaing-caing mencak-mencak mencakup-cakup mencapak-capak mencari-cari mencarik-carik mencarut-carut mencengis-cengis mencepak-cepak mencepuk-cepuk mencerai-beraikan mencetai-cetai menciap-ciap menciar-ciar mencita-citakan menciut-ciut mencoang-coang mencubit-cubit mencuri-curi mendecap-decap mendengking-dengking menderak-derakkan menderau-derau menderu-deru mendesas-desuskan mendesus-desus mendewa-dewakan mendudu-dudu menebu-nebu menegur-neguri mengabung-ngabung mengaci-acikan mengada-ada mengaduk-aduk mengagak-agak mengagak-agihkan mengagut-agut mengais-ngais mengali-ali mengalur-alur mengamang-amang mengamat-amati mengambai-ambaikan mengambang-ambang mengancak-ancak mengangan-angankan mengangguk-angguk mengangin-anginkan mengangkat-angkat mengap-mengap mengapa-apai mengapi-apikan mengarah-arahi mengata-ngatai mengaum-aumkan mengejan-ejan mengelai-ngelai mengelepik-ngelepik mengelus-elus mengembut-embut mengenap-enapkan mengenjak-enjak mengepak-ngepak mengepak-ngepakkan menggaba-gabai menggalur-galur menggamak-gamak menggapai-gapai menggapai-gapaikan menggelepar-gelepar menggelepar-geleparkan menggemak-gemak menggerecak-gerecak menggesa-gesakan menggili-gili menggorek-gorek menggosok-gosok mengguit-guit menghalai-balaikan menghinap-hinap mengiang-ngiang mengibas-ngibas mengidam-idamkan mengilah-ngilahkan mengilai-ilai mengilat-ngilatkan mengilik-ngilik mengimak-imak mengiming-iming menginjak-injak mengipas-ngipas mengira-ngira mengira-ngirakan mengiras-iras mengiras-irasi mengitar-ngitar mengitik-ngitik mengogok-ogok mengolak-alikkan mengoleng-oleng mengongkang-ongkang mengongkok-ongkok mengonyah-anyih mengotak-ngatikkan mengoyak-ngoyakkan mengoyak-oyak menguar-nguarkan menguar-uarkan menguber-uber mengubit-ubit mengubrak-abrik mengucar-ngacirkan mengucek-ngucek menguik-uik menguis-uis mengulit-ulit menguman-uman mengumbang-ambingkan mengumpak-umpak mengungkat-ungkat mengungkit-ungkit mengurik-urik mengutak-ngatikkan mengutik-ngutik menimang-nimang meningkat-ningkat meniru-niru meniup-niup menjadi-jadi menjengek-jengek menjengit-jengit menjilat-jilat mentah-mentah mentang-mentang menunda-nunda menusuk-nusuk menyama-nyama menyambar-nyambar menyanjung-nyanjung menyapu-nyapu menyarat-nyarat menyendi-nyendi menyeret-nyeret menyeru-nyerukan menyia-nyiakan menyungguh-nyungguhi meraba-raba merangkak-rangkak merasa-rasai meraung-raung meraung-raungkan merayau-rayau merayu-rayu mereka-reka merelap-relap meremah-remah meremeh-temehkan merempah-rempahi merengek-rengek merenik-renik merenta-renta merenyai-renyai merintang-rintang merintik-rintik merobek-robek meronta-ronta merungus-rungus merungut-rungut mewarna-warnikan meyakin-yakini miju-miju minta-minta moga-moga morat-marit muda-mudi mudah-mudahan muka-muka mula-mula muluk-muluk naga-naga nanti-nantian nasi-nasi nasib-nasiban nenek-nenek nyolong-nyolong ogah-ogahan ogak-ogak olak-alik olak-olak olang-aling olang-alingan oleh-oleh olok-olok olok-olokan olong-olong on-screen onde-onde one-to-one oneng-oneng ongkang-ongkang ongol-ongol onyah-anyih orak-arik orang-aring orang-orangan orok-orok orong-orong otak-otak otak-otakan padi-padian pagi-pagi palas-palas paling-paling palu-memalu panas-panas pandang-memandang panji-panji para-para paru-paru pasang-memasang pasu-pasu paya-paya pecah-pecah pelan-pelan pengundang-undang perang-perangan perintang-rintang perlahan-lahan perlip-perlipan pertama-tama perundang-undangan pesan-pesan piat-piut pick-up pijak-pijak pijar-pijar pijat-pijat pina-pina pisang-pisang play-off pohon-pohonan pokrol-pokrolan polang-paling poma-poma pontang-panting porak-parik porak-peranda potong-memotong puji-pujian pukang-pukang pukul-memukul pulang-pergi pulut-pulut pundi-pundi punggung-memunggung pura-pura pusar-pusar push-up pusing-pusing putus-putus rada-rada radio-frequency ragu-ragu rama-rama rambu-rambu rango-rango rasa-rasanya rata-rata real-time rebah-rebah rebah-rebahan redam-redam reka-reka reka-rekaan remah-remah remang-remang rembah-rembih remeh-temeh rempah-rempah repuh-repuh riang-riang ribu-ribu rigi-rigi robak-rabik robat-rabit role-play roll-on rombang-rambing ruak-ruak ruku-ruku rumah-rumah rumah-rumahan rumput-rumputan runding-merunding runggu-rangga runner-up rupa-rupa rupa-rupanya saban-saban sabung-menyabung saing-menyaing salah-salah sama-sama samar-samar sambar-menyambar sambung-bersambung sambung-menyambung sambut-menyambut sampai-sampai sandar-menyandar sangat-sangat sangkut-menyangkut sapa-menyapa sapu-sapu sarit-sarit satu-satu satu-satunya sayup-menyayup sayup-sayup sayur-mayur sayur-sayuran sci-fi seakal-akal seakan-akan sealak-alak sebaik-baiknya sebelah-menyebelah sebentar-sebentar seberang-menyeberang seboleh-bolehnya sedalam-dalamnya sedang-menyedang sedap-sedapan sedapat-dapatnya sedikit-dikitnya sedikit-sedikit sedikit-sedikitnya seelok-eloknya segala-galanya segan-menyegan segan-menyegani segan-segan sehari-hari sehari-harian sejadi-jadinya sekali-kali sekali-sekali sekira-kira sekonyong-konyong sekuasa-kuasanya sekurang-kurangnya sela-menyela sela-sela selama-lamanya selambat-lambatnya selang-seli selang-seling selar-belar selat-latnya selekas-lekasnya selepas-lepas self-esteem self-help sema-sema semah-semah semak-semak semalam-malaman semasa-masa semata-mata sembunyi-sembunyi sembunyi-sembunyian semena-mena semenda-menyemenda semengga-mengga sementang-mentang semu-semu semut-semutan sengal-sengal sengau-sengauan seolah-olah sepala-pala sepandai-pandai sepetang-petangan sepoi-sepoi sepuas-puasnya serang-menyerang seraya-menyeraya serba-serbi serbah-serbih serembah-serembih sering-sering serta-menyertai serta-serta sesal-menyesali sesudah-sudah sesudah-sudahnya sesuka-suka setempat-setempat setengah-setengah setidak-tidaknya seupaya-upaya seupaya-upayanya sewaktu-waktu sewenang-wenang short-term sia-sia siang-siang siapa-siapa sibar-sibar sibur-sibur sida-sida siku-siku silah-silah silang-menyilang silir-semilir sinar-seminar sindir-menyindir singgah-menyinggah sorak-sorai stand-by stand-up sudu-sudu sudung-sudung suka-suka sulang-menyulang sulur-suluran sumpah-sumpah sumpit-sumpit sungguh-sungguh sungut-sungut suram-suram surat-menyurat suruh-suruhan tabar-tabar tabir-mabir tabrak-tubruk tabuh-tabuhan tahu-menahu tahu-tahu takang-takik take-off takut-takut takut-takutan tali-bertali tali-tali tampak-tampak tanam-menanam tanam-tanaman tanda-tanda tangan-menangan tangan-tangan tanggung-menanggung tapa-tapa tapak-tapak tari-menari tari-tarian tarik-menarik tatah-tatah tawak-tawak tawang-tawang tawar-menawar tawar-tawar tayum-temayum tebu-tebu tegak-tegak teka-teki temas-temas tembak-menembak temut-temut tenggang-menenggang teraba-raba terambang-ambang terang-terang terang-terangan teranggar-anggar terangguk-angguk teranggul-anggul terangin-angin terangkup-angkup teranja-anja terapung-apung terayan-rayan terayap-rayap terbada-bada terbahak-bahak terbata-bata terbatuk-batuk terbayang-bayang terbengkil-bengkil terbirit-birit terbuai-buai terbuang-buang terburu-buru tercangak-cangak tercengang-cengang tercilap-cilap tercongget-congget tercungap-cungap terdangka-dangka terdengih-dengih terekeh-ekeh terembut-embut terembut-rembut terengah-engah teresak-esak tergagap-gagap tergagau-gagau tergaguk-gaguk tergapai-gapai tergegap-gegap tergegas-gegas tergelung-gelung tergerenyeng-gerenyeng tergesa-gesa tergila-gila tergontai-gontai tergudik-gudik terguling-guling tergulut-gulut terharak-harak terharap-harap terhengit-hengit terhinggut-hinggut terigau-igau terincut-incut teringa-inga teringat-ingat terinjak-injak terjembak-jembak terjerit-jerit terkadang-kadang terkakah-kakah terkakak-kakak terkanjar-kanjar terkapah-kapah terkapai-kapai terkapung-kapung terkatah-katah terkatung-katung terkecap-kecap terkedek-kedek terkedip-kedip terkejar-kejar terkekau-kekau terkekeh-kekeh terkekek-kekek terkelinjat-kelinjat terkelip-kelip terkempul-kempul terkemut-kemut terkencar-kencar terkepak-kepak terkesot-kesot terkesut-kesut terkial-kial terkincak-kincak terkindap-kindap terkinja-kinja terkirai-kirai terkitar-kitar terkocoh-kocoh terkokol-kokol terkosel-kosel terkoteng-koteng terkumpal-kumpal terlara-lara terlayang-layang terlebih-lebih terlincah-lincah terliuk-liuk terlolong-lolong terlongong-longong termangu-mangu termanja-manja termata-mata termengah-mengah termimpi-mimpi ternanti-nanti terngiang-ngiang teroleng-oleng terpandang-pandang terpecah-pecah terpekik-pekik terpereh-pereh terpikau-pikau terpinga-pinga terpingkal-pingkal terpontang-panting terpusing-pusing terputus-putus tersanga-sanga tersaruk-saruk tersedan-sedan tersedih-sedih tersedu-sedu tersendat-sendat tersendeng-sendeng tersengal-sengal tersengguk-sengguk tersengut-sengut tersera-sera terserak-serak tersetai-setai tersia-sia tersipu-sipu tersoja-soja tersungkuk-sungkuk tertagak-tagak tertahan-tahan tertatih-tatih tertegun-tegun tertekan-tekan terteleng-teleng terumbang-ambing terumbang-umbang terungkap-ungkap terus-menerus terus-terusan think-tank tiap-tiap tiba-tiba tidak-tidak tidur-tidur tie-dye tiga-tiganya tikam-menikam tilik-menilik timah-timah timang-timangan timbang-menimbang timu-timu tindih-bertindih tinjau-meninjau tip-off tiru-tiruan tiup-tiup tokak-takik tokok-menokok tolak-menolak tolong-menolong top-level trade-in tua-tua tuan-tuan tuang-tuang tuban-tuban tukang-menukang tukar-menukar tulang-tulangan tuli-tuli tulis-menulis tumbuh-tumbuhan tune-up tunggang-tunggit tupai-tupai turun-temurun turut-menurut turut-turutan two-tone uar-uar ubel-ubel ubun-ubun ubur-ubur uci-uci udap-udapan ugal-ugalan uir-uir ujar-ujar ukir-mengukir ula-ula ulak-ulak ulang-alik ulang-aling ulang-ulang ulap-ulap ular-ular ular-ularan ulung-ulung umang-umang umbang-ambing umbi-umbian umbul-umbul umbut-umbut uncang-uncit undak-undakan undang-undang unduk-unduk undung-undung undur-undur unggat-unggit ungkit-ungkit unting-unting untung-untung untung-untungan upside-down ura-ura uran-uran urat-urat uring-uringan urup-urup urup-urupan urus-urus user-user user-useran utar-utar voice-over walk-out wangi-wangian wanti-wanti wara-wara warna-warni water-cooled world-class yang-yang """.split() )
27,445
13.118313
60
py
spaCy
spaCy-master/spacy/lang/ms/examples.py
""" Example sentences to test spaCy and its language models. >>> from spacy.lang.ms.examples import sentences >>> docs = nlp.pipe(sentences) """ sentences = [ "Malaysia ialah sebuah negara yang terletak di Asia Tenggara.", "Berapa banyak pelajar yang akan menghadiri majlis perpisahan sekolah?", "Pengeluaran makanan berasal dari beberapa lokasi termasuk Cameron Highlands, Johor Bahru, dan Kuching.", "Syarikat XYZ telah menghasilkan 20,000 unit produk baharu dalam setahun terakhir", "Kuala Lumpur merupakan ibu negara Malaysia." "Kau berada di mana semalam?", "Siapa yang akan memimpin projek itu?", "Siapa perdana menteri Malaysia sekarang?", ]
680
36.833333
109
py
spaCy
spaCy-master/spacy/lang/ms/lex_attrs.py
import unicodedata from ...attrs import IS_CURRENCY, LIKE_NUM from .punctuation import LIST_CURRENCY _num_words = [ "kosong", "satu", "dua", "tiga", "empat", "lima", "enam", "tujuh", "lapan", "sembilan", "sepuluh", "sebelas", "belas", "puluh", "ratus", "ribu", "juta", "billion", "trillion", "kuadrilion", "kuintilion", "sekstilion", "septilion", "oktilion", "nonilion", "desilion", ] def like_num(text): if text.startswith(("+", "-", "±", "~")): text = text[1:] text = text.replace(",", "").replace(".", "") if text.isdigit(): return True if text.count("/") == 1: num, denom = text.split("/") if num.isdigit() and denom.isdigit(): return True if text.lower() in _num_words: return True if text.count("-") == 1: _, num = text.split("-") if num.isdigit() or num in _num_words: return True return False def is_currency(text): if text in LIST_CURRENCY: return True for char in text: if unicodedata.category(char) != "Sc": return False return True LEX_ATTRS = {IS_CURRENCY: is_currency, LIKE_NUM: like_num}
1,264
18.166667
58
py
spaCy
spaCy-master/spacy/lang/ms/punctuation.py
from ..char_classes import ALPHA, _currency, _units, merge_chars, split_chars from ..punctuation import TOKENIZER_INFIXES, TOKENIZER_PREFIXES, TOKENIZER_SUFFIXES _units = ( _units + "s bit Gbps Mbps mbps Kbps kbps ƒ ppi px " "Hz kHz MHz GHz mAh " "ratus rb ribu ribuan " "juta jt jutaan mill?iar million bil[l]?iun bilyun billion " ) _currency = _currency + r" USD RM MYR Rp IDR RMB SGD S\$" _months = ( "Januari Februari Mac April Mei Jun Julai Ogos September " "Oktober November Disember Januari Februari Mac Mei Jun " "Julai Ogos Oktober Disember Jan Feb Mac Jun Julai Ogos Sept " "Okt Nov Dis" ) UNITS = merge_chars(_units) CURRENCY = merge_chars(_currency) HTML_PREFIX = r"<(b|strong|i|em|p|span|div|br)\s?/>|<a([^>]+)>" HTML_SUFFIX = r"</(b|strong|i|em|p|span|div|a)>" MONTHS = merge_chars(_months) LIST_CURRENCY = split_chars(_currency) _prefixes = list(TOKENIZER_PREFIXES) _prefixes.remove("#") # hashtag _prefixes = _prefixes + LIST_CURRENCY + [HTML_PREFIX] + ["/", "—"] _suffixes = ( TOKENIZER_SUFFIXES + [r"\-[Nn]ya", "-[KkMm]u", "[—-]"] + [ # disabled: variable width currency variable # r"(?<={c})(?:[0-9]+)".format(c=CURRENCY), r"(?<=[0-9])(?:{u})".format(u=UNITS), r"(?<=[0-9])%", # disabled: variable width HTML_SUFFIX variable # r"(?<=[0-9{a}]{h})(?:[\.,:-])".format(a=ALPHA, h=HTML_SUFFIX), r"(?<=[0-9{a}])(?:{h})".format(a=ALPHA, h=HTML_SUFFIX), ] ) _infixes = TOKENIZER_INFIXES + [ r"(?<=[0-9])[\\/](?=[0-9%-])", r"(?<=[0-9])%(?=[{a}0-9/])".format(a=ALPHA), # disabled: variable width units variable # r"(?<={u})[\/-](?=[0-9])".format(u=UNITS), # disabled: variable width months variable # r"(?<={m})[\/-](?=[0-9])".format(m=MONTHS), r'(?<=[0-9)][.,])"(?=[0-9])', r'(?<=[{a})][.,\'])["—](?=[{a}])'.format(a=ALPHA), r"(?<=[{a}])-(?=[0-9])".format(a=ALPHA), r"(?<=[0-9])-(?=[{a}])".format(a=ALPHA), r"(?<=[{a}])[\/-](?={c}|[{a}])".format(a=ALPHA, c=CURRENCY), ] TOKENIZER_PREFIXES = _prefixes TOKENIZER_SUFFIXES = _suffixes TOKENIZER_INFIXES = _infixes
2,127
33.885246
83
py
spaCy
spaCy-master/spacy/lang/ms/stop_words.py
STOP_WORDS = set( """ ada adalah adanya adapun agak agaknya agar akan akankah akhir akhiri akhirnya aku akulah amat amatlah anda andalah antar antara antaranya apa apaan apabila apakah apalagi apatah artinya asal asalkan atas atau ataukah ataupun awal awalnya bagai bagaikan bagaimana bagaimanakah bagaimanapun bagi bagian bahkan bahwa bahwasanya baik bakal bakalan balik banyak bapak baru bawah beberapa begini beginian beginikah beginilah begitu begitukah begitulah begitupun bekerja belakang belakangan belum belumlah benar benarkah benarlah berada berakhir berakhirlah berakhirnya berapa berapakah berapalah berapapun berarti berawal berbagai berdatangan beri berikan berikut berikutnya berjumlah berkali-kali berkata berkehendak berkeinginan berkenaan berlainan berlalu berlangsung berlebihan bermacam bermacam-macam bermaksud bermula bersama bersama-sama bersiap bersiap-siap bertanya bertanya-tanya berturut berturut-turut bertutur berujar berupa besar betul betulkah biasa biasanya bila bilakah bisa bisakah boleh bolehkah bolehlah buat bukan bukankah bukanlah bukannya bulan bung cara caranya cukup cukupkah cukuplah cuma dahulu dalam dan dapat dari daripada datang dekat demi demikian demikianlah dengan depan di dia diakhiri diakhirinya dialah diantara diantaranya diberi diberikan diberikannya dibuat dibuatnya didapat didatangkan digunakan diibaratkan diibaratkannya diingat diingatkan diinginkan dijawab dijelaskan dijelaskannya dikarenakan dikatakan dikatakannya dikerjakan diketahui diketahuinya dikira dilakukan dilalui dilihat dimaksud dimaksudkan dimaksudkannya dimaksudnya diminta dimintai dimisalkan dimulai dimulailah dimulainya dimungkinkan dini dipastikan diperbuat diperbuatnya dipergunakan diperkirakan diperlihatkan diperlukan diperlukannya dipersoalkan dipertanyakan dipunyai diri dirinya disampaikan disebut disebutkan disebutkannya disini disinilah ditambahkan ditandaskan ditanya ditanyai ditanyakan ditegaskan ditujukan ditunjuk ditunjuki ditunjukkan ditunjukkannya ditunjuknya dituturkan dituturkannya diucapkan diucapkannya diungkapkan dong dua dulu empat enggak enggaknya entah entahlah guna gunakan hal hampir hanya hanyalah hari harus haruslah harusnya hendak hendaklah hendaknya hingga ia ialah ibarat ibaratkan ibaratnya ibu ikut ingat ingat-ingat ingin inginkah inginkan ini inikah inilah itu itukah itulah jadi jadilah jadinya jangan jangankan janganlah jauh jawab jawaban jawabnya jelas jelaskan jelaslah jelasnya jika jikalau juga jumlah jumlahnya justru kala kalau kalaulah kalaupun kalian kami kamilah kamu kamulah kan kapan kapankah kapanpun karena karenanya kasus kata katakan katakanlah katanya ke keadaan kebetulan kecil kedua keduanya keinginan kelamaan kelihatan kelihatannya kelima keluar kembali kemudian kemungkinan kemungkinannya kenapa kepada kepadanya kesampaian keseluruhan keseluruhannya keterlaluan ketika khususnya kini kinilah kira kira-kira kiranya kita kitalah kok kurang lagi lagian lah lain lainnya lalu lama lamanya lanjut lanjutnya lebih lewat lima luar macam maka makanya makin malah malahan mampu mampukah mana manakala manalagi masa masalah masalahnya masih masihkah masing masing-masing mau maupun melainkan melakukan melalui melihat melihatnya memang memastikan memberi memberikan membuat memerlukan memihak meminta memintakan memisalkan memperbuat mempergunakan memperkirakan memperlihatkan mempersiapkan mempersoalkan mempertanyakan mempunyai memulai memungkinkan menaiki menambahkan menandaskan menanti menanti-nanti menantikan menanya menanyai menanyakan mendapat mendapatkan mendatang mendatangi mendatangkan menegaskan mengakhiri mengapa mengatakan mengatakannya mengenai mengerjakan mengetahui menggunakan menghendaki mengibaratkan mengibaratkannya mengingat mengingatkan menginginkan mengira mengucapkan mengucapkannya mengungkapkan menjadi menjawab menjelaskan menuju menunjuk menunjuki menunjukkan menunjuknya menurut menuturkan menyampaikan menyangkut menyatakan menyebutkan menyeluruh menyiapkan merasa mereka merekalah merupakan meski meskipun meyakini meyakinkan minta mirip misal misalkan misalnya mula mulai mulailah mulanya mungkin mungkinkah nah naik namun nanti nantinya nyaris nyatanya oleh olehnya pada padahal padanya pak paling panjang pantas para pasti pastilah penting pentingnya per percuma perlu perlukah perlunya pernah persoalan pertama pertama-tama pertanyaan pertanyakan pihak pihaknya pukul pula pun punya rasa rasanya rata rupanya saat saatnya saja sajalah saling sama sama-sama sambil sampai sampai-sampai sampaikan sana sangat sangatlah satu saya sayalah se sebab sebabnya sebagai sebagaimana sebagainya sebagian sebaik sebaik-baiknya sebaiknya sebaliknya sebanyak sebegini sebegitu sebelum sebelumnya sebenarnya seberapa sebesar sebetulnya sebisanya sebuah sebut sebutlah sebutnya secara secukupnya sedang sedangkan sedemikian sedikit sedikitnya seenaknya segala segalanya segera seharusnya sehingga seingat sejak sejauh sejenak sejumlah sekadar sekadarnya sekali sekali-kali sekalian sekaligus sekalipun sekarang sekarang sekecil seketika sekiranya sekitar sekitarnya sekurang-kurangnya sekurangnya sela selain selaku selalu selama selama-lamanya selamanya selanjutnya seluruh seluruhnya semacam semakin semampu semampunya semasa semasih semata semata-mata semaunya sementara semisal semisalnya sempat semua semuanya semula sendiri sendirian sendirinya seolah seolah-olah seorang sepanjang sepantasnya sepantasnyalah seperlunya seperti sepertinya sepihak sering seringnya serta serupa sesaat sesama sesampai sesegera sesekali seseorang sesuatu sesuatunya sesudah sesudahnya setelah setempat setengah seterusnya setiap setiba setibanya setidak-tidaknya setidaknya setinggi seusai sewaktu siap siapa siapakah siapapun sini sinilah soal soalnya suatu sudah sudahkah sudahlah supaya tadi tadinya tahu tahun tak tambah tambahnya tampak tampaknya tandas tandasnya tanpa tanya tanyakan tanyanya tapi tegas tegasnya telah tempat tengah tentang tentu tentulah tentunya tepat terakhir terasa terbanyak terdahulu terdapat terdiri terhadap terhadapnya teringat teringat-ingat terjadi terjadilah terjadinya terkira terlalu terlebih terlihat termasuk ternyata tersampaikan tersebut tersebutlah tertentu tertuju terus terutama tetap tetapi tiap tiba tiba-tiba tidak tidakkah tidaklah tiga tinggi toh tunjuk turut tutur tuturnya ucap ucapnya ujar ujarnya umum umumnya ungkap ungkapnya untuk usah usai waduh wah wahai waktu waktunya walau walaupun wong yaitu yakin yakni yang """.split() )
6,507
53.689076
79
py
spaCy
spaCy-master/spacy/lang/ms/syntax_iterators.py
from typing import Iterator, Tuple, Union from ...errors import Errors from ...symbols import NOUN, PRON, PROPN from ...tokens import Doc, Span def noun_chunks(doclike: Union[Doc, Span]) -> Iterator[Tuple[int, int, int]]: """ Detect base noun phrases from a dependency parse. Works on both Doc and Span. """ # fmt: off labels = ["nsubj", "nsubj:pass", "obj", "iobj", "ROOT", "appos", "nmod", "nmod:poss"] # fmt: on doc = doclike.doc # Ensure works on both Doc and Span. if not doc.has_annotation("DEP"): raise ValueError(Errors.E029) np_deps = [doc.vocab.strings[label] for label in labels] conj = doc.vocab.strings.add("conj") np_label = doc.vocab.strings.add("NP") prev_end = -1 for i, word in enumerate(doclike): if word.pos not in (NOUN, PROPN, PRON): continue # Prevent nested chunks from being produced if word.left_edge.i <= prev_end: continue if word.dep in np_deps: prev_end = word.right_edge.i yield word.left_edge.i, word.right_edge.i + 1, np_label elif word.dep == conj: head = word.head while head.dep == conj and head.head.i < head.i: head = head.head # If the head is an NP, and we're coordinated to it, we're an NP if head.dep in np_deps: prev_end = word.right_edge.i yield word.left_edge.i, word.right_edge.i + 1, np_label SYNTAX_ITERATORS = {"noun_chunks": noun_chunks}
1,538
35.642857
89
py
spaCy
spaCy-master/spacy/lang/ms/tokenizer_exceptions.py
from ...symbols import NORM, ORTH from ...util import update_exc from ..tokenizer_exceptions import BASE_EXCEPTIONS from ._tokenizer_exceptions_list import MS_BASE_EXCEPTIONS # Daftar singkatan dan Akronim dari: # https://ms.wiktionary.org/wiki/Wiktionary:Senarai_akronim_dan_singkatan _exc = {} for orth in MS_BASE_EXCEPTIONS: _exc[orth] = [{ORTH: orth}] orth_title = orth.title() _exc[orth_title] = [{ORTH: orth_title}] orth_caps = orth.upper() _exc[orth_caps] = [{ORTH: orth_caps}] orth_lower = orth.lower() _exc[orth_lower] = [{ORTH: orth_lower}] orth_first_upper = orth[0].upper() + orth[1:] _exc[orth_first_upper] = [{ORTH: orth_first_upper}] if "-" in orth: orth_title = "-".join([part.title() for part in orth.split("-")]) _exc[orth_title] = [{ORTH: orth_title}] orth_caps = "-".join([part.upper() for part in orth.split("-")]) _exc[orth_caps] = [{ORTH: orth_caps}] for exc_data in [ {ORTH: "Jan.", NORM: "Januari"}, {ORTH: "Feb.", NORM: "Februari"}, {ORTH: "Mac.", NORM: "Mac"}, {ORTH: "Apr.", NORM: "April"}, {ORTH: "Jun.", NORM: "Jun"}, {ORTH: "Jul.", NORM: "Julai"}, {ORTH: "Ogos.", NORM: "Ogos"}, {ORTH: "Sep.", NORM: "September"}, {ORTH: "Okt.", NORM: "Oktober"}, {ORTH: "Nov.", NORM: "November"}, {ORTH: "Dis.", NORM: "Disember"}, ]: _exc[exc_data[ORTH]] = [exc_data] _other_exc = { "do'a": [{ORTH: "do'a", NORM: "doa"}], "jum'at": [{ORTH: "jum'at", NORM: "Jumat"}], "Jum'at": [{ORTH: "Jum'at", NORM: "Jumat"}], "la'nat": [{ORTH: "la'nat", NORM: "laknat"}], "ma'af": [{ORTH: "ma'af", NORM: "maaf"}], "mu'jizat": [{ORTH: "mu'jizat", NORM: "mukjizat"}], "Mu'jizat": [{ORTH: "Mu'jizat", NORM: "mukjizat"}], "ni'mat": [{ORTH: "ni'mat", NORM: "nikmat"}], "raka'at": [{ORTH: "raka'at", NORM: "rakaat"}], "ta'at": [{ORTH: "ta'at", NORM: "taat"}], } _exc.update(_other_exc) for orth in [ "1 Kor.", "1 Ptr.", "1 Raj.", "1 Sam.", "1 Taw.", "1 Tes.", "1 Tim.", "1 Yoh.", "1Ch.", "1Co.", "1Jo.", "1Ki.", "1Pe.", "1Sa.", "1Th.", "1Ti.", "2 Kor.", "2 Ptr.", "2 Raj.", "2 Sam.", "2 Taw.", "2 Tes.", "2 Tim.", "2 Yoh.", "2Ch.", "2Co.", "2Jo.", "2Ki.", "2Pe.", "2Sa.", "2Th.", "2Ti.", "3 Yoh.", "3D", "3F", "3Jo.", "3M", "8MP", "AA", "AAAAAA", "AB", "Abd.", "ABC", "ABIM", "ABM", "ABMI", "ABS", "AC", "Ac", "ACAPLPL", "Act.", "AD", "AD LIB", "ADAM", "ADB", "ADD", "ADIL", "ADN", "ADR", "ADRI", "ADSL", "ADUN", "AFAS", "AFTA", "Ag", "AGMARIS", "AH", "AI", "AIA", "AIDS", "AIJV", "AIM", "a/k", "ak", "AKN", "Al", "a/l", "AM", "Am", "Am.", "AMN", "Amo.", "AMPS", "Ams.", "AMWA", "AN", "a.n.", "ANGKASA", "ANM", "ANSI", "Ant.", "AOL", "AP", "a/p", "APD", "APEC", "API", "APIK", "APM", "APN", "APP", "Apr.", "APRI", "Ar", "Ar.", "ark.", "A.S.", "As", "a.s.", "ASA", "ASAS 50", "ASB", "ASCII", "ASEAN", "ASEAN+3", "ASEM", "a.s.f.", "ASN", "a.s.o.", "ASP", "Ast.", "A.T.", "At", "ATM", "a.t.r.", "ATUR", "Au", "AURI", "Aug.", "AWOL", "Ayb.", "B", "BA", "Ba", "BAC", "BAFIA", "BAM", "BANANA", "BAPP", "BASF", "BATA", "BB", "BBC", "BBE", "BBS", "BC", "BCG", "BCIC", "b.d.", "BDSSHAM", "Be", "BEER", "BERNAMA", "Bh", "b.h.", "Bhd.", "Bi", "BIDS", "Bil.", "bil.", "BIMP-EAGA", "Bio.", "BIOS", "BITMB", "BJ", "Bk", "b.k.", "BKAL", "bkn.", "BKP", "BL", "BLR", "BM", "BMI", "BMW", "BN", "BNM", "BO", "BOJ", "BOO", "BOP", "BOT", "BP", "b.p.", "BPA", "BPAs", "bpd.", "BPIMB", "BPM", "BPO", "BPPH", "Br", "Br.", "BSA", "B.Sc.", "B.Sh.", "b.s.j.", "BSN", "Bt.", "bt.", "BWT", "BYOB", "C", "C.", "C/E", "Ca", "CAAM", "CAD", "CAM", "CATV", "CBS", "CBT", "CC", "CCD", "CCM", "CCR", "cct-km", "CCTV", "CCU", "CD", "Cd", "CD-ROM", "CD-RW", "CDRC", "Ce", "CEO", "CEPT", "Cetak", "Cf", "CFO", "CFTC", "CGC", "CGI", "CH", "CIA", "CIAST", "CID", "CIDB", "CIQ", "CKD", "CL", "Cl", "c.l.", "CLI", "CLOB", "CM", "Cm", "cm.", "CMAG", "CMI", "CMP", "CNN", "Co", "COD", "Col.", "COLA", "COMDEX", "CP", "CPI", "CPO", "CPR", "CPU", "Cr", "CRDF", "Cs", "CST", "CT", "CTIP", "CTRM", "Cu", "CUEPACS", "D-8", "d/a", "DAGS", "Dan.", "DANCED", "DAP", "DARA", "Db", "DBKL", "DBP", "DBR", "DC", "DDA", "DDT", "DEB", "Dec.", "Deu.", "DFIs", "dgn.", "DHL", "DIBML", "DIN", "Dis.", "DJ", "d.l.l.", "dlm.", "dng.", "DNS", "DO", "DOA", "DOE", "DOF", "DOSH", "doz.", "DPPS", "Dr.", "dr.", "drp.", "drpd.", "Ds", "d.sb.", "d.st.", "DSTN2", "Dt.", "DTAs", "DTMF", "DTP", "DTV", "DUBES", "DUNHILL", "DV8", "DVD", "DVE", "DVS", "dw.t.", "Dy", "DYMM", "E", "E-Commerce", "E-Dagang", "E&E", "E-Faraid", "E-Government", "E-Kerajaan", "E-Mail", "E-Services", "E-Village", "E-Zine", "EALAF", "EBI", "EBP", "EC", "ECAFE", "Ecc.", "ECI", "ECM", "ECOSOC", "ECP", "ECR", "EDI", "EE", "EEC", "Ef.", "EG", "Eko.", "EKS", "ELWS", "ELX", "EMI", "EMUs", "En.", "EP", "EPF", "Eph.", "EPP", "EPS", "EPU", "ER", "Er", "ERL", "ERT", "Es", "ESCAP", "ESOS", "ESP", "EST", "Est.", "ET", "ETA", "ETACS", "ETC", "ETD", "EU", "Eu", "EVIAN", "Exim Bank", "Exo.", "Eze.", "Ezr.", "F", "FAM", "FAMA", "FAO", "FAQ", "FAX", "FBI", "FC", "FCA", "FCC", "FDI", "FE", "Fe", "f.e.", "Feb.", "FELCRA", "FELDA", "FI", "FIA 1993", "FIAT", "FIC", "FIDA", "FIFA", "FIMA", "Fiz.", "Flm.", "Flp.", "FM", "Fm", "FMUTM", "FO", "FOA", "FOB", "FOC", "FOMCA", "FORD", "Fr", "FRIM", "FRTI", "FSMP", "FTA", "FTE", "FTP", "G", "g.", "G15", "G77", "Ga", "GAC", "GACM", "Gal.", "GAPENA", "GATS", "GATT", "GB", "Gbps.", "Gd", "GDP", "Ge", "GEC", "Gen.", "Geo.", "Geog.", "Gerakan", "GH", "GIF", "GII", "GIS", "GITIC", "GITN", "GJ", "GLCs", "GM", "GMBH", "GMI", "GMT", "GNP", "GNS", "GOLD", "GP", "GPC", "GPIM", "GPMS", "GPO", "GPP", "GPS", "GRO", "GRS", "GSMC", "GST", "GTZ", "GUI", "GWh.", "H", "Ha", "Hab.", "Hag.", "Hak.", "ham", "hb.", "HCI", "HDTV", "He", "Heb.", "Hf", "Hg", "HI-FI", "HIS", "HIV", "Hj.", "HMS", "Ho", "Hos.", "HP", "HRDC", "HRDF", "HRMIS", "Hs", "Hut.", "I", "I/O", "IA", "IAA", "IADPs", "IB", "i.b.", "IBA", "IBFIM", "IBG", "Ibr.", "IBRD", "IBS", "IC", "ICA", "ICBM", "ICFM", "ICI", "ICM", "ICOR", "ICP", "ICT", "ICU", "ID", "Id.", "IDB", "IDFR", "IE", "i.e.", "IFSB", "IGAs", "IGS", "IHP", "IHPG", "IIM", "IINA", "IKKL", "IKP", "IKPH", "IKS", "Im.", "IMD", "IMF", "IMP2", "IMR", "IMS-GT", "IMT-GT", "In", "in.", "INFRA", "INSEP", "INSPEN", "INTAN", "IOFC", "IOU", "IP", "IPA", "IPBA", "IPCs", "IPEBP", "IPI", "IPKIM", "IPKPM", "IPO", "IPP", "IPPM", "IPPPM", "i.pt.", "IPTAR", "IPTNM", "IQR", "Ir", "IRA", "IRPA", "IRS", "i.s.", "ISA", "Isa.", "ISDN", "ISMM", "ISO", "ISP", "ist.", "IT", "i.t.", "ITA", "ITAF", "ITEX", "ITK", "ITM", "ITO", "ITRCo", "ITTA", "ITU", "JAK", "JAKIM", "Jam.", "Jan.", "Jb.", "JBIC", "JD", "JDA", "Jdg.", "Jer.", "Jh.", "JICA", "JJ", "Jk.", "JKKK", "jkps.", "JKR", "JMTI", "JOA", "Joe.", "Joh.", "Jon.", "Jos.", "JP", "JPA", "JPEG", "JPH", "JPJ", "JPSHK", "JPS", "JPT", "JRDA", "JSM", "JT", "Jud.", "Jul.", "Jun.", "JVC", "Jw.", "K", "K-Economy", "KADA", "KBE", "KBIA", "KBPA", "KBSM", "KD", "Kd.", "KDI", "KDN", "KDNK", "KE", "KEAP", "Kej.", "Kel.", "KEM", "KEMLU", "kep.", "Kg.", "kg.", "KGB", "KGK", "KH", "ki.", "Kid.", "KIK", "KIKMTT", "KIM", "Kim.", "Kis.", "KIX", "KKGSK", "KKK", "KKPPA", "KL", "Kl.", "KLCI", "KLIA", "KLIBOR", "KLIM", "KLM", "KLSE", "KM", "KMM", "KNK", "KO", "Kol.", "Kom.", "Komp.", "KOMSAS", "KPAI", "KPB", "KPBA", "KPC", "kpd.", "KPE", "KPIs", "KPPL", "KPPMS", "KPWM", "Kr", "KRM", "KSTI", "KT", "KTA", "KTABKL", "KTM", "KTMB", "kV", "kW", "kWh", "kWj", "KWSP", "LA", "La", "LABOR", "Lam.", "LAN", "LAPD", "LASER", "LAX", "lb.", "LC", "LCD", "LCHRF", "LCLY", "LED", "Lev.", "LFPR", "LFS", "LFX", "LGM", "Li", "LID", "Lin.", "LKN", "LKPM", "LKPP", "LKTP", "LKWJ", "LLB", "LLC", "LLN", "LLS", "LMSM", "LNG", "LOA", "LOBATA", "LOFSA", "LPG", "LPIP", "LPKI", "LPKLPL", "LPKN", "LPN", "LPP", "LPPK", "LPPM", "LPPP", "LPPTP", "Lr", "LRs", "LRT", "LS", "LTAKL", "LTD", "LTK", "Lu", "LUAS", "Luk.", "lw.", "lwn.", "M\n", "m", "M&A", "MAB", "MACRES", "MAD", "MADA", "MAGERAN", "MAHA", "MAHSURI", "Mal.", "MALINDO", "MAMPU", "Mar.", "MARA", "MARC", "MARDI", "MARLBORO", "MAS", "MASSA", "MASSCORP", "Mat.", "MATRADE", "MAVCAP", "MB", "MBA", "MBBS", "MBM", "MBO", "MBS", "MBTU", "MC", "MCA", "MCB", "MCSL", "MCSv5", "MD", "Md", "MDB", "MDC", "MDG", "MDV", "MEASAT", "MEATJ", "MECIB", "MEMO", "MENLU", "MEPS", "MES", "MESDAQ", "METEOR", "MFI", "MFIs", "MG", "Mg", "MGM", "MGR", "MGS", "MHA", "Mi.", "MIA", "MIB", "MIC", "Mic.", "MICE", "MIDA", "MIDF", "MIDI", "MIG", "MIGHT", "MII", "MIMOS", "MINDEF", "MINT", "mis.", "MIT", "MITC", "MITI", "Ml.", "MLNG", "mlpd.", "MM", "mm", "MMN", "mmscfd.", "MMU", "MMX", "Mn", "Mn.", "MNA", "MNCs", "MO", "Mo", "MOA", "MOD", "MODEM", "MOE", "MOH", "MOSTE", "MOSTI", "MOU", "MP", "MPB", "MPEG", "MPOB", "MPP", "mppa.", "MPPJ", "MPS", "MPTM", "MR", "m.r.", "MRB", "MRELB", "Mrk.", "MRRDB", "MS", "MS-DOS", "MSC", "MSG", "MSM", "Mt", "MTC", "MTCP", "MTD", "MTDC", "MTPB", "MTV", "Muz.", "MV", "MW", "MY", "MyKe", "Mzm.", "N", "N/A", "Na", "NAB", "NACIWID", "Nah.", "NAP", "NASA", "NATO", "NAV", "NB", "Nb", "NBA", "NBC", "NCR", "Nd", "NDP", "Ne", "NEAC", "NEC", "NEF", "Neh.", "NEP", "NEqO", "NERP", "NF", "NFPEs", "NG", "NGOs", "NGV", "NHEF", "NHHES", "NHK", "Ni", "NIDC", "NIH", "NIP", "NIPA", "NIS", "NISIR", "NITA", "NITC", "NITP", "NIV", "NLAC", "NMPBSP", "NMU", "No", "No.", "no.", "NOSS", "Nov.", "Np", "NPC", "NPCS", "NPL", "NRCC", "NRW", "NS", "Ns", "NSB", "NTA", "NTHRDC", "NTMP", "NTSC", "Num.", "NUTF", "NVP", "NVTC", "NWRC", "O", "Ob.", "Oba.", "OC", "OCPD", "Oct.", "OD", "ODA", "OECD", "OEM", "Ogo.", "OHQs", "OIC", "Okt.", "OPEC", "OPP", "OPP3", "OPR", "OS", "Os", "OSA", "OT", "OUG", "oz.", "P", "P&P", "PA", "Pa", "PABK", "PABX", "PAK", "PAKSI", "PAL", "PALL MALL", "PAS", "PATA", "PAWS", "Pb", "PBA", "PBB", "PBM", "PBP", "PBSM", "PBT", "PC", "PC(s)", "PCB", "PCIRITA", "PCM", "PCMCIA", "PCN", "PD", "Pd", "pd.", "PDS", "PE", "PEKEMAS", "PEMADAM", "PENA", "PENIS", "PERDANA", "PERKESO", "PERKIM", "PERNAS", "PERTAMA", "PERTIWI", "PESAKA", "PETA", "PETRONAS", "PGU", "Ph.", "PHD", "Phi.", "Phm.", "PIK", "PIKOM", "PIN", "PINTAS", "PIPM", "PISK", "PITA", "PIXEL", "PJ", "PJK", "PJKB", "PJP", "PKBM", "PKBTA", "PKEN", "Pkh.", "PKKM", "PKLPA", "PKM", "PKNS", "PKPIM", "PKPM", "PKR", "PKS", "Pl.", "p.l.", "PLA", "PLC", "PLCHP", "PLCs", "PLI", "PLT", "PLUS", "PLWS", "PM", "Pm", "PMM", "PMP", "PMR", "PMS", "Pn.", "PNAT", "PNS", "PO", "Po", "POCPA", "POKEMON", "Pol.", "POP", "PORIM", "PORLA", "PORTAFOAM", "PP", "PPA", "PPBE", "PPBK", "ppd.", "PPGM", "PPI", "PPK", "PPL", "PPM", "PPP", "PPPB", "PPPLM", "PPPM", "PPR", "PPRT", "PPS", "PPTM", "PPU", "PR", "Pr", "Pr.", "prb.", "PRI", "PRO", "Pro.", "Prof.", "PROSPER", "PROSTAR", "PROTON", "PS", "PSA", "Psa.", "PSCs", "PSDC", "PSDH", "Psi.", "PSKE", "PSRM", "PST", "PT", "Pt", "PTD", "PTP", "Pu", "PUNB", "QA", "QC", "QCC", "R&D", "RA", "Ra", "RAM", "RAPP", "Rat.", "Rb", "RCA", "RDA", "RDAs", "RDCs", "RE", "Re", "REHDA", "Rev.", "Rf", "Rg", "RGB", "Rh", "RI", "RIDA", "RIP", "RISDA", "r.l.", "RM", "Rm.", "RMKe-8", "Rn", "ROC", "ROM", "Rom.", "RPG", "RPS", "RRI", "RRIM", "RRJP", "RRP", "RSGC", "RSS", "RSVP", "Rt.", "RTA", "RTM", "Ru", "Rut.", "RWCR", "RX", "S", "S/N", "S&T", "S-VHS", "SA", "SAC", "SADCs", "SAGA", "SALCRA", "SALM", "SALT", "SAM", "SAP", "SARS", "Sas.", "s.a.w.", "SB", "Sb", "Sb.", "SBA", "SBB", "sbg.", "SBK", "SC", "Sc", "SCA", "SCADA", "SCANS", "SCSI", "SCuM", "SDCs", "Sdn. Bhd.", "sdr.", "SDRC", "Se", "SEATO", "SEB", "SECAM", "SEDCs", "SEFF", "Sej.", "SEMS", "Sep.", "Sept.", "SESB", "SESCo", "s.f.", "Sg", "SGPCA", "SGPPI", "SGPPKRM", "SGX", "Si", "Si.", "SIA 1983", "SIC", "SIM", "SING", "SIRIM", "SITTDEC", "sj.", "SKDTP", "SKM", "SKSM", "SL", "Sl.", "sl.", "SLMCH", "SLR", "SM", "Sm", "SMART", "SMEs", "SMEt", "SMIs", "SMIDEC", "SMIDP", "SMJK", "SMR", "SMS", "SMT", "SMTP", "SN", "Sn", "SOB", "SOCSO", "SOHO", "Son.", "SOS", "Sos.", "SP", "SPA", "SPAM", "SPCA", "SPKR", "SPLAM", "SPM", "SPNB", "SPSP", "t.", "Ta", "Tadb.", "TAF", "TAF-W", "Tani", "TAP", "TAR", "TARBI", "TB", "Tb", "TBA", "TBTP", "Tc", "TCPD", "TDCs", "Te", "TEKUN", "TELCO", "TELEX", "TEUs", "TFP", "TGV", "TH", "Th", "THIS", "Ti", "TICAD", "Tit.", "TKA", "Tks.", "Tl", "TLDM", "TM", "Tm", "TMB", "TMK", "TNB", "TNSB", "TNT", "TOEFL", "TP", "TPIM", "TPK", "TPPP", "TPPT", "TPSM", "TPUB", "TQM", "Tr.", "TRIPs", "tsb.", "tscf.", "t.sh.", "t.s.t.", "TT", "t.t.", "TUDM", "TV", "TVSMR", "TWAIN", "TX", "TYPHIrapid", "U", "Ubat", "UDA", "Udg.", "UFO", "UH", "UIA", "UiTM", "UK", "UKM", "UL", "Ul.", "ULC", "UM", "UMNO", "UMS", "UN", "UN/OSCAL", "UNCLE", "UNCTAD", "UNDP", "UNESCO", "UNFCCC", "UNFPA", "UNHCR", "UNICEF", "UNIMAS", "UNTAET", "UPE", "UPM", "UPS", "UPSR", "URL", "US", "USAINS", "USD", "USM", "USNO", "USS", "USSR", "UTC", "UTF", "utk.", "UTM", "V", "VAT", "VCC", "VCD", "VCR", "VD", "VDSC", "VGA", "VHF", "VHS", "VIP", "VMS", "VO", "VOA", "VoIP", "VR", "VSOP", "VW", "W", "W/O", "WAP", "WAY", "WC", "WDDM", "WDM", "WHO", "Why.", "WIM", "WPG", "WTO", "WWF", "WWW", "WYSIWYG", "Xe", "XO", "XXL", "Y", "Y2K", "YAB", "Yak.", "YAM", "YAS", "YB", "Yb", "Yeh.", "Yer.", "Yes.", "yg.", "Yl.", "YM", "YMCA", "Yoh.", "Yos.", "Y.Th.", "YTM", "Yud.", "Yun.", "Za.", "Zec.", "Zef.", "Zep.", "ZIP", "Zn", "Zr", ]: _exc[orth] = [{ORTH: orth}] TOKENIZER_EXCEPTIONS = update_exc(BASE_EXCEPTIONS, _exc)
19,109
11.465753
73
py
spaCy
spaCy-master/spacy/lang/nb/__init__.py
from typing import Callable, Optional from thinc.api import Model from ...language import BaseDefaults, Language from ...pipeline import Lemmatizer from .punctuation import TOKENIZER_INFIXES, TOKENIZER_PREFIXES, TOKENIZER_SUFFIXES from .stop_words import STOP_WORDS from .syntax_iterators import SYNTAX_ITERATORS from .tokenizer_exceptions import TOKENIZER_EXCEPTIONS class NorwegianDefaults(BaseDefaults): tokenizer_exceptions = TOKENIZER_EXCEPTIONS prefixes = TOKENIZER_PREFIXES infixes = TOKENIZER_INFIXES suffixes = TOKENIZER_SUFFIXES syntax_iterators = SYNTAX_ITERATORS stop_words = STOP_WORDS class Norwegian(Language): lang = "nb" Defaults = NorwegianDefaults @Norwegian.factory( "lemmatizer", assigns=["token.lemma"], default_config={ "model": None, "mode": "rule", "overwrite": False, "scorer": {"@scorers": "spacy.lemmatizer_scorer.v1"}, }, default_score_weights={"lemma_acc": 1.0}, ) def make_lemmatizer( nlp: Language, model: Optional[Model], name: str, mode: str, overwrite: bool, scorer: Optional[Callable], ): return Lemmatizer( nlp.vocab, model, name, mode=mode, overwrite=overwrite, scorer=scorer ) __all__ = ["Norwegian"]
1,274
23.519231
82
py
spaCy
spaCy-master/spacy/lang/nb/examples.py
""" Example sentences to test spaCy and its language models. >>> from spacy.lang.nb.examples import sentences >>> docs = nlp.pipe(sentences) """ sentences = [ "Apple vurderer å kjøpe britisk oppstartfirma for en milliard dollar.", "Selvkjørende biler flytter forsikringsansvaret over på produsentene.", "San Francisco vurderer å forby robotbud på fortauene.", "London er en stor by i Storbritannia.", ]
422
27.2
75
py
spaCy
spaCy-master/spacy/lang/nb/punctuation.py
from ..char_classes import ( ALPHA, ALPHA_LOWER, ALPHA_UPPER, CONCAT_QUOTES, CURRENCY, LIST_CURRENCY, LIST_ELLIPSES, LIST_ICONS, LIST_PUNCT, LIST_QUOTES, PUNCT, UNITS, ) # Punctuation adapted from Danish _quotes = CONCAT_QUOTES.replace("'", "") _list_punct = [x for x in LIST_PUNCT if x != "#"] _list_icons = [x for x in LIST_ICONS if x != "°"] _list_icons = [x.replace("\\u00B0", "") for x in _list_icons] _list_quotes = [x for x in LIST_QUOTES if x != "\\'"] _prefixes = ( ["§", "%", "=", "—", "–", r"\+(?![0-9])"] + _list_punct + LIST_ELLIPSES + LIST_QUOTES + LIST_CURRENCY + LIST_ICONS ) _infixes = ( LIST_ELLIPSES + _list_icons + [ r"(?<=[{al}])\.(?=[{au}])".format(al=ALPHA_LOWER, au=ALPHA_UPPER), r"(?<=[{a}])[,!?](?=[{a}])".format(a=ALPHA), r"(?<=[{a}])[:<>=/](?=[{a}])".format(a=ALPHA), r"(?<=[{a}]),(?=[{a}])".format(a=ALPHA), r"(?<=[{a}])([{q}\)\]\(\[])(?=[{a}])".format(a=ALPHA, q=_quotes), r"(?<=[{a}])--(?=[{a}])".format(a=ALPHA), ] ) _suffixes = ( LIST_PUNCT + LIST_ELLIPSES + _list_quotes + _list_icons + ["—", "–"] + [ r"(?<=[0-9])\+", r"(?<=°[FfCcKk])\.", r"(?<=[0-9])(?:{c})".format(c=CURRENCY), r"(?<=[0-9])(?:{u})".format(u=UNITS), r"(?<=[{al}{e}{p}(?:{q})])\.".format( al=ALPHA_LOWER, e=r"%²\-\+", q=_quotes, p=PUNCT ), r"(?<=[{au}][{au}])\.".format(au=ALPHA_UPPER), ] + [r"(?<=[^sSxXzZ])'"] ) TOKENIZER_PREFIXES = _prefixes TOKENIZER_INFIXES = _infixes TOKENIZER_SUFFIXES = _suffixes
1,651
22.6
74
py
spaCy
spaCy-master/spacy/lang/nb/stop_words.py
STOP_WORDS = set( """ alle allerede alt and andre annen annet at av bak bare bedre beste blant ble bli blir blitt bris by både da dag de del dem den denne der dermed det dette disse du eller en enn er et ett etter fem fikk fire fjor flere folk for fortsatt fra fram funnet få får fått før først første gang gi gikk gjennom gjorde gjort gjør gjøre god godt grunn gå går ha hadde ham han hans har hele helt henne hennes her hun i ifølge igjen ikke ingen inn ja jeg kamp kampen kan kl klart kom komme kommer kontakt kort kroner kunne kveld la laget land landet langt leder ligger like litt løpet man mange med meg mellom men mener mennesker mens mer mot mye må mål måtte ned neste noe noen nok ny nye nå når og også om opp opplyser oss over personer plass poeng på runde rundt sa saken samme sammen samtidig satt se seg seks selv senere ser sett siden sier sin sine siste sitt skal skriver skulle slik som sted stedet stor store står svært så ta tatt tid tidligere til tilbake tillegg tok tror under ut uten utenfor vant var ved veldig vi videre viktig vil ville viser vår være vært å år ønsker """.split() )
1,131
21.196078
76
py
spaCy
spaCy-master/spacy/lang/nb/syntax_iterators.py
from typing import Iterator, Tuple, Union from ...errors import Errors from ...symbols import NOUN, PRON, PROPN from ...tokens import Doc, Span def noun_chunks(doclike: Union[Doc, Span]) -> Iterator[Tuple[int, int, int]]: """Detect base noun phrases from a dependency parse. Works on Doc and Span.""" # fmt: off labels = ["nsubj", "nsubj:pass", "obj", "iobj", "ROOT", "appos", "nmod", "nmod:poss"] # fmt: on doc = doclike.doc # Ensure works on both Doc and Span. if not doc.has_annotation("DEP"): raise ValueError(Errors.E029) np_deps = [doc.vocab.strings[label] for label in labels] conj = doc.vocab.strings.add("conj") np_label = doc.vocab.strings.add("NP") prev_end = -1 for i, word in enumerate(doclike): if word.pos not in (NOUN, PROPN, PRON): continue # Prevent nested chunks from being produced if word.left_edge.i <= prev_end: continue if word.dep in np_deps: prev_end = word.right_edge.i yield word.left_edge.i, word.right_edge.i + 1, np_label elif word.dep == conj: head = word.head while head.dep == conj and head.head.i < head.i: head = head.head # If the head is an NP, and we're coordinated to it, we're an NP if head.dep in np_deps: prev_end = word.right_edge.i yield word.left_edge.i, word.right_edge.i + 1, np_label SYNTAX_ITERATORS = {"noun_chunks": noun_chunks}
1,523
37.1
89
py
spaCy
spaCy-master/spacy/lang/nb/tokenizer_exceptions.py
from ...symbols import NORM, ORTH from ...util import update_exc from ..tokenizer_exceptions import BASE_EXCEPTIONS _exc = {} for exc_data in [ {ORTH: "jan.", NORM: "januar"}, {ORTH: "feb.", NORM: "februar"}, {ORTH: "mar.", NORM: "mars"}, {ORTH: "apr.", NORM: "april"}, {ORTH: "jun.", NORM: "juni"}, {ORTH: "jul.", NORM: "juli"}, {ORTH: "aug.", NORM: "august"}, {ORTH: "sep.", NORM: "september"}, {ORTH: "okt.", NORM: "oktober"}, {ORTH: "nov.", NORM: "november"}, {ORTH: "des.", NORM: "desember"}, ]: _exc[exc_data[ORTH]] = [exc_data] for orth in [ "Ap.", "Aq.", "Ca.", "Chr.", "Co.", "Co.", "Dr.", "F.eks.", "Fr.p.", "Frp.", "Grl.", "Kr.", "Kr.F.", "Kr.F.s", "Mr.", "Mrs.", "Pb.", "Pr.", "Sp.", "Sp.", "St.", "a.m.", "ad.", "adm.dir.", "andelsnr", "b.c.", "bl.a.", "bla.", "bm.", "bnr.", "bto.", "c.c.", "ca.", "cand.mag.", "co.", "d.d.", "d.m.", "d.y.", "dept.", "dr.", "dr.med.", "dr.philos.", "dr.psychol.", "dvs.", "e.Kr.", "e.l.", "eg.", "ekskl.", "el.", "et.", "etc.", "etg.", "ev.", "evt.", "f.", "f.Kr.", "f.eks.", "f.o.m.", "fhv.", "fk.", "foreg.", "fork.", "fv.", "fvt.", "g.", "gl.", "gno.", "gnr.", "grl.", "gt.", "h.r.adv.", "hhv.", "hoh.", "hr.", "ifb.", "ifm.", "iht.", "inkl.", "istf.", "jf.", "jr.", "jun.", "juris.", "kfr.", "kgl.", "kgl.res.", "kl.", "komm.", "kr.", "kst.", "lat.", "lø.", "m.a.o.", "m.fl.", "m.m.", "m.v.", "ma.", "mag.art.", "md.", "mfl.", "mht.", "mill.", "min.", "mnd.", "moh.", "mrd.", "muh.", "mv.", "mva.", "n.å.", "ndf.", "no.", "nov.", "nr.", "nto.", "nyno.", "o.a.", "o.l.", "off.", "ofl.", "okt.", "on.", "op.", "org.", "osv.", "ovf.", "p.", "p.a.", "p.g.a.", "p.m.", "p.t.", "pga.", "ph.d.", "pkt.", "pr.", "pst.", "pt.", "red.anm.", "ref.", "res.", "res.kap.", "resp.", "rv.", "s.", "s.d.", "s.k.", "s.k.", "s.u.", "s.å.", "sen.", "sep.", "siviling.", "sms.", "snr.", "spm.", "sr.", "sst.", "st.", "st.meld.", "st.prp.", "stip.", "stk.", "stud.", "sv.", "såk.", "sø.", "t.h.", "t.o.m.", "t.v.", "temp.", "ti.", "tils.", "tilsv.", "tl;dr", "tlf.", "to.", "ult.", "utg.", "v.", "vedk.", "vedr.", "vg.", "vgs.", "vha.", "vit.ass.", "vn.", "vol.", "vs.", "vsa.", "©NTB", "årg.", "årh.", "§§", ]: _exc[orth] = [{ORTH: orth}] TOKENIZER_EXCEPTIONS = update_exc(BASE_EXCEPTIONS, _exc)
3,058
12.717489
56
py
spaCy
spaCy-master/spacy/lang/ne/__init__.py
from ...language import BaseDefaults, Language from .lex_attrs import LEX_ATTRS from .stop_words import STOP_WORDS class NepaliDefaults(BaseDefaults): stop_words = STOP_WORDS lex_attr_getters = LEX_ATTRS class Nepali(Language): lang = "ne" Defaults = NepaliDefaults __all__ = ["Nepali"]
309
17.235294
46
py
spaCy
spaCy-master/spacy/lang/ne/examples.py
""" Example sentences to test spaCy and its language models. >>> from spacy.lang.ne.examples import sentences >>> docs = nlp.pipe(sentences) """ sentences = [ "एप्पलले अमेरिकी स्टार्टअप १ अर्ब डलरमा किन्ने सोच्दै छ", "स्वायत्त कारहरूले बीमा दायित्व निर्माताहरु तिर बदल्छन्", "स्यान फ्रांसिस्कोले फुटपाथ वितरण रोबोटहरु प्रतिबंध गर्ने विचार गर्दै छ", "लन्डन यूनाइटेड किंगडमको एक ठूलो शहर हो।", "तिमी कहाँ छौ?", "फ्रान्स को राष्ट्रपति को हो?", "संयुक्त राज्यको राजधानी के हो?", "बराक ओबामा कहिले कहिले जन्मेका हुन्?", ]
552
28.105263
77
py
spaCy
spaCy-master/spacy/lang/ne/lex_attrs.py
from ...attrs import LIKE_NUM, NORM from ..norm_exceptions import BASE_NORMS # fmt: off _stem_suffixes = [ ["ा", "ि", "ी", "ु", "ू", "ृ", "े", "ै", "ो", "ौ"], ["ँ", "ं", "्", "ः"], ["लाई", "ले", "बाट", "को", "मा", "हरू"], ["हरूलाई", "हरूले", "हरूबाट", "हरूको", "हरूमा"], ["इलो", "िलो", "नु", "ाउनु", "ई", "इन", "इन्", "इनन्"], ["एँ", "इँन्", "इस्", "इनस्", "यो", "एन", "यौं", "एनौं", "ए", "एनन्"], ["छु", "छौँ", "छस्", "छौ", "छ", "छन्", "छेस्", "छे", "छ्यौ", "छिन्", "हुन्छ"], ["दै", "दिन", "दिँन", "दैनस्", "दैन", "दैनौँ", "दैनौं", "दैनन्"], ["हुन्न", "न्न", "न्न्स्", "न्नौं", "न्नौ", "न्न्न्", "िई"], ["अ", "ओ", "ऊ", "अरी", "साथ", "वित्तिकै", "पूर्वक"], ["याइ", "ाइ", "बार", "वार", "चाँहि"], ["ने", "ेको", "ेकी", "ेका", "ेर", "दै", "तै", "िकन", "उ", "न", "नन्"] ] # fmt: on # reference 1: https://en.wikipedia.org/wiki/Numbers_in_Nepali_language # reference 2: https://www.imnepal.com/nepali-numbers/ _num_words = [ "शुन्य", "एक", "दुई", "तीन", "चार", "पाँच", "छ", "सात", "आठ", "नौ", "दश", "एघार", "बाह्र", "तेह्र", "चौध", "पन्ध्र", "सोह्र", "सोह्र", "सत्र", "अठार", "उन्नाइस", "बीस", "तीस", "चालीस", "पचास", "साठी", "सत्तरी", "असी", "नब्बे", "सय", "हजार", "लाख", "करोड", "अर्ब", "खर्ब", ] def norm(string): # normalise base exceptions, e.g. punctuation or currency symbols if string in BASE_NORMS: return BASE_NORMS[string] # set stem word as norm, if available, adapted from: # https://github.com/explosion/spaCy/blob/master/spacy/lang/hi/lex_attrs.py # https://www.researchgate.net/publication/237261579_Structure_of_Nepali_Grammar for suffix_group in reversed(_stem_suffixes): length = len(suffix_group[0]) if len(string) <= length: break for suffix in suffix_group: if string.endswith(suffix): return string[:-length] return string def like_num(text): if text.startswith(("+", "-", "±", "~")): text = text[1:] text = text.replace(", ", "").replace(".", "") if text.isdigit(): return True if text.count("/") == 1: num, denom = text.split("/") if num.isdigit() and denom.isdigit(): return True if text.lower() in _num_words: return True return False LEX_ATTRS = {NORM: norm, LIKE_NUM: like_num}
2,476
25.073684
84
py
spaCy
spaCy-master/spacy/lang/ne/stop_words.py
# Source: https://github.com/sanjaalcorps/NepaliStopWords/blob/master/NepaliStopWords.txt STOP_WORDS = set( """ अक्सर अगाडि अगाडी अघि अझै अठार अथवा अनि अनुसार अन्तर्गत अन्य अन्यत्र अन्यथा अब अरु अरुलाई अरू अर्को अर्थात अर्थात् अलग अलि अवस्था अहिले आए आएका आएको आज आजको आठ आत्म आदि आदिलाई आफनो आफू आफूलाई आफै आफैँ आफ्नै आफ्नो आयो उ उक्त उदाहरण उनको उनलाई उनले उनि उनी उनीहरुको उन्नाइस उप उसको उसलाई उसले उहालाई ऊ एउटा एउटै एक एकदम एघार ओठ औ औं कता कति कतै कम कमसेकम कसरि कसरी कसै कसैको कसैलाई कसैले कसैसँग कस्तो कहाँबाट कहिलेकाहीं का काम कारण कि किन किनभने कुन कुनै कुन्नी कुरा कृपया के केहि केही को कोहि कोहिपनि कोही कोहीपनि क्रमशः गए गएको गएर गयौ गरि गरी गरे गरेका गरेको गरेर गरौं गर्छ गर्छन् गर्छु गर्दा गर्दै गर्न गर्नु गर्नुपर्छ गर्ने गैर घर चार चाले चाहनुहुन्छ चाहन्छु चाहिं चाहिए चाहिंले चाहीं चाहेको चाहेर चोटी चौथो चौध छ छन छन् छु छू छैन छैनन् छौ छौं जता जताततै जना जनाको जनालाई जनाले जब जबकि जबकी जसको जसबाट जसमा जसरी जसलाई जसले जस्ता जस्तै जस्तो जस्तोसुकै जहाँ जान जाने जाहिर जुन जुनै जे जो जोपनि जोपनी झैं ठाउँमा ठीक ठूलो त तता तत्काल तथा तथापि तथापी तदनुसार तपाइ तपाई तपाईको तब तर तर्फ तल तसरी तापनि तापनी तिन तिनि तिनिहरुलाई तिनी तिनीहरु तिनीहरुको तिनीहरू तिनीहरूको तिनै तिमी तिर तिरको ती तीन तुरन्त तुरुन्त तुरुन्तै तेश्रो तेस्कारण तेस्रो तेह्र तैपनि तैपनी त्यत्तिकै त्यत्तिकैमा त्यस त्यसकारण त्यसको त्यसले त्यसैले त्यसो त्यस्तै त्यस्तो त्यहाँ त्यहिँ त्यही त्यहीँ त्यहीं त्यो त्सपछि त्सैले थप थरि थरी थाहा थिए थिएँ थिएन थियो दर्ता दश दिए दिएको दिन दिनुभएको दिनुहुन्छ दुइ दुइवटा दुई देखि देखिन्छ देखियो देखे देखेको देखेर दोश्री दोश्रो दोस्रो द्वारा धन्न धेरै धौ न नगर्नु नगर्नू नजिकै नत्र नत्रभने नभई नभएको नभनेर नयाँ नि निकै निम्ति निम्न निम्नानुसार निर्दिष्ट नै नौ पक्का पक्कै पछाडि पछाडी पछि पछिल्लो पछी पटक पनि पन्ध्र पर्छ पर्थ्यो पर्दैन पर्ने पर्नेमा पर्याप्त पहिले पहिलो पहिल्यै पाँच पांच पाचौँ पाँचौं पिच्छे पूर्व पो प्रति प्रतेक प्रत्यक प्राय प्लस फरक फेरि फेरी बढी बताए बने बरु बाट बारे बाहिर बाहेक बाह्र बिच बिचमा बिरुद्ध बिशेष बिस बीच बीचमा बीस भए भएँ भएका भएकालाई भएको भएन भएर भन भने भनेको भनेर भन् भन्छन् भन्छु भन्दा भन्दै भन्नुभयो भन्ने भन्या भयेन भयो भर भरि भरी भा भित्र भित्री भीत्र म मध्य मध्ये मलाई मा मात्र मात्रै माथि माथी मुख्य मुनि मुन्तिर मेरो मैले यति यथोचित यदि यद्ध्यपि यद्यपि यस यसका यसको यसपछि यसबाहेक यसमा यसरी यसले यसो यस्तै यस्तो यहाँ यहाँसम्म यही या यी यो र रही रहेका रहेको रहेछ राखे राख्छ राम्रो रुपमा रूप रे लगभग लगायत लाई लाख लागि लागेको ले वटा वरीपरी वा वाट वापत वास्तवमा शायद सक्छ सक्ने सँग संग सँगको सँगसँगै सँगै संगै सङ्ग सङ्गको सट्टा सत्र सधै सबै सबैको सबैलाई समय समेत सम्भव सम्म सय सरह सहित सहितै सही साँच्चै सात साथ साथै सायद सारा सुनेको सुनेर सुरु सुरुको सुरुमै सो सोचेको सोचेर सोही सोह्र स्थित स्पष्ट हजार हरे हरेक हामी हामीले हाम्रा हाम्रो हुँदैन हुन हुनत हुनु हुने हुनेछ हुन् हुन्छ हुन्थ्यो हैन हो होइन होकि होला """.split() )
2,791
4.640404
89
py
spaCy
spaCy-master/spacy/lang/nl/__init__.py
from typing import Callable, Optional from thinc.api import Model from ...language import BaseDefaults, Language from .lemmatizer import DutchLemmatizer from .lex_attrs import LEX_ATTRS from .punctuation import TOKENIZER_INFIXES, TOKENIZER_PREFIXES, TOKENIZER_SUFFIXES from .stop_words import STOP_WORDS from .syntax_iterators import SYNTAX_ITERATORS from .tokenizer_exceptions import TOKENIZER_EXCEPTIONS class DutchDefaults(BaseDefaults): tokenizer_exceptions = TOKENIZER_EXCEPTIONS prefixes = TOKENIZER_PREFIXES infixes = TOKENIZER_INFIXES suffixes = TOKENIZER_SUFFIXES lex_attr_getters = LEX_ATTRS syntax_iterators = SYNTAX_ITERATORS stop_words = STOP_WORDS class Dutch(Language): lang = "nl" Defaults = DutchDefaults @Dutch.factory( "lemmatizer", assigns=["token.lemma"], default_config={ "model": None, "mode": "rule", "overwrite": False, "scorer": {"@scorers": "spacy.lemmatizer_scorer.v1"}, }, default_score_weights={"lemma_acc": 1.0}, ) def make_lemmatizer( nlp: Language, model: Optional[Model], name: str, mode: str, overwrite: bool, scorer: Optional[Callable], ): return DutchLemmatizer( nlp.vocab, model, name, mode=mode, overwrite=overwrite, scorer=scorer ) __all__ = ["Dutch"]
1,330
23.648148
82
py
spaCy
spaCy-master/spacy/lang/nl/examples.py
""" Example sentences to test spaCy and its language models. >>> from spacy.lang.nl.examples import sentences >>> docs = nlp.pipe(sentences) """ sentences = [ "Apple overweegt om voor 1 miljard een U.K. startup te kopen", "Autonome auto's verschuiven de verzekeringverantwoordelijkheid naar producenten", "San Francisco overweegt robots op voetpaden te verbieden", "Londen is een grote stad in het Verenigd Koninkrijk", ]
441
28.466667
86
py
spaCy
spaCy-master/spacy/lang/nl/lemmatizer.py
from typing import List, Tuple from ...pipeline import Lemmatizer from ...tokens import Token class DutchLemmatizer(Lemmatizer): @classmethod def get_lookups_config(cls, mode: str) -> Tuple[List[str], List[str]]: if mode == "rule": required = ["lemma_lookup", "lemma_rules", "lemma_exc", "lemma_index"] return (required, []) else: return super().get_lookups_config(mode) def lookup_lemmatize(self, token: Token) -> List[str]: """Overrides parent method so that a lowercased version of the string is used to search the lookup table. This is necessary because our lookup table consists entirely of lowercase keys.""" lookup_table = self.lookups.get_table("lemma_lookup", {}) string = token.text.lower() return [lookup_table.get(string, string)] # Note: CGN does not distinguish AUX verbs, so we treat AUX as VERB. def rule_lemmatize(self, token: Token) -> List[str]: # Difference 1: self.rules is assumed to be non-None, so no # 'is None' check required. # String lowercased from the get-go. All lemmatization results in # lowercased strings. For most applications, this shouldn't pose # any problems, and it keeps the exceptions indexes small. If this # creates problems for proper nouns, we can introduce a check for # univ_pos == "PROPN". cache_key = (token.lower, token.pos) if cache_key in self.cache: return self.cache[cache_key] string = token.text univ_pos = token.pos_.lower() if univ_pos in ("", "eol", "space"): forms = [string.lower()] self.cache[cache_key] = forms return forms index_table = self.lookups.get_table("lemma_index", {}) exc_table = self.lookups.get_table("lemma_exc", {}) rules_table = self.lookups.get_table("lemma_rules", {}) index = index_table.get(univ_pos, {}) exceptions = exc_table.get(univ_pos, {}) rules = rules_table.get(univ_pos, {}) string = string.lower() if univ_pos not in ( "noun", "verb", "aux", "adj", "adv", "pron", "det", "adp", "num", ): forms = [string] self.cache[cache_key] = forms return forms lemma_index = index_table.get(univ_pos, {}) # string is already lemma if string in lemma_index: forms = [string] self.cache[cache_key] = forms return forms exc_table = self.lookups.get_table("lemma_exc", {}) exceptions = exc_table.get(univ_pos, {}) # string is irregular token contained in exceptions index. try: forms = [exceptions[string][0]] self.cache[cache_key] = forms return forms except KeyError: pass # string corresponds to key in lookup table lookup_table = self.lookups.get_table("lemma_lookup", {}) looked_up_lemma = lookup_table.get(string) if looked_up_lemma and looked_up_lemma in lemma_index: forms = [looked_up_lemma] self.cache[cache_key] = forms return forms rules_table = self.lookups.get_table("lemma_rules", {}) oov_forms = [] for old, new in rules: if string.endswith(old): form = string[: len(string) - len(old)] + new if not form: pass elif form in index: forms = [form] self.cache[cache_key] = forms return forms else: oov_forms.append(form) forms = list(dict.fromkeys(oov_forms)) # Back-off through remaining return value candidates. if forms: for form in forms: if form in exceptions: forms = [form] self.cache[cache_key] = forms return forms if looked_up_lemma: forms = [looked_up_lemma] self.cache[cache_key] = forms return forms else: self.cache[cache_key] = forms return forms elif looked_up_lemma: forms = [looked_up_lemma] self.cache[cache_key] = forms return forms else: forms = [string] self.cache[cache_key] = forms return forms
4,618
36.552846
82
py
spaCy
spaCy-master/spacy/lang/nl/lex_attrs.py
from ...attrs import LIKE_NUM _num_words = set( """ nul een één twee drie vier vijf zes zeven acht negen tien elf twaalf dertien veertien twintig dertig veertig vijftig zestig zeventig tachtig negentig honderd duizend miljoen miljard biljoen biljard triljoen triljard """.split() ) _ordinal_words = set( """ eerste tweede derde vierde vijfde zesde zevende achtste negende tiende elfde twaalfde dertiende veertiende twintigste dertigste veertigste vijftigste zestigste zeventigste tachtigste negentigste honderdste duizendste miljoenste miljardste biljoenste biljardste triljoenste triljardste """.split() ) def like_num(text): # This only does the most basic check for whether a token is a digit # or matches one of the number words. In order to handle numbers like # "drieëntwintig", more work is required. # See this discussion: https://github.com/explosion/spaCy/pull/1177 text = text.replace(",", "").replace(".", "") if text.isdigit(): return True if text.count("/") == 1: num, denom = text.split("/") if num.isdigit() and denom.isdigit(): return True if text.lower() in _num_words: return True if text.lower() in _ordinal_words: return True return False LEX_ATTRS = {LIKE_NUM: like_num}
1,299
30.707317
80
py
spaCy
spaCy-master/spacy/lang/nl/punctuation.py
from ..char_classes import ( ALPHA, ALPHA_LOWER, ALPHA_UPPER, CONCAT_QUOTES, CURRENCY, LIST_ELLIPSES, LIST_ICONS, LIST_PUNCT, LIST_QUOTES, LIST_UNITS, PUNCT, merge_chars, ) from ..punctuation import TOKENIZER_PREFIXES as BASE_TOKENIZER_PREFIXES _prefixes = [",,"] + BASE_TOKENIZER_PREFIXES # Copied from `de` package. Main purpose is to ensure that hyphens are not # split on. _quotes = CONCAT_QUOTES.replace("'", "") _infixes = ( LIST_ELLIPSES + LIST_ICONS + [ r"(?<=[{}])\.(?=[{}])".format(ALPHA_LOWER, ALPHA_UPPER), r"(?<=[{a}])[,!?](?=[{a}])".format(a=ALPHA), r'(?<=[{a}"])[:<>=](?=[{a}])'.format(a=ALPHA), r"(?<=[{a}]),(?=[{a}])".format(a=ALPHA), r"(?<=[{a}])([{q}\)\]\(\[])(?=[{a}])".format(a=ALPHA, q=_quotes), r"(?<=[{a}])--(?=[{a}])".format(a=ALPHA), ] ) _list_units = [u for u in LIST_UNITS if u != "%"] _units = merge_chars(" ".join(_list_units)) _suffixes = ( ["''"] + LIST_PUNCT + LIST_ELLIPSES + LIST_QUOTES + LIST_ICONS + ["—", "–"] + [ r"(?<=[0-9])\+", r"(?<=°[FfCcKk])\.", r"(?<=[0-9])(?:{c})".format(c=CURRENCY), r"(?<=[0-9])(?:{u})".format(u=_units), r"(?<=[0-9{al}{e}{p}(?:{q})])\.".format( al=ALPHA_LOWER, e=r"%²\-\+", q=CONCAT_QUOTES, p=PUNCT ), r"(?<=[{au}][{au}])\.".format(au=ALPHA_UPPER), ] ) TOKENIZER_PREFIXES = _prefixes TOKENIZER_INFIXES = _infixes TOKENIZER_SUFFIXES = _suffixes
1,532
22.584615
74
py
spaCy
spaCy-master/spacy/lang/nl/stop_words.py
# The original stop words list (added in f46ffe3) was taken from # http://www.damienvanholten.com/downloads/dutch-stop-words.txt # and consisted of about 100 tokens. # In order to achieve parity with some of the better-supported # languages, e.g., English, French, and German, this original list has been # extended with 200 additional tokens. The main source of inspiration was # https://raw.githubusercontent.com/stopwords-iso/stopwords-nl/master/stopwords-nl.txt. # However, quite a bit of manual editing has taken place as well. # Tokens whose status as a stop word is not entirely clear were admitted or # rejected by deferring to their counterparts in the stop words lists for English # and French. Similarly, those lists were used to identify and fill in gaps so # that -- in principle -- each token contained in the English stop words list # should have a Dutch counterpart here. STOP_WORDS = set( """ aan af al alle alles allebei alleen allen als altijd ander anders andere anderen aangaande aangezien achter achterna afgelopen aldus alhoewel anderzijds ben bij bijna bijvoorbeeld behalve beide beiden beneden bent bepaald beter betere betreffende binnen binnenin boven bovenal bovendien bovenstaand buiten daar dan dat de der den deze die dit doch doen door dus daarheen daarin daarna daarnet daarom daarop des dezelfde dezen dien dikwijls doet doorgaand doorgaans een eens en er echter enige eerder eerst eerste eersten effe eigen elk elke enkel enkele enz erdoor etc even eveneens evenwel ff ge geen geweest gauw gedurende gegeven gehad geheel gekund geleden gelijk gemogen geven geweest gewoon gewoonweg geworden gij haar had heb hebben heeft hem het hier hij hoe hun hadden hare hebt hele hen hierbeneden hierboven hierin hoewel hun iemand iets ik in is idd ieder ikke ikzelf indien inmiddels inz inzake ja je jou jouw jullie jezelf jij jijzelf jouwe juist kan kon kunnen klaar konden krachtens kunnen kunt lang later liet liever maar me meer men met mij mijn moet mag mede meer meesten mezelf mijzelf min minder misschien mocht mochten moest moesten moet moeten mogelijk mogen na naar niet niets nog nu nabij nadat net nogal nooit nr nu of om omdat ons ook op over omhoog omlaag omstreeks omtrent omver onder ondertussen ongeveer onszelf onze ooit opdat opnieuw opzij over overigens pas pp precies prof publ reeds rond rondom sedert sinds sindsdien slechts sommige spoedig steeds ‘t 't te tegen toch toen tot tamelijk ten tenzij ter terwijl thans tijdens toe totdat tussen u uit uw uitgezonderd uwe uwen van veel voor vaak vanaf vandaan vanuit vanwege veeleer verder verre vervolgens vgl volgens vooraf vooral vooralsnog voorbij voordat voordien voorheen voorop voort voorts vooruit vrij vroeg want waren was wat we wel werd wezen wie wij wil worden waar waarom wanneer want weer weg wegens weinig weinige weldra welk welke welken werd werden wiens wier wilde wordt zal ze zei zelf zich zij zijn zo zonder zou zeer zeker zekere zelfde zelfs zichzelf zijnde zijne zo’n zoals zodra zouden zoveel zowat zulk zulke zulks zullen zult """.split() )
3,086
41.287671
120
py
spaCy
spaCy-master/spacy/lang/nl/syntax_iterators.py
from typing import Iterator, Tuple, Union from ...errors import Errors from ...symbols import NOUN, PRON from ...tokens import Doc, Span def noun_chunks(doclike: Union[Doc, Span]) -> Iterator[Tuple[int, int, int]]: """ Detect base noun phrases from a dependency parse. Works on Doc and Span. The definition is inspired by https://www.nltk.org/book/ch07.html Consider : [Noun + determinant / adjective] and also [Pronoun] """ # fmt: off # labels = ["nsubj", "nsubj:pass", "obj", "iobj", "ROOT", "appos", "nmod", "nmod:poss"] # fmt: on doc = doclike.doc # Ensure works on both Doc and Span. # Check for dependencies: POS, DEP if not doc.has_annotation("POS"): raise ValueError(Errors.E1019) if not doc.has_annotation("DEP"): raise ValueError(Errors.E029) # See UD tags: https://universaldependencies.org/u/dep/index.html # amod = adjectival modifier # nmod:poss = possessive nominal modifier # nummod = numeric modifier # det = determiner # det:poss = possessive determiner noun_deps = [ doc.vocab.strings[label] for label in ["amod", "nmod:poss", "det", "det:poss"] ] # nsubj = nominal subject # nsubj:pass = passive nominal subject pronoun_deps = [doc.vocab.strings[label] for label in ["nsubj", "nsubj:pass"]] # Label NP for the Span to identify it as Noun-Phrase span_label = doc.vocab.strings.add("NP") # Only NOUNS and PRONOUNS matter end_span = -1 for i, word in enumerate(filter(lambda x: x.pos in [PRON, NOUN], doclike)): # For NOUNS # Pick children from syntactic parse (only those with certain dependencies) if word.pos == NOUN: # Some debugging. It happens that VERBS are POS-TAGGED as NOUNS # We check if the word has a "nsubj", if it's the case, we eliminate it nsubjs = filter( lambda x: x.dep == doc.vocab.strings["nsubj"], word.children ) next_word = next(nsubjs, None) if next_word is not None: # We found some nsubj, so we skip this word. Otherwise, consider it a normal NOUN continue children = filter(lambda x: x.dep in noun_deps, word.children) children_i = [c.i for c in children] + [word.i] start_span = min(children_i) if start_span >= end_span: end_span = max(children_i) + 1 yield start_span, end_span, span_label # PRONOUNS only if it is the subject of a verb elif word.pos == PRON: if word.dep in pronoun_deps: start_span = word.i if start_span >= end_span: end_span = word.i + 1 yield start_span, end_span, span_label SYNTAX_ITERATORS = {"noun_chunks": noun_chunks}
2,868
36.75
97
py
spaCy
spaCy-master/spacy/lang/nl/tokenizer_exceptions.py
from ...symbols import ORTH from ...util import update_exc from ..tokenizer_exceptions import BASE_EXCEPTIONS # Extensive list of both common and uncommon dutch abbreviations copied from # github.com/diasks2/pragmatic_segmenter, a Ruby library for rule-based # sentence boundary detection (MIT, Copyright 2015 Kevin S. Dias). # Source file: https://github.com/diasks2/pragmatic_segmenter/blob/master/lib/pragmatic_segmenter/languages/dutch.rb # (Last commit: 4d1477b) # Main purpose of such an extensive list: considerably improved sentence # segmentation. # Note: This list has been copied over largely as-is. Some of the abbreviations # are extremely domain-specific. Tokenizer performance may benefit from some # slight pruning, although no performance regression has been observed so far. abbrevs = [ "a.2d.", "a.a.", "a.a.j.b.", "a.f.t.", "a.g.j.b.", "a.h.v.", "a.h.w.", "a.hosp.", "a.i.", "a.j.b.", "a.j.t.", "a.m.", "a.m.r.", "a.p.m.", "a.p.r.", "a.p.t.", "a.s.", "a.t.d.f.", "a.u.b.", "a.v.a.", "a.w.", "aanbev.", "aanbev.comm.", "aant.", "aanv.st.", "aanw.", "vnw.", "aanw.vnw.", "abd.", "abm.", "abs.", "acc.act.", "acc.bedr.m.", "acc.bedr.t.", "achterv.", "act.dr.", "act.dr.fam.", "act.fisc.", "act.soc.", "adm.akk.", "adm.besl.", "adm.lex.", "adm.onderr.", "adm.ov.", "adv.", "adv.", "gen.", "adv.bl.", "afd.", "afl.", "aggl.verord.", "agr.", "al.", "alg.", "alg.richts.", "amén.", "ann.dr.", "ann.dr.lg.", "ann.dr.sc.pol.", "ann.ét.eur.", "ann.fac.dr.lg.", "ann.jur.créd.", "ann.jur.créd.règl.coll.", "ann.not.", "ann.parl.", "ann.prat.comm.", "app.", "arb.", "aud.", "arbbl.", "arbh.", "arbit.besl.", "arbrb.", "arr.", "arr.cass.", "arr.r.v.st.", "arr.verbr.", "arrondrb.", "art.", "artw.", "aud.", "b.", "b.", "b.&w.", "b.a.", "b.a.s.", "b.b.o.", "b.best.dep.", "b.br.ex.", "b.coll.fr.gem.comm.", "b.coll.vl.gem.comm.", "b.d.cult.r.", "b.d.gem.ex.", "b.d.gem.reg.", "b.dep.", "b.e.b.", "b.f.r.", "b.fr.gem.ex.", "b.fr.gem.reg.", "b.i.h.", "b.inl.j.d.", "b.inl.s.reg.", "b.j.", "b.l.", "b.o.z.", "b.prov.r.", "b.r.h.", "b.s.", "b.sr.", "b.stb.", "b.t.i.r.", "b.t.s.z.", "b.t.w.rev.", "b.v.", "b.ver.coll.gem.gem.comm.", "b.verg.r.b.", "b.versl.", "b.vl.ex.", "b.voorl.reg.", "b.w.", "b.w.gew.ex.", "b.z.d.g.", "b.z.v.", "bab.", "bedr.org.", "begins.", "beheersov.", "bekendm.comm.", "bel.", "bel.besch.", "bel.w.p.", "beleidsov.", "belg.", "grondw.", "ber.", "ber.w.", "besch.", "besl.", "beslagr.", "bestuurswet.", "bet.", "betr.", "betr.", "vnw.", "bevest.", "bew.", "bijbl.", "ind.", "eig.", "bijbl.n.bijdr.", "bijl.", "bijv.", "bijw.", "bijz.decr.", "bin.b.", "bkh.", "bl.", "blz.", "bm.", "bn.", "rh.", "bnw.", "bouwr.", "br.parl.", "bs.", "bull.", "bull.adm.pénit.", "bull.ass.", "bull.b.m.m.", "bull.bel.", "bull.best.strafinr.", "bull.bmm.", "bull.c.b.n.", "bull.c.n.c.", "bull.cbn.", "bull.centr.arb.", "bull.cnc.", "bull.contr.", "bull.doc.min.fin.", "bull.f.e.b.", "bull.feb.", "bull.fisc.fin.r.", "bull.i.u.m.", "bull.inf.ass.secr.soc.", "bull.inf.i.e.c.", "bull.inf.i.n.a.m.i.", "bull.inf.i.r.e.", "bull.inf.iec.", "bull.inf.inami.", "bull.inf.ire.", "bull.inst.arb.", "bull.ium.", "bull.jur.imm.", "bull.lég.b.", "bull.off.", "bull.trim.b.dr.comp.", "bull.us.", "bull.v.b.o.", "bull.vbo.", "bv.", "bw.", "bxh.", "byz.", "c.", "c.a.", "c.a.-a.", "c.a.b.g.", "c.c.", "c.c.i.", "c.c.s.", "c.conc.jur.", "c.d.e.", "c.d.p.k.", "c.e.", "c.ex.", "c.f.", "c.h.a.", "c.i.f.", "c.i.f.i.c.", "c.j.", "c.l.", "c.n.", "c.o.d.", "c.p.", "c.pr.civ.", "c.q.", "c.r.", "c.r.a.", "c.s.", "c.s.a.", "c.s.q.n.", "c.v.", "c.v.a.", "c.v.o.", "ca.", "cadeaust.", "cah.const.", "cah.dr.europ.", "cah.dr.immo.", "cah.dr.jud.", "cal.", "2d.", "cal.", "3e.", "cal.", "rprt.", "cap.", "carg.", "cass.", "cass.", "verw.", "cert.", "cf.", "ch.", "chron.", "chron.d.s.", "chron.dr.not.", "cie.", "cie.", "verz.schr.", "cir.", "circ.", "circ.z.", "cit.", "cit.loc.", "civ.", "cl.et.b.", "cmt.", "co.", "cognoss.v.", "coll.", "v.", "b.", "colp.w.", "com.", "com.", "cas.", "com.v.min.", "comm.", "comm.", "v.", "comm.bijz.ov.", "comm.erf.", "comm.fin.", "comm.ger.", "comm.handel.", "comm.pers.", "comm.pub.", "comm.straf.", "comm.v.", "comm.venn.", "comm.verz.", "comm.voor.", "comp.", "compt.w.", "computerr.", "con.m.", "concl.", "concr.", "conf.", "confl.w.", "confl.w.huwbetr.", "cons.", "conv.", "coöp.", "ver.", "corr.", "corr.bl.", "cour.fisc.", "cour.immo.", "cridon.", "crim.", "cur.", "cur.", "crt.", "curs.", "d.", "d.-g.", "d.a.", "d.a.v.", "d.b.f.", "d.c.", "d.c.c.r.", "d.d.", "d.d.p.", "d.e.t.", "d.gem.r.", "d.h.", "d.h.z.", "d.i.", "d.i.t.", "d.j.", "d.l.r.", "d.m.", "d.m.v.", "d.o.v.", "d.parl.", "d.w.z.", "dact.", "dat.", "dbesch.", "dbesl.", "dec.", "decr.", "decr.d.", "decr.fr.", "decr.vl.", "decr.w.", "def.", "dep.opv.", "dep.rtl.", "derg.", "desp.", "det.mag.", "deurw.regl.", "dez.", "dgl.", "dhr.", "disp.", "diss.", "div.", "div.act.", "div.bel.", "dl.", "dln.", "dnotz.", "doc.", "hist.", "doc.jur.b.", "doc.min.fin.", "doc.parl.", "doctr.", "dpl.", "dpl.besl.", "dr.", "dr.banc.fin.", "dr.circ.", "dr.inform.", "dr.mr.", "dr.pén.entr.", "dr.q.m.", "drs.", "ds.", "dtp.", "dwz.", "dyn.", "e.", "e.a.", "e.b.", "tek.mod.", "e.c.", "e.c.a.", "e.d.", "e.e.", "e.e.a.", "e.e.g.", "e.g.", "e.g.a.", "e.h.a.", "e.i.", "e.j.", "e.m.a.", "e.n.a.c.", "e.o.", "e.p.c.", "e.r.c.", "e.r.f.", "e.r.h.", "e.r.o.", "e.r.p.", "e.r.v.", "e.s.r.a.", "e.s.t.", "e.v.", "e.v.a.", "e.w.", "e&o.e.", "ec.pol.r.", "econ.", "ed.", "ed(s).", "eff.", "eig.", "eig.mag.", "eil.", "elektr.", "enmb.", "enz.", "err.", "etc.", "etq.", "eur.", "parl.", "eur.t.s.", "ev.", "evt.", "ex.", "ex.crim.", "exec.", "f.", "f.a.o.", "f.a.q.", "f.a.s.", "f.i.b.", "f.j.f.", "f.o.b.", "f.o.r.", "f.o.s.", "f.o.t.", "f.r.", "f.supp.", "f.suppl.", "fa.", "facs.", "fasc.", "fg.", "fid.ber.", "fig.", "fin.verh.w.", "fisc.", "fisc.", "tijdschr.", "fisc.act.", "fisc.koer.", "fl.", "form.", "foro.", "it.", "fr.", "fr.cult.r.", "fr.gem.r.", "fr.parl.", "fra.", "ft.", "g.", "g.a.", "g.a.v.", "g.a.w.v.", "g.g.d.", "g.m.t.", "g.o.", "g.omt.e.", "g.p.", "g.s.", "g.v.", "g.w.w.", "geb.", "gebr.", "gebrs.", "gec.", "gec.decr.", "ged.", "ged.st.", "gedipl.", "gedr.st.", "geh.", "gem.", "gem.", "gem.", "gem.gem.comm.", "gem.st.", "gem.stem.", "gem.w.", "gemeensch.optr.", "gemeensch.standp.", "gemeensch.strat.", "gemeent.", "gemeent.b.", "gemeent.regl.", "gemeent.verord.", "geol.", "geopp.", "gepubl.", "ger.deurw.", "ger.w.", "gerekw.", "gereq.", "gesch.", "get.", "getr.", "gev.m.", "gev.maatr.", "gew.", "ghert.", "gir.eff.verk.", "gk.", "gr.", "gramm.", "grat.w.", "grootb.w.", "grs.", "grvm.", "grw.", "gst.", "gw.", "h.a.", "h.a.v.o.", "h.b.o.", "h.e.a.o.", "h.e.g.a.", "h.e.geb.", "h.e.gestr.", "h.l.", "h.m.", "h.o.", "h.r.", "h.t.l.", "h.t.m.", "h.w.geb.", "hand.", "handelsn.w.", "handelspr.", "handelsr.w.", "handelsreg.w.", "handv.", "harv.l.rev.", "hc.", "herald.", "hert.", "herz.", "hfdst.", "hfst.", "hgrw.", "hhr.", "hist.", "hooggel.", "hoogl.", "hosp.", "hpw.", "hr.", "hr.", "ms.", "hr.ms.", "hregw.", "hrg.", "hst.", "huis.just.", "huisv.w.", "huurbl.", "hv.vn.", "hw.", "hyp.w.", "i.b.s.", "i.c.", "i.c.m.h.", "i.e.", "i.f.", "i.f.p.", "i.g.v.", "i.h.", "i.h.a.", "i.h.b.", "i.l.pr.", "i.o.", "i.p.o.", "i.p.r.", "i.p.v.", "i.pl.v.", "i.r.d.i.", "i.s.m.", "i.t.t.", "i.v.", "i.v.m.", "i.v.s.", "i.w.tr.", "i.z.", "ib.", "ibid.", "icip-ing.cons.", "iem.", "inc.", "indic.soc.", "indiv.", "inf.", "inf.i.d.a.c.", "inf.idac.", "inf.r.i.z.i.v.", "inf.riziv.", "inf.soc.secr.", "ing.", "ing.", "cons.", "ing.cons.", "inst.", "int.", "int.", "rechtsh.", "strafz.", "interm.", "intern.fisc.act.", "intern.vervoerr.", "inv.", "inv.", "f.", "inv.w.", "inv.wet.", "invord.w.", "inz.", "ir.", "irspr.", "iwtr.", "j.", "j.-cl.", "j.c.b.", "j.c.e.", "j.c.fl.", "j.c.j.", "j.c.p.", "j.d.e.", "j.d.f.", "j.d.s.c.", "j.dr.jeun.", "j.j.d.", "j.j.p.", "j.j.pol.", "j.l.", "j.l.m.b.", "j.l.o.", "j.p.a.", "j.r.s.", "j.t.", "j.t.d.e.", "j.t.dr.eur.", "j.t.o.", "j.t.t.", "jaarl.", "jb.hand.", "jb.kred.", "jb.kred.c.s.", "jb.l.r.b.", "jb.lrb.", "jb.markt.", "jb.mens.", "jb.t.r.d.", "jb.trd.", "jeugdrb.", "jeugdwerkg.w.", "jhr.", "jg.", "jis.", "jl.", "journ.jur.", "journ.prat.dr.fisc.fin.", "journ.proc.", "jr.", "jrg.", "jur.", "jur.comm.fl.", "jur.dr.soc.b.l.n.", "jur.f.p.e.", "jur.fpe.", "jur.niv.", "jur.trav.brux.", "jurambt.", "jv.cass.", "jv.h.r.j.", "jv.hrj.", "jw.", "k.", "k.", "k.b.", "k.g.", "k.k.", "k.m.b.o.", "k.o.o.", "k.v.k.", "k.v.v.v.", "kadasterw.", "kaderb.", "kador.", "kbo-nr.", "kg.", "kh.", "kiesw.", "kind.bes.v.", "kkr.", "kon.", "koopv.", "kr.", "krankz.w.", "ksbel.", "kt.", "ktg.", "ktr.", "kvdm.", "kw.r.", "kymr.", "kzr.", "kzw.", "l.", "l.b.", "l.b.o.", "l.bas.", "l.c.", "l.gew.", "l.j.", "l.k.", "l.l.", "l.o.", "l.p.", "l.r.b.", "l.u.v.i.", "l.v.r.", "l.v.w.", "l.w.", "l'exp.-compt.b..", "l’exp.-compt.b.", "landinr.w.", "landscrt.", "lat.", "law.ed.", "lett.", "levensverz.", "lgrs.", "lidw.", "limb.rechtsl.", "lit.", "litt.", "liw.", "liwet.", "lk.", "ll.", "ll.(l.)l.r.", "loonw.", "losbl.", "ltd.", "luchtv.", "luchtv.w.", "m.", "m.", "not.", "m.a.v.o.", "m.a.w.", "m.b.", "m.b.o.", "m.b.r.", "m.b.t.", "m.d.g.o.", "m.e.a.o.", "m.e.r.", "m.h.", "m.h.d.", "m.i.v.", "m.j.t.", "m.k.", "m.m.", "m.m.a.", "m.m.h.h.", "m.m.v.", "m.n.", "m.not.fisc.", "m.nt.", "m.o.", "m.r.", "m.s.a.", "m.u.p.", "m.v.a.", "m.v.h.n.", "m.v.t.", "m.z.", "maatr.teboekgest.luchtv.", "maced.", "mand.", "max.", "mbl.not.", "me.", "med.", "med.", "v.b.o.", "med.b.u.f.r.", "med.bufr.", "med.vbo.", "meerv.", "meetbr.w.", "mej.", "mevr.", "mém.adm.", "mgr.", "mgrs.", "mhd.", "mi.verantw.", "mil.", "mil.bed.", "mil.ger.", "min.", "min.", "aanbev.", "min.", "circ.", "min.", "fin.", "min.j.omz.", "min.just.circ.", "mitt.", "mln.", "mnd.", "mod.", "mon.", "mouv.comm.", "mr.", "ms.", "muz.", "mv.", "n.", "chr.", "n.a.", "n.a.g.", "n.a.v.", "n.b.", "n.c.", "n.chr.", "n.d.", "n.d.r.", "n.e.a.", "n.g.", "n.h.b.c.", "n.j.", "n.j.b.", "n.j.w.", "n.l.", "n.m.", "n.m.m.", "n.n.", "n.n.b.", "n.n.g.", "n.n.k.", "n.o.m.", "n.o.t.k.", "n.rapp.", "n.tijd.pol.", "n.v.", "n.v.d.r.", "n.v.d.v.", "n.v.o.b.", "n.v.t.", "nat.besch.w.", "nat.omb.", "nat.pers.", "ned.", "ned.cult.r.", "neg.verkl.", "nhd.", "wisk.", "njcm-bull.", "nl.", "nnd.", "no.", "not.fisc.m.", "not.w.", "not.wet.", "nr.", "nrs.", "nste.", "nt.", "numism.", "o.", "o.a.", "o.b.", "o.c.", "o.g.", "o.g.v.", "o.i.", "o.i.d.", "o.m.", "o.o.", "o.o.d.", "o.o.v.", "o.p.", "o.r.", "o.regl.", "o.s.", "o.t.s.", "o.t.t.", "o.t.t.t.", "o.t.t.z.", "o.tk.t.", "o.v.t.", "o.v.t.t.", "o.v.tk.t.", "o.v.v.", "ob.", "obsv.", "octr.", "octr.gem.regl.", "octr.regl.", "oe.", "off.pol.", "ofra.", "ohd.", "omb.", "omnil.", "omz.", "on.ww.", "onderr.", "onfrank.", "onteig.w.", "ontw.", "b.w.", "onuitg.", "onz.", "oorl.w.", "op.cit.", "opin.pa.", "opm.", "or.", "ord.br.", "ord.gem.", "ors.", "orth.", "os.", "osm.", "ov.", "ov.w.i.", "ov.w.ii.", "ov.ww.", "overg.w.", "overw.", "ovkst.", "oz.", "p.", "p.a.", "p.a.o.", "p.b.o.", "p.e.", "p.g.", "p.j.", "p.m.", "p.m.a.", "p.o.", "p.o.j.t.", "p.p.", "p.v.", "p.v.s.", "pachtw.", "pag.", "pan.", "pand.b.", "pand.pér.", "parl.gesch.", "parl.gesch.", "inv.", "parl.st.", "part.arb.", "pas.", "pasin.", "pat.", "pb.c.", "pb.l.", "pct.", "pens.", "pensioenverz.", "per.ber.i.b.r.", "per.ber.ibr.", "pers.", "st.", "pft.", "pk.", "pktg.", "plv.", "po.", "pol.", "pol.off.", "pol.r.", "pol.w.", "postbankw.", "postw.", "pp.", "pr.", "preadv.", "pres.", "prf.", "prft.", "prg.", "prijz.w.", "proc.", "procesregl.", "prof.", "prot.", "prov.", "prov.b.", "prov.instr.h.m.g.", "prov.regl.", "prov.verord.", "prov.w.", "publ.", "pun.", "pw.", "q.b.d.", "q.e.d.", "q.q.", "q.r.", "r.", "r.a.b.g.", "r.a.c.e.", "r.a.j.b.", "r.b.d.c.", "r.b.d.i.", "r.b.s.s.", "r.c.", "r.c.b.", "r.c.d.c.", "r.c.j.b.", "r.c.s.j.", "r.cass.", "r.d.c.", "r.d.i.", "r.d.i.d.c.", "r.d.j.b.", "r.d.j.p.", "r.d.p.c.", "r.d.s.", "r.d.t.i.", "r.e.", "r.f.s.v.p.", "r.g.a.r.", "r.g.c.f.", "r.g.d.c.", "r.g.f.", "r.g.z.", "r.h.a.", "r.i.c.", "r.i.d.a.", "r.i.e.j.", "r.i.n.", "r.i.s.a.", "r.j.d.a.", "r.j.i.", "r.k.", "r.l.", "r.l.g.b.", "r.med.", "r.med.rechtspr.", "r.n.b.", "r.o.", "r.ov.", "r.p.", "r.p.d.b.", "r.p.o.t.", "r.p.r.j.", "r.p.s.", "r.r.d.", "r.r.s.", "r.s.", "r.s.v.p.", "r.stvb.", "r.t.d.f.", "r.t.d.h.", "r.t.l.", "r.trim.dr.eur.", "r.v.a.", "r.verkb.", "r.w.", "r.w.d.", "rap.ann.c.a.", "rap.ann.c.c.", "rap.ann.c.e.", "rap.ann.c.s.j.", "rap.ann.ca.", "rap.ann.cass.", "rap.ann.cc.", "rap.ann.ce.", "rap.ann.csj.", "rapp.", "rb.", "rb.kh.", "rdn.", "rdnr.", "re.pers.", "rec.", "rec.c.i.j.", "rec.c.j.c.e.", "rec.cij.", "rec.cjce.", "rec.gén.enr.not.", "rechtsk.t.", "rechtspl.zeem.", "rechtspr.arb.br.", "rechtspr.b.f.e.", "rechtspr.bfe.", "rechtspr.soc.r.b.l.n.", "recl.reg.", "rect.", "red.", "reg.", "reg.huiz.bew.", "reg.w.", "registr.w.", "regl.", "regl.", "r.v.k.", "regl.besl.", "regl.onderr.", "regl.r.t.", "rep.", "rép.fisc.", "rép.not.", "rep.r.j.", "rep.rj.", "req.", "res.", "resp.", "rev.", "rev.", "comp.", "rev.", "trim.", "civ.", "rev.", "trim.", "comm.", "rev.acc.trav.", "rev.adm.", "rev.b.compt.", "rev.b.dr.const.", "rev.b.dr.intern.", "rev.b.séc.soc.", "rev.banc.fin.", "rev.comm.", "rev.cons.prud.", "rev.dr.b.", "rev.dr.commun.", "rev.dr.étr.", "rev.dr.fam.", "rev.dr.intern.comp.", "rev.dr.mil.", "rev.dr.min.", "rev.dr.pén.", "rev.dr.pén.mil.", "rev.dr.rur.", "rev.dr.u.l.b.", "rev.dr.ulb.", "rev.exp.", "rev.faill.", "rev.fisc.", "rev.gd.", "rev.hist.dr.", "rev.i.p.c.", "rev.ipc.", "rev.not.b.", "rev.prat.dr.comm.", "rev.prat.not.b.", "rev.prat.soc.", "rev.rec.", "rev.rw.", "rev.trav.", "rev.trim.d.h.", "rev.trim.dr.fam.", "rev.urb.", "richtl.", "riv.dir.int.", "riv.dir.int.priv.proc.", "rk.", "rln.", "roln.", "rom.", "rondz.", "rov.", "rtl.", "rubr.", "ruilv.wet.", "rv.verdr.", "rvkb.", "s.", "s.", "s.a.", "s.b.n.", "s.ct.", "s.d.", "s.e.c.", "s.e.et.o.", "s.e.w.", "s.exec.rept.", "s.hrg.", "s.j.b.", "s.l.", "s.l.e.a.", "s.l.n.d.", "s.p.a.", "s.s.", "s.t.", "s.t.b.", "s.v.", "s.v.p.", "samenw.", "sc.", "sch.", "scheidsr.uitspr.", "schepel.besl.", "sec.", "secr.comm.", "secr.gen.", "sect.soc.", "sess.", "cas.", "sir.", "soc.", "best.", "soc.", "handv.", "soc.", "verz.", "soc.act.", "soc.best.", "soc.kron.", "soc.r.", "soc.sw.", "soc.weg.", "sofi-nr.", "somm.", "somm.ann.", "sp.c.c.", "sr.", "ss.", "st.doc.b.c.n.a.r.", "st.doc.bcnar.", "st.vw.", "stagever.", "stas.", "stat.", "stb.", "stbl.", "stcrt.", "stud.dipl.", "su.", "subs.", "subst.", "succ.w.", "suppl.", "sv.", "sw.", "t.", "t.a.", "t.a.a.", "t.a.n.", "t.a.p.", "t.a.s.n.", "t.a.v.", "t.a.v.w.", "t.aann.", "t.acc.", "t.agr.r.", "t.app.", "t.b.b.r.", "t.b.h.", "t.b.m.", "t.b.o.", "t.b.p.", "t.b.r.", "t.b.s.", "t.b.v.", "t.bankw.", "t.belg.not.", "t.desk.", "t.e.m.", "t.e.p.", "t.f.r.", "t.fam.", "t.fin.r.", "t.g.r.", "t.g.t.", "t.g.v.", "t.gem.", "t.gez.", "t.huur.", "t.i.n.", "t.j.k.", "t.l.l.", "t.l.v.", "t.m.", "t.m.r.", "t.m.w.", "t.mil.r.", "t.mil.strafr.", "t.not.", "t.o.", "t.o.r.b.", "t.o.v.", "t.ontv.", "t.p.r.", "t.pol.", "t.r.", "t.r.g.", "t.r.o.s.", "t.r.v.", "t.s.r.", "t.strafr.", "t.t.", "t.u.", "t.v.c.", "t.v.g.", "t.v.m.r.", "t.v.o.", "t.v.v.", "t.v.v.d.b.", "t.v.w.", "t.verz.", "t.vred.", "t.vreemd.", "t.w.", "t.w.k.", "t.w.v.", "t.w.v.r.", "t.wrr.", "t.z.", "t.z.t.", "t.z.v.", "taalk.", "tar.burg.z.", "td.", "techn.", "telecomm.", "th.", "toel.", "toel.st.v.w.", "toep.", "toep.regl.", "tom.", "top.", "trans.b.", "transp.r.", "trb.", "trib.", "trib.civ.", "trib.gr.inst.", "ts.", "ts.", "best.", "ts.", "verv.", "turnh.rechtsl.", "tvpol.", "tvpr.", "tvrechtsgesch.", "tw.", "u.", "u.a.", "u.a.r.", "u.a.v.", "u.c.", "u.c.c.", "u.g.", "u.p.", "u.s.", "u.s.d.c.", "uitdr.", "uitl.w.", "uitv.besch.div.b.", "uitv.besl.", "uitv.besl.", "succ.w.", "uitv.besl.bel.rv.", "uitv.besl.l.b.", "uitv.reg.", "inv.w.", "uitv.reg.bel.d.", "uitv.reg.afd.verm.", "uitv.reg.lb.", "uitv.reg.succ.w.", "univ.", "univ.verkl.", "v.", "v.", "chr.", "v.a.", "v.a.v.", "v.c.", "v.C.", "v.Chr.", "v.chr.", "v.d.", "v.h.", "v.huw.verm.", "v.i.", "v.i.o.", "v.j.", "v.k.a.", "v.m.", "v.o.f.", "v.o.n.", "v.onderh.verpl.", "v.p.", "v.r.", "v.s.o.", "v.t.t.", "v.t.t.t.", "v.tk.t.", "v.toep.r.vert.", "v.v.b.", "v.v.g.", "v.v.t.", "v.v.t.t.", "v.v.tk.t.", "v.w.b.", "v.z.m.", "vb.", "vb.bo.", "vbb.", "vc.", "vd.", "veldw.", "ver.k.", "ver.verg.gem.", "gem.comm.", "verbr.", "verd.", "verdr.", "verdr.v.", "tek.mod.", "verenw.", "verg.", "verg.fr.gem.", "comm.", "verkl.", "verkl.herz.gw.", "verl.", "deelw.", "vern.", "verord.", "vers.r.", "versch.", "versl.c.s.w.", "versl.csw.", "vert.", "verw.", "verz.", "verz.w.", "verz.wett.besl.", "verz.wett.decr.besl.", "vgl.", "vid.", "viss.w.", "vl.parl.", "vl.r.", "vl.t.gez.", "vl.w.reg.", "vl.w.succ.", "vlg.", "vn.", "vnl.", "vnw.", "vo.", "vo.bl.", "voegw.", "vol.", "volg.", "volt.", "deelw.", "voorl.", "voorz.", "vord.w.", "vorst.d.", "vr.", "vred.", "vrg.", "vnw.", "vrijgrs.", "vs.", "vt.", "vw.", "vz.", "vzngr.", "vzr.", "w.", "w.a.", "w.b.r.", "w.c.h.", "w.conf.huw.", "w.conf.huwelijksb.", "w.consum.kr.", "w.f.r.", "w.g.", "w.gew.r.", "w.ident.pl.", "w.just.doc.", "w.kh.", "w.l.r.", "w.l.v.", "w.mil.straf.spr.", "w.n.", "w.not.ambt.", "w.o.", "w.o.d.huurcomm.", "w.o.d.k.", "w.openb.manif.", "w.parl.", "w.r.", "w.reg.", "w.succ.", "w.u.b.", "w.uitv.pl.verord.", "w.v.", "w.v.k.", "w.v.m.s.", "w.v.r.", "w.v.w.", "w.venn.", "wac.", "wd.", "wetb.", "n.v.h.", "wgb.", "winkelt.w.", "wisk.", "wka-verkl.", "wnd.", "won.w.", "woningw.", "woonr.w.", "wrr.", "wrr.ber.", "wrsch.", "ws.", "wsch.", "wsr.", "wtvb.", "ww.", "x.d.", "z.a.", "z.g.", "z.i.", "z.j.", "z.o.z.", "z.p.", "z.s.m.", "zg.", "zgn.", "zn.", "znw.", "zr.", "zr.", "ms.", "zr.ms.", "'m", "'n", "'ns", "'s", "'t", ] _exc = {} for orth in abbrevs: _exc[orth] = [{ORTH: orth}] uppered = orth.upper() capsed = orth.capitalize() for i in [uppered, capsed]: _exc[i] = [{ORTH: i}] TOKENIZER_EXCEPTIONS = update_exc(BASE_EXCEPTIONS, _exc)
24,278
14.098881
116
py
spaCy
spaCy-master/spacy/lang/pl/__init__.py
from typing import Callable, Optional from thinc.api import Model from ...language import BaseDefaults, Language from ..tokenizer_exceptions import BASE_EXCEPTIONS from .lemmatizer import PolishLemmatizer from .lex_attrs import LEX_ATTRS from .punctuation import TOKENIZER_INFIXES, TOKENIZER_PREFIXES, TOKENIZER_SUFFIXES from .stop_words import STOP_WORDS TOKENIZER_EXCEPTIONS = { exc: val for exc, val in BASE_EXCEPTIONS.items() if not exc.endswith(".") } class PolishDefaults(BaseDefaults): tokenizer_exceptions = TOKENIZER_EXCEPTIONS prefixes = TOKENIZER_PREFIXES infixes = TOKENIZER_INFIXES suffixes = TOKENIZER_SUFFIXES lex_attr_getters = LEX_ATTRS stop_words = STOP_WORDS class Polish(Language): lang = "pl" Defaults = PolishDefaults @Polish.factory( "lemmatizer", assigns=["token.lemma"], default_config={ "model": None, "mode": "pos_lookup", "overwrite": False, "scorer": {"@scorers": "spacy.lemmatizer_scorer.v1"}, }, default_score_weights={"lemma_acc": 1.0}, ) def make_lemmatizer( nlp: Language, model: Optional[Model], name: str, mode: str, overwrite: bool, scorer: Optional[Callable], ): return PolishLemmatizer( nlp.vocab, model, name, mode=mode, overwrite=overwrite, scorer=scorer ) __all__ = ["Polish"]
1,358
23.267857
82
py
spaCy
spaCy-master/spacy/lang/pl/examples.py
""" Example sentences to test spaCy and its language models. >>> from spacy.lang.pl.examples import sentences >>> docs = nlp.pipe(sentences) """ sentences = [ "Poczuł przyjemną woń mocnej kawy.", "Istnieje wiele dróg oddziaływania substancji psychoaktywnej na układ nerwowy.", "Powitał mnie biało-czarny kot, płosząc siedzące na płocie trzy dorodne dudki.", "Nowy abonament pod lupą Komisji Europejskiej", "Czy w ciągu ostatnich 48 godzin spożyłeś leki zawierające paracetamol?", "Kto ma ochotę zapoznać się z innymi niż w książkach przygodami Muminków i ich przyjaciół, temu polecam komiks Tove Jansson „Muminki i morze”.", ]
654
37.529412
148
py
spaCy
spaCy-master/spacy/lang/pl/lemmatizer.py
from typing import Dict, List, Tuple from ...pipeline import Lemmatizer from ...tokens import Token class PolishLemmatizer(Lemmatizer): # This lemmatizer implements lookup lemmatization based on the Morfeusz # dictionary (morfeusz.sgjp.pl/en) by Institute of Computer Science PAS. # It utilizes some prefix based improvements for verb and adjectives # lemmatization, as well as case-sensitive lemmatization for nouns. @classmethod def get_lookups_config(cls, mode: str) -> Tuple[List[str], List[str]]: if mode == "pos_lookup": # fmt: off required = [ "lemma_lookup_adj", "lemma_lookup_adp", "lemma_lookup_adv", "lemma_lookup_aux", "lemma_lookup_noun", "lemma_lookup_num", "lemma_lookup_part", "lemma_lookup_pron", "lemma_lookup_verb" ] # fmt: on return (required, []) else: return super().get_lookups_config(mode) def pos_lookup_lemmatize(self, token: Token) -> List[str]: string = token.text univ_pos = token.pos_ morphology = token.morph.to_dict() lookup_pos = univ_pos.lower() if univ_pos == "PROPN": lookup_pos = "noun" lookup_table = self.lookups.get_table("lemma_lookup_" + lookup_pos, {}) if univ_pos == "NOUN": return self.lemmatize_noun(string, morphology, lookup_table) if univ_pos != "PROPN": string = string.lower() if univ_pos == "ADJ": return self.lemmatize_adj(string, morphology, lookup_table) elif univ_pos == "VERB": return self.lemmatize_verb(string, morphology, lookup_table) return [lookup_table.get(string, string.lower())] def lemmatize_adj( self, string: str, morphology: dict, lookup_table: Dict[str, str] ) -> List[str]: # this method utilizes different procedures for adjectives # with 'nie' and 'naj' prefixes if string[:3] == "nie": search_string = string[3:] if search_string[:3] == "naj": naj_search_string = search_string[3:] if naj_search_string in lookup_table: return [lookup_table[naj_search_string]] if search_string in lookup_table: return [lookup_table[search_string]] if string[:3] == "naj": naj_search_string = string[3:] if naj_search_string in lookup_table: return [lookup_table[naj_search_string]] return [lookup_table.get(string, string)] def lemmatize_verb( self, string: str, morphology: dict, lookup_table: Dict[str, str] ) -> List[str]: # this method utilizes a different procedure for verbs # with 'nie' prefix if string[:3] == "nie": search_string = string[3:] if search_string in lookup_table: return [lookup_table[search_string]] return [lookup_table.get(string, string)] def lemmatize_noun( self, string: str, morphology: dict, lookup_table: Dict[str, str] ) -> List[str]: # this method is case-sensitive, in order to work # for incorrectly tagged proper names if string != string.lower(): if string.lower() in lookup_table: return [lookup_table[string.lower()]] elif string in lookup_table: return [lookup_table[string]] return [string.lower()] return [lookup_table.get(string, string)]
3,566
40
79
py
spaCy
spaCy-master/spacy/lang/pl/lex_attrs.py
from ...attrs import LIKE_NUM _num_words = [ "zero", "jeden", "dwa", "trzy", "cztery", "pięć", "sześć", "siedem", "osiem", "dziewięć", "dziesięć", "jedenaście", "dwanaście", "trzynaście", "czternaście", "pietnaście", "szesnaście", "siedemnaście", "osiemnaście", "dziewiętnaście", "dwadzieścia", "trzydzieści", "czterdzieści", "pięćdziesiąt", "szcześćdziesiąt", "siedemdziesiąt", "osiemdziesiąt", "dziewięćdziesiąt", "sto", "dwieście", "trzysta", "czterysta", "pięćset", "sześćset", "siedemset", "osiemset", "dziewięćset", "tysiąc", "milion", "miliard", "bilion", "biliard", "trylion", "tryliard", "kwadrylion", ] def like_num(text): text = text.replace(",", "").replace(".", "") if text.isdigit(): return True if text.count("/") == 1: num, denom = text.split("/") if num.isdigit() and denom.isdigit(): return True if text.lower() in _num_words: return True return False LEX_ATTRS = {LIKE_NUM: like_num}
1,152
16.469697
49
py
spaCy
spaCy-master/spacy/lang/pl/punctuation.py
from ..char_classes import ( ALPHA, ALPHA_LOWER, ALPHA_UPPER, CONCAT_QUOTES, CURRENCY, LIST_ELLIPSES, LIST_HYPHENS, LIST_ICONS, LIST_PUNCT, LIST_QUOTES, PUNCT, UNITS, ) from ..punctuation import TOKENIZER_PREFIXES as BASE_TOKENIZER_PREFIXES _quotes = CONCAT_QUOTES.replace("'", "") _prefixes = _prefixes = [ r"(długo|krótko|jedno|dwu|trzy|cztero)-" ] + BASE_TOKENIZER_PREFIXES _infixes = ( LIST_ELLIPSES + LIST_ICONS + LIST_HYPHENS + [ r"(?<=[0-9{al}])\.(?=[0-9{au}])".format(al=ALPHA, au=ALPHA_UPPER), r"(?<=[{a}])[,!?](?=[{a}])".format(a=ALPHA), r"(?<=[{a}])[:<>=\/](?=[{a}])".format(a=ALPHA), r"(?<=[{a}]),(?=[{a}])".format(a=ALPHA), r"(?<=[{a}])([{q}\)\]\(\[])(?=[\-{a}])".format(a=ALPHA, q=_quotes), ] ) _suffixes = ( ["''", "’’", r"\.", "…"] + LIST_PUNCT + LIST_QUOTES + LIST_ICONS + [ r"(?<=[0-9])\+", r"(?<=°[FfCcKk])\.", r"(?<=[0-9])(?:{c})".format(c=CURRENCY), r"(?<=[0-9])(?:{u})".format(u=UNITS), r"(?<=[0-9{al}{e}{p}(?:{q})])\.".format( al=ALPHA_LOWER, e=r"%²\-\+", q=CONCAT_QUOTES, p=PUNCT ), r"(?<=[{au}])\.".format(au=ALPHA_UPPER), ] ) TOKENIZER_PREFIXES = _prefixes TOKENIZER_INFIXES = _infixes TOKENIZER_SUFFIXES = _suffixes
1,353
22.754386
75
py
spaCy
spaCy-master/spacy/lang/pl/stop_words.py
# sources: https://github.com/bieli/stopwords/blob/master/polish.stopwords.txt and https://github.com/stopwords-iso/stopwords-pl STOP_WORDS = set( """ a aby ach acz aczkolwiek aj albo ale alez ależ ani az aż bardziej bardzo beda bede bedzie bez bo bowiem by byc byl byla byli bylo byly bym bynajmniej być był była było były będzie będą będę cala cali caly cała cały chce choć ci cie ciebie cię co cokolwiek coraz cos coś czasami czasem czemu czy czyli często daleko dla dlaczego dlatego do dobrze dokad dokąd dosc dość duzo dużo dwa dwaj dwie dwoje dzis dzisiaj dziś gdy gdyby gdyz gdyż gdzie gdziekolwiek gdzies gdzieś go godz i ich ile im inna inne inny innych iv ix iz iż ja jak jakas jakaś jakby jaki jakichs jakichś jakie jakis jakiz jakiś jakiż jakkolwiek jako jakos jakoś je jeden jedna jednak jednakze jednakże jedno jednym jedynie jego jej jemu jesli jest jestem jeszcze jezeli jeśli jeżeli juz już ją kazdy każdy kiedy kierunku kilka kilku kims kimś kto ktokolwiek ktora ktore ktorego ktorej ktory ktorych ktorym ktorzy ktos ktoś która które którego której który których którym którzy ku lecz lub ma mają mam mamy mało mi miał miedzy mimo między mna mnie mną moga mogą moi moim moj moja moje moze mozliwe mozna może możliwe można mu musi my mój na nad nam nami nas nasi nasz nasza nasze naszego naszych natomiast natychmiast nawet nia nic nich nie niech niego niej niemu nigdy nim nimi niz nią niż no o obok od ok około on ona one oni ono oraz oto owszem pan pana pani po pod podczas pomimo ponad poniewaz ponieważ powinien powinna powinni powinno poza prawie przeciez przecież przed przede przedtem przez przy raz razie roku rowniez również sam sama sie się skad skąd soba sobie sobą sposob sposób swoje są ta tak taka taki takich takie takze także tam te tego tej tel temu ten teraz też to toba tobie tobą totez toteż totobą trzeba tu tutaj twoi twoim twoj twoja twoje twym twój ty tych tylko tym tys tzw tę u vi vii viii w wam wami was wasi wasz wasza wasze we według wie wiele wielu więc więcej wlasnie wszyscy wszystkich wszystkie wszystkim wszystko wtedy wy właśnie wśród xi xii xiii xiv xv z za zaden zadna zadne zadnych zapewne zawsze zaś ze zeby znow znowu znów zostal został żaden żadna żadne żadnych że żeby""".split() )
2,268
27.721519
128
py
spaCy
spaCy-master/spacy/lang/pt/__init__.py
from ...language import BaseDefaults, Language from .lex_attrs import LEX_ATTRS from .punctuation import TOKENIZER_INFIXES, TOKENIZER_PREFIXES from .stop_words import STOP_WORDS from .syntax_iterators import SYNTAX_ITERATORS from .tokenizer_exceptions import TOKENIZER_EXCEPTIONS class PortugueseDefaults(BaseDefaults): tokenizer_exceptions = TOKENIZER_EXCEPTIONS infixes = TOKENIZER_INFIXES prefixes = TOKENIZER_PREFIXES lex_attr_getters = LEX_ATTRS syntax_iterators = SYNTAX_ITERATORS stop_words = STOP_WORDS class Portuguese(Language): lang = "pt" Defaults = PortugueseDefaults __all__ = ["Portuguese"]
644
25.875
62
py
spaCy
spaCy-master/spacy/lang/pt/examples.py
""" Example sentences to test spaCy and its language models. >>> from spacy.lang.pt.examples import sentences >>> docs = nlp.pipe(sentences) """ sentences = [ "Apple está querendo comprar uma startup do Reino Unido por 100 milhões de dólares", "Carros autônomos empurram a responsabilidade do seguro para os fabricantes." "São Francisco considera banir os robôs de entrega que andam pelas calçadas", "Londres é a maior cidade do Reino Unido", ]
464
30
88
py
spaCy
spaCy-master/spacy/lang/pt/lex_attrs.py
from ...attrs import LIKE_NUM _num_words = [ "zero", "um", "dois", "três", "tres", "quatro", "cinco", "seis", "sete", "oito", "nove", "dez", "onze", "doze", "dúzia", "dúzias", "duzia", "duzias", "treze", "catorze", "quinze", "dezasseis", "dezassete", "dezoito", "dezanove", "vinte", "trinta", "quarenta", "cinquenta", "sessenta", "setenta", "oitenta", "noventa", "cem", "cento", "duzentos", "trezentos", "quatrocentos", "quinhentos", "seicentos", "setecentos", "oitocentos", "novecentos", "mil", "milhão", "milhao", "milhões", "milhoes", "bilhão", "bilhao", "bilhões", "bilhoes", "trilhão", "trilhao", "trilhões", "trilhoes", "quadrilhão", "quadrilhao", "quadrilhões", "quadrilhoes", ] _ordinal_words = [ "primeiro", "segundo", "terceiro", "quarto", "quinto", "sexto", "sétimo", "oitavo", "nono", "décimo", "vigésimo", "trigésimo", "quadragésimo", "quinquagésimo", "sexagésimo", "septuagésimo", "octogésimo", "nonagésimo", "centésimo", "ducentésimo", "trecentésimo", "quadringentésimo", "quingentésimo", "sexcentésimo", "septingentésimo", "octingentésimo", "nongentésimo", "milésimo", "milionésimo", "bilionésimo", ] def like_num(text): if text.startswith(("+", "-", "±", "~")): text = text[1:] text = text.replace(",", "").replace(".", "").replace("º", "").replace("ª", "") if text.isdigit(): return True if text.count("/") == 1: num, denom = text.split("/") if num.isdigit() and denom.isdigit(): return True if text.lower() in _num_words: return True if text.lower() in _ordinal_words: return True return False LEX_ATTRS = {LIKE_NUM: like_num}
2,001
15.823529
83
py
spaCy
spaCy-master/spacy/lang/pt/punctuation.py
from ..punctuation import TOKENIZER_INFIXES as BASE_TOKENIZER_INFIXES from ..punctuation import TOKENIZER_PREFIXES as BASE_TOKENIZER_PREFIXES from ..punctuation import TOKENIZER_SUFFIXES as BASE_TOKENIZER_SUFFIXES _prefixes = [r"\w{1,3}\$"] + BASE_TOKENIZER_PREFIXES _suffixes = BASE_TOKENIZER_SUFFIXES _infixes = [r"(\w+-\w+(-\w+)*)"] + BASE_TOKENIZER_INFIXES TOKENIZER_PREFIXES = _prefixes TOKENIZER_SUFFIXES = _suffixes TOKENIZER_INFIXES = _infixes
456
31.642857
71
py
spaCy
spaCy-master/spacy/lang/pt/stop_words.py
STOP_WORDS = set( """ a à às área acerca ademais adeus agora ainda algo algumas alguns ali além ambas ambos antes ao aos apenas apoia apoio apontar após aquela aquelas aquele aqueles aqui aquilo as assim através atrás até aí baixo bastante bem boa bom breve cada caminho catorze cedo cento certamente certeza cima cinco coisa com como comprida comprido conhecida conhecido conselho contra contudo corrente cuja cujo custa cá da daquela daquele dar das de debaixo demais dentro depois des desde dessa desse desta deste deve devem deverá dez dezanove dezasseis dezassete dezoito diante direita disso diz dizem dizer do dois dos doze duas dá dão e é és ela elas ele eles em embora enquanto entre então era essa essas esse esses esta estado estar estará estas estava este estes esteve estive estivemos estiveram estiveste estivestes estou está estás estão eu eventual exemplo falta fará favor faz fazeis fazem fazemos fazer fazes fazia faço fez fim final foi fomos for fora foram forma foste fostes fui geral grande grandes grupo inclusive iniciar inicio ir irá isso isto já lado lhe ligado local logo longe lugar lá maior maioria maiorias mais mal mas me meio menor menos meses mesmo meu meus mil minha minhas momento muito muitos máximo mês na nada naquela naquele nas nem nenhuma nessa nesse nesta neste no nos nossa nossas nosso nossos nova novas nove novo novos num numa nunca nuns não nível nós número números o obrigada obrigado oitava oitavo oito onde ontem onze ora os ou outra outras outros para parece parte partir pegar pela pelas pelo pelos perto pode podem poder poderá podia pois ponto pontos por porquanto porque porquê portanto porém posição possivelmente posso possível pouca pouco povo primeira primeiro próprio próxima próximo puderam pôde põe põem quais qual qualquer quando quanto quarta quarto quatro que quem quer querem quero questão quieta quieto quinta quinto quinze quê relação sabe saber se segunda segundo sei seis sem sempre ser seria sete seu seus sexta sexto sim sistema sob sobre sois somente somos sou sua suas são sétima sétimo só tais tal talvez também tanta tanto tarde te tem temos tempo tendes tenho tens tentar tentaram tente tentei ter terceira terceiro teu teus teve tipo tive tivemos tiveram tiveste tivestes toda todas todo todos treze três tu tua tuas tudo tão têm um uma umas uns usa usar último vai vais valor veja vem vens ver vez vezes vinda vindo vinte você vocês vos vossa vossas vosso vossos vários vão vêm vós zero """.split() )
2,503
36.373134
91
py
spaCy
spaCy-master/spacy/lang/pt/syntax_iterators.py
from typing import Iterator, Tuple, Union from ...errors import Errors from ...symbols import NOUN, PRON, PROPN from ...tokens import Doc, Span def noun_chunks(doclike: Union[Doc, Span]) -> Iterator[Tuple[int, int, int]]: """ Detect base noun phrases from a dependency parse. Works on both Doc and Span. """ labels = [ "nsubj", "nsubj:pass", "obj", "obl", "obl:agent", "nmod", "pcomp", "appos", "ROOT", ] post_modifiers = ["flat", "flat:name", "fixed", "compound"] doc = doclike.doc # Ensure works on both Doc and Span. if not doc.has_annotation("DEP"): raise ValueError(Errors.E029) np_deps = {doc.vocab.strings.add(label) for label in labels} np_modifs = {doc.vocab.strings.add(modifier) for modifier in post_modifiers} np_label = doc.vocab.strings.add("NP") adj_label = doc.vocab.strings.add("amod") det_label = doc.vocab.strings.add("det") det_pos = doc.vocab.strings.add("DET") adp_label = doc.vocab.strings.add("ADP") conj = doc.vocab.strings.add("conj") conj_pos = doc.vocab.strings.add("CCONJ") prev_end = -1 for i, word in enumerate(doclike): if word.pos not in (NOUN, PROPN, PRON): continue # Prevent nested chunks from being produced if word.left_edge.i <= prev_end: continue if word.dep in np_deps: right_childs = list(word.rights) right_child = right_childs[0] if right_childs else None if right_child: if ( right_child.dep == adj_label ): # allow chain of adjectives by expanding to right right_end = right_child.right_edge elif ( right_child.dep == det_label and right_child.pos == det_pos ): # cut relative pronouns here right_end = right_child elif right_child.dep in np_modifs: # Check if we can expand to right right_end = word.right_edge else: right_end = word else: right_end = word prev_end = right_end.i left_index = word.left_edge.i left_index = ( left_index + 1 if word.left_edge.pos == adp_label else left_index ) yield left_index, right_end.i + 1, np_label elif word.dep == conj: head = word.head while head.dep == conj and head.head.i < head.i: head = head.head # If the head is an NP, and we're coordinated to it, we're an NP if head.dep in np_deps: prev_end = word.i left_index = word.left_edge.i # eliminate left attached conjunction left_index = ( left_index + 1 if word.left_edge.pos == conj_pos else left_index ) yield left_index, word.i + 1, np_label SYNTAX_ITERATORS = {"noun_chunks": noun_chunks}
3,088
34.918605
85
py
spaCy
spaCy-master/spacy/lang/pt/tokenizer_exceptions.py
from ...symbols import ORTH from ...util import update_exc from ..tokenizer_exceptions import BASE_EXCEPTIONS _exc = {} for orth in [ "Adm.", "Art.", "art.", "Av.", "av.", "Cia.", "dom.", "Dr.", "dr.", "e.g.", "E.g.", "E.G.", "e/ou", "ed.", "eng.", "etc.", "Fund.", "Gen.", "Gov.", "i.e.", "I.e.", "I.E.", "Inc.", "Jr.", "km/h", "Ltd.", "Mr.", "p.m.", "Ph.D.", "Rep.", "Rev.", "S/A", "Sen.", "Sr.", "sr.", "Sra.", "sra.", "vs.", "tel.", "pág.", "pag.", ]: _exc[orth] = [{ORTH: orth}] TOKENIZER_EXCEPTIONS = update_exc(BASE_EXCEPTIONS, _exc)
714
12
56
py
spaCy
spaCy-master/spacy/lang/ro/__init__.py
from ...language import BaseDefaults, Language from .lex_attrs import LEX_ATTRS from .punctuation import TOKENIZER_INFIXES, TOKENIZER_PREFIXES, TOKENIZER_SUFFIXES from .stop_words import STOP_WORDS from .tokenizer_exceptions import TOKENIZER_EXCEPTIONS # Lemma data note: # Original pairs downloaded from http://www.lexiconista.com/datasets/lemmatization/ # Replaced characters using cedillas with the correct ones (ș and ț) class RomanianDefaults(BaseDefaults): tokenizer_exceptions = TOKENIZER_EXCEPTIONS prefixes = TOKENIZER_PREFIXES suffixes = TOKENIZER_SUFFIXES infixes = TOKENIZER_INFIXES lex_attr_getters = LEX_ATTRS stop_words = STOP_WORDS class Romanian(Language): lang = "ro" Defaults = RomanianDefaults __all__ = ["Romanian"]
776
27.777778
83
py
spaCy
spaCy-master/spacy/lang/ro/examples.py
""" Example sentences to test spaCy and its language models. >>> from spacy.lang.ro import Romanian >>> from spacy.lang.ro.examples import sentences >>> nlp = Romanian() >>> docs = nlp.pipe(sentences) """ sentences = [ "Apple plănuiește să cumpere o companie britanică pentru un miliard de dolari", "Municipalitatea din San Francisco ia în calcul interzicerea roboților curieri pe trotuar", "Londra este un oraș mare în Regatul Unit", "Unde ești?", "Cine este președintele Franței?", "Care este capitala Statelor Unite?", "Când s-a născut Barack Obama?", ]
588
28.45
95
py
spaCy
spaCy-master/spacy/lang/ro/lex_attrs.py
from ...attrs import LIKE_NUM _num_words = set( """ zero unu doi două trei patru cinci șase șapte opt nouă zece unsprezece doisprezece douăsprezece treisprezece patrusprezece cincisprezece șaisprezece șaptesprezece optsprezece nouăsprezece douăzeci treizeci patruzeci cincizeci șaizeci șaptezeci optzeci nouăzeci sută mie milion miliard bilion trilion cvadrilion catralion cvintilion sextilion septilion enșpemii """.split() ) _ordinal_words = set( """ primul doilea treilea patrulea cincilea șaselea șaptelea optulea nouălea zecelea prima doua treia patra cincia șasea șaptea opta noua zecea unsprezecelea doisprezecelea treisprezecelea patrusprezecelea cincisprezecelea șaisprezecelea șaptesprezecelea optsprezecelea nouăsprezecelea unsprezecea douăsprezecea treisprezecea patrusprezecea cincisprezecea șaisprezecea șaptesprezecea optsprezecea nouăsprezecea douăzecilea treizecilea patruzecilea cincizecilea șaizecilea șaptezecilea optzecilea nouăzecilea sutălea douăzecea treizecea patruzecea cincizecea șaizecea șaptezecea optzecea nouăzecea suta miilea mielea mia milionulea milioana miliardulea miliardelea miliarda enșpemia """.split() ) def like_num(text): if text.startswith(("+", "-", "±", "~")): text = text[1:] text = text.replace(",", "").replace(".", "") if text.isdigit(): return True if text.count("/") == 1: num, denom = text.split("/") if num.isdigit() and denom.isdigit(): return True if text.lower() in _num_words: return True if text.lower() in _ordinal_words: return True return False LEX_ATTRS = {LIKE_NUM: like_num}
1,642
37.209302
141
py
spaCy
spaCy-master/spacy/lang/ro/punctuation.py
import itertools from ..char_classes import ( ALPHA, ALPHA_LOWER, ALPHA_UPPER, CONCAT_QUOTES, CURRENCY, LIST_CURRENCY, LIST_ELLIPSES, LIST_ICONS, LIST_PUNCT, LIST_QUOTES, PUNCT, ) _list_icons = [x for x in LIST_ICONS if x != "°"] _list_icons = [x.replace("\\u00B0", "") for x in _list_icons] _ro_variants = { "Ă": ["Ă", "A"], "Â": ["Â", "A"], "Î": ["Î", "I"], "Ș": ["Ș", "Ş", "S"], "Ț": ["Ț", "Ţ", "T"], } def _make_ro_variants(tokens): variants = [] for token in tokens: upper_token = token.upper() upper_char_variants = [_ro_variants.get(c, [c]) for c in upper_token] upper_variants = ["".join(x) for x in itertools.product(*upper_char_variants)] for variant in upper_variants: variants.extend([variant, variant.lower(), variant.title()]) return sorted(list(set(variants))) # UD_Romanian-RRT closed class prefixes # POS: ADP|AUX|CCONJ|DET|NUM|PART|PRON|SCONJ _ud_rrt_prefixes = [ "a-", "c-", "ce-", "cu-", "d-", "de-", "dintr-", "e-", "făr-", "i-", "l-", "le-", "m-", "mi-", "n-", "ne-", "p-", "pe-", "prim-", "printr-", "s-", "se-", "te-", "v-", "într-", "ș-", "și-", "ți-", ] _ud_rrt_prefix_variants = _make_ro_variants(_ud_rrt_prefixes) # UD_Romanian-RRT closed class suffixes without NUM # POS: ADP|AUX|CCONJ|DET|PART|PRON|SCONJ _ud_rrt_suffixes = [ "-a", "-aceasta", "-ai", "-al", "-ale", "-alta", "-am", "-ar", "-astea", "-atâta", "-au", "-aș", "-ați", "-i", "-ilor", "-l", "-le", "-lea", "-mea", "-meu", "-mi", "-mă", "-n", "-ndărătul", "-ne", "-o", "-oi", "-or", "-s", "-se", "-si", "-te", "-ul", "-ului", "-un", "-uri", "-urile", "-urilor", "-veți", "-vă", "-ăștia", "-și", "-ți", ] _ud_rrt_suffix_variants = _make_ro_variants(_ud_rrt_suffixes) _prefixes = ( ["§", "%", "=", "—", "–", r"\+(?![0-9])"] + _ud_rrt_prefix_variants + LIST_PUNCT + LIST_ELLIPSES + LIST_QUOTES + LIST_CURRENCY + LIST_ICONS ) _suffixes = ( _ud_rrt_suffix_variants + LIST_PUNCT + LIST_ELLIPSES + LIST_QUOTES + _list_icons + ["—", "–"] + [ r"(?<=[0-9])\+", r"(?<=°[FfCcKk])\.", r"(?<=[0-9])(?:{c})".format(c=CURRENCY), r"(?<=[0-9{al}{e}{p}(?:{q})])\.".format( al=ALPHA_LOWER, e=r"%²\-\+", q=CONCAT_QUOTES, p=PUNCT ), r"(?<=[{au}][{au}])\.".format(au=ALPHA_UPPER), ] ) _infixes = ( LIST_ELLIPSES + _list_icons + [ r"(?<=[0-9])[+\*^](?=[0-9-])", r"(?<=[{al}{q}])\.(?=[{au}{q}])".format( al=ALPHA_LOWER, au=ALPHA_UPPER, q=CONCAT_QUOTES ), r"(?<=[{a}]),(?=[{a}])".format(a=ALPHA), r"(?<=[{a}0-9])[:<>=](?=[{a}])".format(a=ALPHA), ] ) TOKENIZER_PREFIXES = _prefixes TOKENIZER_SUFFIXES = _suffixes TOKENIZER_INFIXES = _infixes
3,113
17.210526
86
py
spaCy
spaCy-master/spacy/lang/ro/stop_words.py
# Source: https://github.com/stopwords-iso/stopwords-ro STOP_WORDS = set( """ a abia acea aceasta această aceea aceeasi aceeași acei aceia acel acela acelasi același acele acelea acest acesta aceste acestea acestei acestia acestui aceşti aceştia acolo acord acum adica adică ai aia aibă aici aiurea al ala alaturi ale alea alt alta altceva altcineva alte altfel alti altii altul alături am anume apoi apai apăi ar are as asa asemenea asta astazi astea astfel astăzi asupra atare atat atata atatea atatia ati atit atita atitea atitia atunci au avea avem aveţi aveți avut azi aş aşadar aţi aș așadar ați b ba bine bucur bună c ca cam cand capat care careia carora caruia cat catre caut ce cea ceea cei ceilalti cel cele celor ceva chiar ci cinci cind cine cineva cit cita cite citeva citi citiva conform contra cu cui cum cumva curând curînd când cât câte câtva câţi câți cînd cît cîte cîtva cîţi cîți că căci cărei căror cărora cărui căruia către d da daca dacă dar dat datorită dată dau de deasupra deci decit degraba deja deoarece departe desi despre deşi deși din dinaintea dincolo dincoace dintr dintr- dintre doar doi doilea două drept dupa după dă deunaseara deunăseară deunazi deunăzi e ea ei el ele era eram este eu exact eşti ești f face fara fata fel fi fie fiecare fii fim fiu fiţi fiți foarte fost frumos fără g geaba graţie grație h i ia iar ieri ii il imi in inainte inapoi inca incotro incit insa intr intre isi iti j k l la le li lor lui lângă lîngă m ma mai mare macar măcar mata matale mea mei mele mereu meu mi mie mine mod mult multa multe multi multă mulţi mulţumesc mulți mulțumesc mâine mîine mă n na ne neincetat neîncetat nevoie ni nici nicidecum nicidecat nicidecât niciodata niciodată nicăieri nimeni nimeri nimic niste nişte niște noastre noastră noi noroc nostri nostru nou noua nouă noştri noștri nu numai o odata odată odinioara odinioară opt or ori oricare orice oricine oricum oricând oricât oricînd oricît oriunde p pai păi parca parcă patra patru patrulea pe pentru peste pic pina plus poate pot prea prima primul prin printr- printre putini puţin puţina puţină până pînă r rog s sa sa-mi sa-ti sai sale sau se si sint sintem spate spre sub sunt suntem sunteţi sunteți sus sută sînt sîntem sînteţi sînteți să săi său t ta tale te ti timp tine toata toate toată tocmai tot toti totul totusi totuşi totuși toţi toți trei treia treilea tu tuturor tăi tău u ul ului un una unde undeva unei uneia unele uneori unii unor unora unu unui unuia unul v va vai vi voastre voastră voi vom vor vostru vouă voştri voștri vreme vreo vreun vă x z zece zero zi zice îi îl îmi împotriva în înainte înaintea încotro încât încît între întrucât întrucît îţi îți ăla ălea ăsta ăstea ăştia ăștia şapte şase şi ştiu ţi ţie șapte șase și știu ți ție """.split() )
2,777
4.556
55
py
spaCy
spaCy-master/spacy/lang/ro/tokenizer_exceptions.py
from ...symbols import ORTH from ...util import update_exc from ..tokenizer_exceptions import BASE_EXCEPTIONS from .punctuation import _make_ro_variants _exc = {} # Source: https://en.wiktionary.org/wiki/Category:Romanian_abbreviations for orth in [ "1-a", "2-a", "3-a", "4-a", "5-a", "6-a", "7-a", "8-a", "9-a", "10-a", "11-a", "12-a", "1-ul", "2-lea", "3-lea", "4-lea", "5-lea", "6-lea", "7-lea", "8-lea", "9-lea", "10-lea", "11-lea", "12-lea", "d-voastră", "dvs.", "ing.", "dr.", "Rom.", "str.", "nr.", "etc.", "d.p.d.v.", "dpdv", "șamd.", "ș.a.m.d.", # below: from UD_Romanian-RRT: "A.c.", "A.f.", "A.r.", "Al.", "Art.", "Aug.", "Bd.", "Dem.", "Dr.", "Fig.", "Fr.", "Gh.", "Gr.", "Lt.", "Nr.", "Obs.", "Prof.", "Sf.", "a.m.", "a.r.", "alin.", "art.", "d-l", "d-lui", "d-nei", "ex.", "fig.", "ian.", "lit.", "lt.", "p.a.", "p.m.", "pct.", "prep.", "sf.", "tel.", "univ.", "îngr.", "într-adevăr", "Șt.", "ș.a.", ]: # note: does not distinguish capitalized-only exceptions from others for variant in _make_ro_variants([orth]): _exc[variant] = [{ORTH: variant}] TOKENIZER_EXCEPTIONS = update_exc(BASE_EXCEPTIONS, _exc)
1,452
14.135417
72
py
spaCy
spaCy-master/spacy/lang/ru/__init__.py
from typing import Callable, Optional from thinc.api import Model from ...language import BaseDefaults, Language from ..punctuation import ( COMBINING_DIACRITICS_TOKENIZER_INFIXES, COMBINING_DIACRITICS_TOKENIZER_SUFFIXES, ) from .lemmatizer import RussianLemmatizer from .lex_attrs import LEX_ATTRS from .stop_words import STOP_WORDS from .tokenizer_exceptions import TOKENIZER_EXCEPTIONS class RussianDefaults(BaseDefaults): tokenizer_exceptions = TOKENIZER_EXCEPTIONS lex_attr_getters = LEX_ATTRS stop_words = STOP_WORDS suffixes = COMBINING_DIACRITICS_TOKENIZER_SUFFIXES infixes = COMBINING_DIACRITICS_TOKENIZER_INFIXES class Russian(Language): lang = "ru" Defaults = RussianDefaults @Russian.factory( "lemmatizer", assigns=["token.lemma"], default_config={ "model": None, "mode": "pymorphy3", "overwrite": False, "scorer": {"@scorers": "spacy.lemmatizer_scorer.v1"}, }, default_score_weights={"lemma_acc": 1.0}, ) def make_lemmatizer( nlp: Language, model: Optional[Model], name: str, mode: str, overwrite: bool, scorer: Optional[Callable], ): return RussianLemmatizer( nlp.vocab, model, name, mode=mode, overwrite=overwrite, scorer=scorer ) __all__ = ["Russian"]
1,306
23.203704
77
py
spaCy
spaCy-master/spacy/lang/ru/examples.py
""" Example sentences to test spaCy and its language models. >>> from spacy.lang.ru.examples import sentences >>> docs = nlp.pipe(sentences) """ sentences = [ # Translations from English: "Apple рассматривает возможность покупки стартапа из Соединённого Королевства за $1 млрд", "Беспилотные автомобили перекладывают страховую ответственность на производителя", "В Сан-Франциско рассматривается возможность запрета роботов-курьеров, которые перемещаются по тротуару", "Лондон — это большой город в Соединённом Королевстве", # Native Russian sentences: # Colloquial: "Да, нет, наверное!", # Typical polite refusal "Обратите внимание на необыкновенную красоту этого города-героя Москвы, столицы нашей Родины!", # From a tour guide speech # Examples of Bookish Russian: # Quote from "The Golden Calf" "Рио-де-Жанейро — это моя мечта, и не смейте касаться её своими грязными лапами!", # Quotes from "Ivan Vasilievich changes his occupation" "Ты пошто боярыню обидел, смерд?!!", "Оставь меня, старушка, я в печали!", # Quotes from Dostoevsky: "Уж коли я, такой же, как и ты, человек грешный, над тобой умилился и пожалел тебя, кольми паче бог", "В мечтах я нередко, говорит, доходил до страстных помыслов о служении человечеству и может быть действительно пошел бы на крест за людей, если б это вдруг как-нибудь потребовалось, а между тем я двух дней не в состоянии прожить ни с кем в одной комнате, о чем знаю из опыта", "Зато всегда так происходило, что чем более я ненавидел людей в частности, тем пламеннее становилась любовь моя к человечеству вообще", # Quotes from Chekhov: "Ненужные дела и разговоры всё об одном отхватывают на свою долю лучшую часть времени, лучшие силы, и в конце концов остается какая-то куцая, бескрылая жизнь, какая-то чепуха, и уйти и бежать нельзя, точно сидишь в сумасшедшем доме или в арестантских ротах!", # Quotes from Turgenev: "Нравится тебе женщина, старайся добиться толку; а нельзя — ну, не надо, отвернись — земля не клином сошлась", "Узенькое местечко, которое я занимаю, до того крохотно в сравнении с остальным пространством, где меня нет и где дела до меня нет; и часть времени, которую мне удастся прожить, так ничтожна перед вечностью, где меня не было и не будет...", # Quotes from newspapers: # Komsomolskaya Pravda: "На заседании президиума правительства Москвы принято решение присвоить статус инвестиционного приоритетного проекта города Москвы киностудии Союзмультфильм", "Глава Минобороны Сергей Шойгу заявил, что обстановка на этом стратегическом направлении требует непрерывного совершенствования боевого состава войск", # Argumenty i Facty: "На реплику лже-Говина — дескать, он (Волков) будет лучшим революционером — Стамп с энтузиазмом ответил: Непременно!", ]
2,840
68.292683
280
py
spaCy
spaCy-master/spacy/lang/ru/lemmatizer.py
from typing import Callable, Dict, List, Optional, Tuple from thinc.api import Model from ...pipeline import Lemmatizer from ...pipeline.lemmatizer import lemmatizer_score from ...symbols import POS from ...tokens import Token from ...vocab import Vocab PUNCT_RULES = {"«": '"', "»": '"'} class RussianLemmatizer(Lemmatizer): def __init__( self, vocab: Vocab, model: Optional[Model], name: str = "lemmatizer", *, mode: str = "pymorphy3", overwrite: bool = False, scorer: Optional[Callable] = lemmatizer_score, ) -> None: if mode in {"pymorphy2", "pymorphy2_lookup"}: try: from pymorphy2 import MorphAnalyzer except ImportError: raise ImportError( "The lemmatizer mode 'pymorphy2' requires the " "pymorphy2 library and dictionaries. Install them with: " "pip install pymorphy2" "# for Ukrainian dictionaries:" "pip install pymorphy2-dicts-uk" ) from None if getattr(self, "_morph", None) is None: self._morph = MorphAnalyzer(lang="ru") elif mode in {"pymorphy3", "pymorphy3_lookup"}: try: from pymorphy3 import MorphAnalyzer except ImportError: raise ImportError( "The lemmatizer mode 'pymorphy3' requires the " "pymorphy3 library and dictionaries. Install them with: " "pip install pymorphy3" "# for Ukrainian dictionaries:" "pip install pymorphy3-dicts-uk" ) from None if getattr(self, "_morph", None) is None: self._morph = MorphAnalyzer(lang="ru") super().__init__( vocab, model, name, mode=mode, overwrite=overwrite, scorer=scorer ) def _pymorphy_lemmatize(self, token: Token) -> List[str]: string = token.text univ_pos = token.pos_ morphology = token.morph.to_dict() if univ_pos == "PUNCT": return [PUNCT_RULES.get(string, string)] if univ_pos not in ("ADJ", "DET", "NOUN", "NUM", "PRON", "PROPN", "VERB"): return self._pymorphy_lookup_lemmatize(token) analyses = self._morph.parse(string) filtered_analyses = [] for analysis in analyses: if not analysis.is_known: # Skip suggested parse variant for unknown word for pymorphy continue analysis_pos, _ = oc2ud(str(analysis.tag)) if ( analysis_pos == univ_pos or (analysis_pos in ("NOUN", "PROPN") and univ_pos in ("NOUN", "PROPN")) or ((analysis_pos == "PRON") and (univ_pos == "DET")) ): filtered_analyses.append(analysis) if not len(filtered_analyses): return [string.lower()] if morphology is None or (len(morphology) == 1 and POS in morphology): return list( dict.fromkeys([analysis.normal_form for analysis in filtered_analyses]) ) if univ_pos in ("ADJ", "DET", "NOUN", "PROPN"): features_to_compare = ["Case", "Number", "Gender"] elif univ_pos == "NUM": features_to_compare = ["Case", "Gender"] elif univ_pos == "PRON": features_to_compare = ["Case", "Number", "Gender", "Person"] else: # VERB features_to_compare = [ "Aspect", "Gender", "Mood", "Number", "Tense", "VerbForm", "Voice", ] analyses, filtered_analyses = filtered_analyses, [] for analysis in analyses: _, analysis_morph = oc2ud(str(analysis.tag)) for feature in features_to_compare: if ( feature in morphology and feature in analysis_morph and morphology[feature].lower() != analysis_morph[feature].lower() ): break else: filtered_analyses.append(analysis) if not len(filtered_analyses): return [string.lower()] return list( dict.fromkeys([analysis.normal_form for analysis in filtered_analyses]) ) def _pymorphy_lookup_lemmatize(self, token: Token) -> List[str]: string = token.text analyses = self._morph.parse(string) # often multiple forms would derive from the same normal form # thus check _unique_ normal forms normal_forms = set([an.normal_form for an in analyses]) if len(normal_forms) == 1: return [next(iter(normal_forms))] return [string] def pymorphy2_lemmatize(self, token: Token) -> List[str]: return self._pymorphy_lemmatize(token) def pymorphy2_lookup_lemmatize(self, token: Token) -> List[str]: return self._pymorphy_lookup_lemmatize(token) def pymorphy3_lemmatize(self, token: Token) -> List[str]: return self._pymorphy_lemmatize(token) def pymorphy3_lookup_lemmatize(self, token: Token) -> List[str]: return self._pymorphy_lookup_lemmatize(token) def oc2ud(oc_tag: str) -> Tuple[str, Dict[str, str]]: gram_map = { "_POS": { "ADJF": "ADJ", "ADJS": "ADJ", "ADVB": "ADV", "Apro": "DET", "COMP": "ADJ", # Can also be an ADV - unchangeable "CONJ": "CCONJ", # Can also be a SCONJ - both unchangeable ones "GRND": "VERB", "INFN": "VERB", "INTJ": "INTJ", "NOUN": "NOUN", "NPRO": "PRON", "NUMR": "NUM", "NUMB": "NUM", "PNCT": "PUNCT", "PRCL": "PART", "PREP": "ADP", "PRTF": "VERB", "PRTS": "VERB", "VERB": "VERB", }, "Animacy": {"anim": "Anim", "inan": "Inan"}, "Aspect": {"impf": "Imp", "perf": "Perf"}, "Case": { "ablt": "Ins", "accs": "Acc", "datv": "Dat", "gen1": "Gen", "gen2": "Gen", "gent": "Gen", "loc2": "Loc", "loct": "Loc", "nomn": "Nom", "voct": "Voc", }, "Degree": {"COMP": "Cmp", "Supr": "Sup"}, "Gender": {"femn": "Fem", "masc": "Masc", "neut": "Neut"}, "Mood": {"impr": "Imp", "indc": "Ind"}, "Number": {"plur": "Plur", "sing": "Sing"}, "NumForm": {"NUMB": "Digit"}, "Person": {"1per": "1", "2per": "2", "3per": "3", "excl": "2", "incl": "1"}, "Tense": {"futr": "Fut", "past": "Past", "pres": "Pres"}, "Variant": {"ADJS": "Brev", "PRTS": "Brev"}, "VerbForm": { "GRND": "Conv", "INFN": "Inf", "PRTF": "Part", "PRTS": "Part", "VERB": "Fin", }, "Voice": {"actv": "Act", "pssv": "Pass"}, "Abbr": {"Abbr": "Yes"}, } pos = "X" morphology = dict() unmatched = set() grams = oc_tag.replace(" ", ",").split(",") for gram in grams: match = False for categ, gmap in sorted(gram_map.items()): if gram in gmap: match = True if categ == "_POS": pos = gmap[gram] else: morphology[categ] = gmap[gram] if not match: unmatched.add(gram) while len(unmatched) > 0: gram = unmatched.pop() if gram in ("Name", "Patr", "Surn", "Geox", "Orgn"): pos = "PROPN" elif gram == "Auxt": pos = "AUX" elif gram == "Pltm": morphology["Number"] = "Ptan" return pos, morphology
7,973
35.577982
88
py
spaCy
spaCy-master/spacy/lang/ru/lex_attrs.py
from ...attrs import LIKE_NUM _num_words = list( set( """ ноль ноля нолю нолём ноле нулевой нулевого нулевому нулевым нулевом нулевая нулевую нулевое нулевые нулевых нулевыми четверть четверти четвертью четвертей четвертям четвертями четвертях треть трети третью третей третям третями третях половина половины половине половину половиной половин половинам половинами половинах половиною один одного одному одним одном первой первого первому первом первый первым первых во-первых единица единицы единице единицу единицей единиц единицам единицами единицах единицею два двумя двум двух двоих двое две второго второму второй втором вторым вторых двойка двойки двойке двойку двойкой двоек двойкам двойками двойках двойкою во-вторых оба обе обеим обеими обеих обоим обоими обоих полтора полторы полутора три третьего третьему третьем третьим третий тремя трем трех трое троих трёх тройка тройки тройке тройку тройкою троек тройкам тройками тройках тройкой троечка троечки троечке троечку троечкой троечек троечкам троечками троечках троечкой трешка трешки трешке трешку трешкой трешек трешкам трешками трешках трешкою трёшка трёшки трёшке трёшку трёшкой трёшек трёшкам трёшками трёшках трёшкою трояк трояка трояку трояком трояке трояки трояков троякам трояками трояках треха треху трехой трёха трёху трёхой втроем втроём четыре четвертого четвертому четвертом четвертый четвертым четверка четырьмя четырем четырех четверо четырёх четверым четверых вчетвером пять пятого пятому пятом пятый пятым пятью пяти пятеро пятерых пятерыми впятером пятерочка пятерочки пятерочке пятерочками пятерочкой пятерочку пятерочкой пятерочками пятёрочка пятёрочки пятёрочке пятёрочками пятёрочкой пятёрочку пятёрочкой пятёрочками пятерка пятерки пятерке пятерками пятеркой пятерку пятерками пятёрка пятёрки пятёрке пятёрками пятёркой пятёрку пятёрками пятёра пятёры пятёре пятёрами пятёрой пятёру пятёрами пятера пятеры пятере пятерами пятерой пятеру пятерами пятак пятаки пятаке пятаками пятаком пятаку пятаками шесть шестерка шестого шестому шестой шестом шестым шестью шести шестеро шестерых вшестером семь семерка седьмого седьмому седьмой седьмом седьмым семью семи семеро седьмых всемером восемь восьмерка восьмого восьмому восемью восьмой восьмом восьмым восеми восьмером восьми восьмью восьмерых ввосьмером девять девятого девятому девятка девятом девятый девятым девятью девяти девятером вдевятером девятерых вдевятером десять десятого десятому десятка десятом десятый десятым десятью десяти десятером десятых вдесятером одиннадцать одиннадцатого одиннадцатому одиннадцатом одиннадцатый одиннадцатым одиннадцатью одиннадцати одиннадцатых двенадцать двенадцатого двенадцатому двенадцатом двенадцатый двенадцатым двенадцатью двенадцати двенадцатых тринадцать тринадцатого тринадцатому тринадцатом тринадцатый тринадцатым тринадцатью тринадцати тринадцатых четырнадцать четырнадцатого четырнадцатому четырнадцатом четырнадцатый четырнадцатым четырнадцатью четырнадцати четырнадцатых пятнадцать пятнадцатого пятнадцатому пятнадцатом пятнадцатый пятнадцатым пятнадцатью пятнадцати пятнадцатых пятнарик пятнарику пятнариком пятнарики шестнадцать шестнадцатого шестнадцатому шестнадцатом шестнадцатый шестнадцатым шестнадцатью шестнадцати шестнадцатых семнадцать семнадцатого семнадцатому семнадцатом семнадцатый семнадцатым семнадцатью семнадцати семнадцатых восемнадцать восемнадцатого восемнадцатому восемнадцатом восемнадцатый восемнадцатым восемнадцатью восемнадцати восемнадцатых девятнадцать девятнадцатого девятнадцатому девятнадцатом девятнадцатый девятнадцатым девятнадцатью девятнадцати девятнадцатых двадцать двадцатого двадцатому двадцатом двадцатый двадцатым двадцатью двадцати двадцатых четвертак четвертака четвертаке четвертаку четвертаки четвертаком четвертаками тридцать тридцатого тридцатому тридцатом тридцатый тридцатым тридцатью тридцати тридцатых тридцадка тридцадку тридцадке тридцадки тридцадкой тридцадкою тридцадками тридевять тридевяти тридевятью сорок сорокового сороковому сороковом сороковым сороковой сороковых сорокет сорокета сорокету сорокете сорокеты сорокетом сорокетами сорокетам пятьдесят пятьдесятого пятьдесятому пятьюдесятью пятьдесятом пятьдесятый пятьдесятым пятидесяти пятьдесятых полтинник полтинника полтиннике полтиннику полтинники полтинником полтинниками полтинникам полтинниках пятидесятка пятидесятке пятидесятку пятидесятки пятидесяткой пятидесятками пятидесяткам пятидесятках полтос полтоса полтосе полтосу полтосы полтосом полтосами полтосам полтосах шестьдесят шестьдесятого шестьдесятому шестьюдесятью шестьдесятом шестьдесятый шестьдесятым шестидесятые шестидесяти шестьдесятых семьдесят семьдесятого семьдесятому семьюдесятью семьдесятом семьдесятый семьдесятым семидесяти семьдесятых восемьдесят восемьдесятого восемьдесятому восемьюдесятью восемьдесятом восемьдесятый восемьдесятым восемидесяти восьмидесяти восьмидесятых девяносто девяностого девяностому девяностом девяностый девяностым девяноста девяностых сто сотого сотому сотом сотен сотый сотым ста стольник стольника стольнику стольнике стольники стольником стольниками сотка сотки сотке соткой сотками соткам сотках сотня сотни сотне сотней сотнями сотням сотнях двести двумястами двухсотого двухсотому двухсотом двухсотый двухсотым двумстам двухстах двухсот триста тремястами трехсотого трехсотому трехсотом трехсотый трехсотым тремстам трехстах трехсот четыреста четырехсотого четырехсотому четырьмястами четырехсотом четырехсотый четырехсотым четыремстам четырехстах четырехсот пятьсот пятисотого пятисотому пятьюстами пятисотом пятисотый пятисотым пятистам пятистах пятисот пятисотка пятисотки пятисотке пятисоткой пятисотками пятисоткам пятисоткою пятисотках пятихатка пятихатки пятихатке пятихаткой пятихатками пятихаткам пятихаткою пятихатках пятифан пятифаны пятифане пятифаном пятифанами пятифанах шестьсот шестисотого шестисотому шестьюстами шестисотом шестисотый шестисотым шестистам шестистах шестисот семьсот семисотого семисотому семьюстами семисотом семисотый семисотым семистам семистах семисот восемьсот восемисотого восемисотому восемисотом восемисотый восемисотым восьмистами восьмистам восьмистах восьмисот девятьсот девятисотого девятисотому девятьюстами девятисотом девятисотый девятисотым девятистам девятистах девятисот тысяча тысячного тысячному тысячном тысячный тысячным тысячам тысячах тысячей тысяч тысячи тыс косарь косаря косару косарем косарями косарях косарям косарей десятитысячный десятитысячного десятитысячному десятитысячным десятитысячном десятитысячная десятитысячной десятитысячную десятитысячною десятитысячное десятитысячные десятитысячных десятитысячными двадцатитысячный двадцатитысячного двадцатитысячному двадцатитысячным двадцатитысячном двадцатитысячная двадцатитысячной двадцатитысячную двадцатитысячною двадцатитысячное двадцатитысячные двадцатитысячных двадцатитысячными тридцатитысячный тридцатитысячного тридцатитысячному тридцатитысячным тридцатитысячном тридцатитысячная тридцатитысячной тридцатитысячную тридцатитысячною тридцатитысячное тридцатитысячные тридцатитысячных тридцатитысячными сорокатысячный сорокатысячного сорокатысячному сорокатысячным сорокатысячном сорокатысячная сорокатысячной сорокатысячную сорокатысячною сорокатысячное сорокатысячные сорокатысячных сорокатысячными пятидесятитысячный пятидесятитысячного пятидесятитысячному пятидесятитысячным пятидесятитысячном пятидесятитысячная пятидесятитысячной пятидесятитысячную пятидесятитысячною пятидесятитысячное пятидесятитысячные пятидесятитысячных пятидесятитысячными шестидесятитысячный шестидесятитысячного шестидесятитысячному шестидесятитысячным шестидесятитысячном шестидесятитысячная шестидесятитысячной шестидесятитысячную шестидесятитысячною шестидесятитысячное шестидесятитысячные шестидесятитысячных шестидесятитысячными семидесятитысячный семидесятитысячного семидесятитысячному семидесятитысячным семидесятитысячном семидесятитысячная семидесятитысячной семидесятитысячную семидесятитысячною семидесятитысячное семидесятитысячные семидесятитысячных семидесятитысячными восьмидесятитысячный восьмидесятитысячного восьмидесятитысячному восьмидесятитысячным восьмидесятитысячном восьмидесятитысячная восьмидесятитысячной восьмидесятитысячную восьмидесятитысячною восьмидесятитысячное восьмидесятитысячные восьмидесятитысячных восьмидесятитысячными стотысячный стотысячного стотысячному стотысячным стотысячном стотысячная стотысячной стотысячную стотысячное стотысячные стотысячных стотысячными стотысячною миллион миллионного миллионов миллионному миллионном миллионный миллионным миллионом миллиона миллионе миллиону миллионов лям ляма лямы лямом лямами лямах лямов млн десятимиллионная десятимиллионной десятимиллионными десятимиллионный десятимиллионным десятимиллионному десятимиллионными десятимиллионную десятимиллионное десятимиллионные десятимиллионных десятимиллионною миллиард миллиардного миллиардному миллиардном миллиардный миллиардным миллиардом миллиарда миллиарде миллиарду миллиардов лярд лярда лярды лярдом лярдами лярдах лярдов млрд триллион триллионного триллионному триллионном триллионный триллионным триллионом триллиона триллионе триллиону триллионов трлн квадриллион квадриллионного квадриллионному квадриллионный квадриллионным квадриллионом квадриллиона квадриллионе квадриллиону квадриллионов квадрлн квинтиллион квинтиллионного квинтиллионному квинтиллионный квинтиллионным квинтиллионом квинтиллиона квинтиллионе квинтиллиону квинтиллионов квинтлн i ii iii iv v vi vii viii ix x xi xii xiii xiv xv xvi xvii xviii xix xx xxi xxii xxiii xxiv xxv xxvi xxvii xxvii xxix """.split() ) ) def like_num(text): if text.startswith(("+", "-", "±", "~")): text = text[1:] if text.endswith("%"): text = text[:-1] text = text.replace(",", "").replace(".", "") if text.isdigit(): return True if text.count("/") == 1: num, denom = text.split("/") if num.isdigit() and denom.isdigit(): return True if text.lower() in _num_words: return True return False LEX_ATTRS = {LIKE_NUM: like_num}
10,247
43.751092
128
py
spaCy
spaCy-master/spacy/lang/ru/stop_words.py
STOP_WORDS = set( """ а авось ага агу аж ай али алло ау ах ая б будем будет будете будешь буду будут будучи будь будьте бы был была были было быть бац без безусловно бишь благо благодаря ближайшие близко более больше будто бывает бывала бывали бываю бывают бытует в вам вами вас весь во вот все всё всего всей всем всём всеми всему всех всею всея всю вся вы ваш ваша ваше ваши вдали вдобавок вдруг ведь везде вернее взаимно взаправду видно вишь включая вместо внакладе вначале вне вниз внизу вновь вовсе возможно воистину вокруг вон вообще вопреки вперекор вплоть вполне вправду вправе впрочем впрямь вресноту вроде вряд всегда всюду всякий всякого всякой всячески вчеред г го где гораздо гав д да для до дабы давайте давно давным даже далее далеко дальше данная данного данное данной данном данному данные данный данных дану данунах даром де действительно довольно доколе доколь долго должен должна должно должны должный дополнительно другая другие другим другими других другое другой е его едим едят ее её ей ел ела ем ему емъ если ест есть ешь еще ещё ею едва ежели еле ж же з за затем зато зачем здесь значит зря и из или им ими имъ их ибо иль имеет имел имела имело именно иметь иначе иногда иным иными итак ишь й к как кем ко когда кого ком кому комья которая которого которое которой котором которому которою которую которые который которым которыми которых кто ка кабы каждая каждое каждые каждый кажется казалась казались казалось казался казаться какая какие каким какими каков какого какой какому какою касательно кой коли коль конечно короче кроме кстати ку куда л ли либо лишь любая любого любое любой любом любую любыми любых м меня мне мной мною мог моги могите могла могли могло могу могут мое моё моего моей моем моём моему моею можем может можете можешь мои мой моим моими моих мочь мою моя мы мало меж между менее меньше мимо многие много многого многое многом многому можно мол му н на нам нами нас наса наш наша наше нашего нашей нашем нашему нашею наши нашим нашими наших нашу не него нее неё ней нем нём нему нет нею ним ними них но наверняка наверху навряд навыворот над надо назад наиболее наизворот наизнанку наипаче накануне наконец наоборот наперед наперекор наподобие например напротив напрямую насилу настоящая настоящее настоящие настоящий насчет нате находиться начала начале неважно негде недавно недалеко незачем некем некогда некому некоторая некоторые некоторый некоторых некто некуда нельзя немногие немногим немного необходимо необходимости необходимые необходимым неоткуда непрерывно нередко несколько нету неужели нечего нечем нечему нечто нешто нибудь нигде ниже низко никак никакой никем никогда никого никому никто никуда ниоткуда нипочем ничего ничем ничему ничто ну нужная нужно нужного нужные нужный нужных ныне нынешнее нынешней нынешних нынче о об один одна одни одним одними одних одно одного одной одном одному одною одну он она оне они оно от оба общую обычно ого однажды однако ой около оный оп опять особенно особо особую особые откуда отнелижа отнелиже отовсюду отсюда оттого оттот оттуда отчего отчему ох очевидно очень ом п по при паче перед под подавно поди подобная подобно подобного подобные подобный подобным подобных поелику пожалуй пожалуйста позже поистине пока покамест поколе поколь покуда покудова помимо понеже поприще пор пора посему поскольку после посреди посредством потом потому потомушта похожем почему почти поэтому прежде притом причем про просто прочего прочее прочему прочими проще прям пусть р ради разве ранее рано раньше рядом с сам сама сами самим самими самих само самого самом самому саму свое своё своего своей своем своём своему своею свои свой своим своими своих свою своя себе себя собой собою самая самое самой самый самых сверх свыше се сего сей сейчас сие сих сквозь сколько скорее скоро следует слишком смогут сможет сначала снова со собственно совсем сперва спокону спустя сразу среди сродни стал стала стали стало стать суть сызнова та то ту ты ти так такая такие таким такими таких такого такое такой таком такому такою такую те тебе тебя тем теми тех тобой тобою того той только том томах тому тот тою также таки таков такова там твои твоим твоих твой твоя твоё теперь тогда тоже тотчас точно туда тут тьфу тая у уже увы уж ура ух ую ф фу х ха хе хорошо хотел хотела хотелось хотеть хоть хотя хочешь хочу хуже ч чего чем чём чему что чтобы часто чаще чей через чтоб чуть чхать чьим чьих чьё чё ш ша щ ща щас ы ых ые ый э эта эти этим этими этих это этого этой этом этому этот этою эту эдак эдакий эй эка экий этак этакий эх ю я явно явных яко якобы якоже """.split() )
4,596
40.044643
87
py
spaCy
spaCy-master/spacy/lang/ru/tokenizer_exceptions.py
from ...symbols import NORM, ORTH from ...util import update_exc from ..tokenizer_exceptions import BASE_EXCEPTIONS _exc = {} _abbrev_exc = [ # Weekdays abbreviations {ORTH: "пн", NORM: "понедельник"}, {ORTH: "вт", NORM: "вторник"}, {ORTH: "ср", NORM: "среда"}, {ORTH: "чт", NORM: "четверг"}, {ORTH: "чтв", NORM: "четверг"}, {ORTH: "пт", NORM: "пятница"}, {ORTH: "сб", NORM: "суббота"}, {ORTH: "сбт", NORM: "суббота"}, {ORTH: "вс", NORM: "воскресенье"}, {ORTH: "вскр", NORM: "воскресенье"}, {ORTH: "воскр", NORM: "воскресенье"}, # Months abbreviations {ORTH: "янв", NORM: "январь"}, {ORTH: "фев", NORM: "февраль"}, {ORTH: "февр", NORM: "февраль"}, {ORTH: "мар", NORM: "март"}, # {ORTH: "март", NORM: "март"}, {ORTH: "мрт", NORM: "март"}, {ORTH: "апр", NORM: "апрель"}, # {ORTH: "май", NORM: "май"}, {ORTH: "июн", NORM: "июнь"}, # {ORTH: "июнь", NORM: "июнь"}, {ORTH: "июл", NORM: "июль"}, # {ORTH: "июль", NORM: "июль"}, {ORTH: "авг", NORM: "август"}, {ORTH: "сен", NORM: "сентябрь"}, {ORTH: "сент", NORM: "сентябрь"}, {ORTH: "окт", NORM: "октябрь"}, {ORTH: "октб", NORM: "октябрь"}, {ORTH: "ноя", NORM: "ноябрь"}, {ORTH: "нояб", NORM: "ноябрь"}, {ORTH: "нбр", NORM: "ноябрь"}, {ORTH: "дек", NORM: "декабрь"}, ] for abbrev_desc in _abbrev_exc: abbrev = abbrev_desc[ORTH] for orth in (abbrev, abbrev.capitalize(), abbrev.upper()): _exc[orth] = [{ORTH: orth, NORM: abbrev_desc[NORM]}] _exc[orth + "."] = [{ORTH: orth + ".", NORM: abbrev_desc[NORM]}] for abbr in [ # Year slang abbreviations {ORTH: "2к15", NORM: "2015"}, {ORTH: "2к16", NORM: "2016"}, {ORTH: "2к17", NORM: "2017"}, {ORTH: "2к18", NORM: "2018"}, {ORTH: "2к19", NORM: "2019"}, {ORTH: "2к20", NORM: "2020"}, {ORTH: "2к21", NORM: "2021"}, {ORTH: "2к22", NORM: "2022"}, {ORTH: "2к23", NORM: "2023"}, {ORTH: "2к24", NORM: "2024"}, {ORTH: "2к25", NORM: "2025"}, {ORTH: "2к26", NORM: "2026"}, {ORTH: "2к27", NORM: "2027"}, {ORTH: "2к28", NORM: "2028"}, {ORTH: "2к29", NORM: "2029"}, {ORTH: "2к30", NORM: "2030"}, ]: _exc[abbr[ORTH]] = [abbr] for abbr in [ # Profession and academic titles abbreviations {ORTH: "ак.", NORM: "академик"}, {ORTH: "акад.", NORM: "академик"}, {ORTH: "д-р архитектуры", NORM: "доктор архитектуры"}, {ORTH: "д-р биол. наук", NORM: "доктор биологических наук"}, {ORTH: "д-р ветеринар. наук", NORM: "доктор ветеринарных наук"}, {ORTH: "д-р воен. наук", NORM: "доктор военных наук"}, {ORTH: "д-р геогр. наук", NORM: "доктор географических наук"}, {ORTH: "д-р геол.-минерал. наук", NORM: "доктор геолого-минералогических наук"}, {ORTH: "д-р искусствоведения", NORM: "доктор искусствоведения"}, {ORTH: "д-р ист. наук", NORM: "доктор исторических наук"}, {ORTH: "д-р культурологии", NORM: "доктор культурологии"}, {ORTH: "д-р мед. наук", NORM: "доктор медицинских наук"}, {ORTH: "д-р пед. наук", NORM: "доктор педагогических наук"}, {ORTH: "д-р полит. наук", NORM: "доктор политических наук"}, {ORTH: "д-р психол. наук", NORM: "доктор психологических наук"}, {ORTH: "д-р с.-х. наук", NORM: "доктор сельскохозяйственных наук"}, {ORTH: "д-р социол. наук", NORM: "доктор социологических наук"}, {ORTH: "д-р техн. наук", NORM: "доктор технических наук"}, {ORTH: "д-р фармацевт. наук", NORM: "доктор фармацевтических наук"}, {ORTH: "д-р физ.-мат. наук", NORM: "доктор физико-математических наук"}, {ORTH: "д-р филол. наук", NORM: "доктор филологических наук"}, {ORTH: "д-р филос. наук", NORM: "доктор философских наук"}, {ORTH: "д-р хим. наук", NORM: "доктор химических наук"}, {ORTH: "д-р экон. наук", NORM: "доктор экономических наук"}, {ORTH: "д-р юрид. наук", NORM: "доктор юридических наук"}, {ORTH: "д-р", NORM: "доктор"}, {ORTH: "д.б.н.", NORM: "доктор биологических наук"}, {ORTH: "д.г.-м.н.", NORM: "доктор геолого-минералогических наук"}, {ORTH: "д.г.н.", NORM: "доктор географических наук"}, {ORTH: "д.и.н.", NORM: "доктор исторических наук"}, {ORTH: "д.иск.", NORM: "доктор искусствоведения"}, {ORTH: "д.м.н.", NORM: "доктор медицинских наук"}, {ORTH: "д.п.н.", NORM: "доктор психологических наук"}, {ORTH: "д.пед.н.", NORM: "доктор педагогических наук"}, {ORTH: "д.полит.н.", NORM: "доктор политических наук"}, {ORTH: "д.с.-х.н.", NORM: "доктор сельскохозяйственных наук"}, {ORTH: "д.социол.н.", NORM: "доктор социологических наук"}, {ORTH: "д.т.н.", NORM: "доктор технических наук"}, {ORTH: "д.т.н", NORM: "доктор технических наук"}, {ORTH: "д.ф.-м.н.", NORM: "доктор физико-математических наук"}, {ORTH: "д.ф.н.", NORM: "доктор филологических наук"}, {ORTH: "д.филос.н.", NORM: "доктор философских наук"}, {ORTH: "д.фил.н.", NORM: "доктор филологических наук"}, {ORTH: "д.х.н.", NORM: "доктор химических наук"}, {ORTH: "д.э.н.", NORM: "доктор экономических наук"}, {ORTH: "д.э.н", NORM: "доктор экономических наук"}, {ORTH: "д.ю.н.", NORM: "доктор юридических наук"}, {ORTH: "доц.", NORM: "доцент"}, {ORTH: "и.о.", NORM: "исполняющий обязанности"}, {ORTH: "к.б.н.", NORM: "кандидат биологических наук"}, {ORTH: "к.воен.н.", NORM: "кандидат военных наук"}, {ORTH: "к.г.-м.н.", NORM: "кандидат геолого-минералогических наук"}, {ORTH: "к.г.н.", NORM: "кандидат географических наук"}, {ORTH: "к.геогр.н", NORM: "кандидат географических наук"}, {ORTH: "к.геогр.наук", NORM: "кандидат географических наук"}, {ORTH: "к.и.н.", NORM: "кандидат исторических наук"}, {ORTH: "к.иск.", NORM: "кандидат искусствоведения"}, {ORTH: "к.м.н.", NORM: "кандидат медицинских наук"}, {ORTH: "к.п.н.", NORM: "кандидат психологических наук"}, {ORTH: "к.псх.н.", NORM: "кандидат психологических наук"}, {ORTH: "к.пед.н.", NORM: "кандидат педагогических наук"}, {ORTH: "канд.пед.наук", NORM: "кандидат педагогических наук"}, {ORTH: "к.полит.н.", NORM: "кандидат политических наук"}, {ORTH: "к.с.-х.н.", NORM: "кандидат сельскохозяйственных наук"}, {ORTH: "к.социол.н.", NORM: "кандидат социологических наук"}, {ORTH: "к.с.н.", NORM: "кандидат социологических наук"}, {ORTH: "к.т.н.", NORM: "кандидат технических наук"}, {ORTH: "к.ф.-м.н.", NORM: "кандидат физико-математических наук"}, {ORTH: "к.ф.н.", NORM: "кандидат филологических наук"}, {ORTH: "к.фил.н.", NORM: "кандидат филологических наук"}, {ORTH: "к.филол.н", NORM: "кандидат филологических наук"}, {ORTH: "к.фарм.наук", NORM: "кандидат фармакологических наук"}, {ORTH: "к.фарм.н.", NORM: "кандидат фармакологических наук"}, {ORTH: "к.фарм.н", NORM: "кандидат фармакологических наук"}, {ORTH: "к.филос.наук", NORM: "кандидат философских наук"}, {ORTH: "к.филос.н.", NORM: "кандидат философских наук"}, {ORTH: "к.филос.н", NORM: "кандидат философских наук"}, {ORTH: "к.х.н.", NORM: "кандидат химических наук"}, {ORTH: "к.х.н", NORM: "кандидат химических наук"}, {ORTH: "к.э.н.", NORM: "кандидат экономических наук"}, {ORTH: "к.э.н", NORM: "кандидат экономических наук"}, {ORTH: "к.ю.н.", NORM: "кандидат юридических наук"}, {ORTH: "к.ю.н", NORM: "кандидат юридических наук"}, {ORTH: "канд. архитектуры", NORM: "кандидат архитектуры"}, {ORTH: "канд. биол. наук", NORM: "кандидат биологических наук"}, {ORTH: "канд. ветеринар. наук", NORM: "кандидат ветеринарных наук"}, {ORTH: "канд. воен. наук", NORM: "кандидат военных наук"}, {ORTH: "канд. геогр. наук", NORM: "кандидат географических наук"}, {ORTH: "канд. геол.-минерал. наук", NORM: "кандидат геолого-минералогических наук"}, {ORTH: "канд. искусствоведения", NORM: "кандидат искусствоведения"}, {ORTH: "канд. ист. наук", NORM: "кандидат исторических наук"}, {ORTH: "к.ист.н.", NORM: "кандидат исторических наук"}, {ORTH: "канд. культурологии", NORM: "кандидат культурологии"}, {ORTH: "канд. мед. наук", NORM: "кандидат медицинских наук"}, {ORTH: "канд. пед. наук", NORM: "кандидат педагогических наук"}, {ORTH: "канд. полит. наук", NORM: "кандидат политических наук"}, {ORTH: "канд. психол. наук", NORM: "кандидат психологических наук"}, {ORTH: "канд. с.-х. наук", NORM: "кандидат сельскохозяйственных наук"}, {ORTH: "канд. социол. наук", NORM: "кандидат социологических наук"}, {ORTH: "к.соц.наук", NORM: "кандидат социологических наук"}, {ORTH: "к.соц.н.", NORM: "кандидат социологических наук"}, {ORTH: "к.соц.н", NORM: "кандидат социологических наук"}, {ORTH: "канд. техн. наук", NORM: "кандидат технических наук"}, {ORTH: "канд. фармацевт. наук", NORM: "кандидат фармацевтических наук"}, {ORTH: "канд. физ.-мат. наук", NORM: "кандидат физико-математических наук"}, {ORTH: "канд. филол. наук", NORM: "кандидат филологических наук"}, {ORTH: "канд. филос. наук", NORM: "кандидат философских наук"}, {ORTH: "канд. хим. наук", NORM: "кандидат химических наук"}, {ORTH: "канд. экон. наук", NORM: "кандидат экономических наук"}, {ORTH: "канд. юрид. наук", NORM: "кандидат юридических наук"}, {ORTH: "в.н.с.", NORM: "ведущий научный сотрудник"}, {ORTH: "мл. науч. сотр.", NORM: "младший научный сотрудник"}, {ORTH: "м.н.с.", NORM: "младший научный сотрудник"}, {ORTH: "проф.", NORM: "профессор"}, {ORTH: "профессор.кафедры", NORM: "профессор кафедры"}, {ORTH: "ст. науч. сотр.", NORM: "старший научный сотрудник"}, {ORTH: "чл.-к.", NORM: "член корреспондент"}, {ORTH: "чл.-корр.", NORM: "член-корреспондент"}, {ORTH: "чл.-кор.", NORM: "член-корреспондент"}, {ORTH: "дир.", NORM: "директор"}, {ORTH: "зам. дир.", NORM: "заместитель директора"}, {ORTH: "зав. каф.", NORM: "заведующий кафедрой"}, {ORTH: "зав.кафедрой", NORM: "заведующий кафедрой"}, {ORTH: "зав. кафедрой", NORM: "заведующий кафедрой"}, {ORTH: "асп.", NORM: "аспирант"}, {ORTH: "гл. науч. сотр.", NORM: "главный научный сотрудник"}, {ORTH: "вед. науч. сотр.", NORM: "ведущий научный сотрудник"}, {ORTH: "науч. сотр.", NORM: "научный сотрудник"}, {ORTH: "к.м.с.", NORM: "кандидат в мастера спорта"}, ]: _exc[abbr[ORTH]] = [abbr] for abbr in [ # Literary phrases abbreviations {ORTH: "и т.д.", NORM: "и так далее"}, {ORTH: "и т.п.", NORM: "и тому подобное"}, {ORTH: "т.д.", NORM: "так далее"}, {ORTH: "т.п.", NORM: "тому подобное"}, {ORTH: "т.е.", NORM: "то есть"}, {ORTH: "т.к.", NORM: "так как"}, {ORTH: "в т.ч.", NORM: "в том числе"}, {ORTH: "и пр.", NORM: "и прочие"}, {ORTH: "и др.", NORM: "и другие"}, {ORTH: "т.н.", NORM: "так называемый"}, ]: _exc[abbr[ORTH]] = [abbr] for abbr in [ # Appeal to a person abbreviations {ORTH: "г-н", NORM: "господин"}, {ORTH: "г-да", NORM: "господа"}, {ORTH: "г-жа", NORM: "госпожа"}, {ORTH: "тов.", NORM: "товарищ"}, ]: _exc[abbr[ORTH]] = [abbr] for abbr in [ # Time periods abbreviations {ORTH: "до н.э.", NORM: "до нашей эры"}, {ORTH: "по н.в.", NORM: "по настоящее время"}, {ORTH: "в н.в.", NORM: "в настоящее время"}, {ORTH: "наст.", NORM: "настоящий"}, {ORTH: "наст. время", NORM: "настоящее время"}, {ORTH: "г.г.", NORM: "годы"}, {ORTH: "гг.", NORM: "годы"}, {ORTH: "т.г.", NORM: "текущий год"}, ]: _exc[abbr[ORTH]] = [abbr] for abbr in [ # Address forming elements abbreviations {ORTH: "респ.", NORM: "республика"}, {ORTH: "обл.", NORM: "область"}, {ORTH: "г.ф.з.", NORM: "город федерального значения"}, {ORTH: "а.обл.", NORM: "автономная область"}, {ORTH: "а.окр.", NORM: "автономный округ"}, {ORTH: "м.р-н", NORM: "муниципальный район"}, {ORTH: "г.о.", NORM: "городской округ"}, {ORTH: "г.п.", NORM: "городское поселение"}, {ORTH: "с.п.", NORM: "сельское поселение"}, {ORTH: "вн.р-н", NORM: "внутригородской район"}, {ORTH: "вн.тер.г.", NORM: "внутригородская территория города"}, {ORTH: "пос.", NORM: "поселение"}, {ORTH: "р-н", NORM: "район"}, {ORTH: "с/с", NORM: "сельсовет"}, {ORTH: "г.", NORM: "город"}, {ORTH: "п.г.т.", NORM: "поселок городского типа"}, {ORTH: "пгт.", NORM: "поселок городского типа"}, {ORTH: "р.п.", NORM: "рабочий поселок"}, {ORTH: "рп.", NORM: "рабочий поселок"}, {ORTH: "кп.", NORM: "курортный поселок"}, {ORTH: "гп.", NORM: "городской поселок"}, {ORTH: "п.", NORM: "поселок"}, {ORTH: "в-ки", NORM: "выселки"}, {ORTH: "г-к", NORM: "городок"}, {ORTH: "з-ка", NORM: "заимка"}, {ORTH: "п-к", NORM: "починок"}, {ORTH: "киш.", NORM: "кишлак"}, {ORTH: "п. ст.", NORM: "поселок станция"}, {ORTH: "п. ж/д ст.", NORM: "поселок при железнодорожной станции"}, {ORTH: "ж/д бл-ст", NORM: "железнодорожный блокпост"}, {ORTH: "ж/д б-ка", NORM: "железнодорожная будка"}, {ORTH: "ж/д в-ка", NORM: "железнодорожная ветка"}, {ORTH: "ж/д к-ма", NORM: "железнодорожная казарма"}, {ORTH: "ж/д к-т", NORM: "железнодорожный комбинат"}, {ORTH: "ж/д пл-ма", NORM: "железнодорожная платформа"}, {ORTH: "ж/д пл-ка", NORM: "железнодорожная площадка"}, {ORTH: "ж/д п.п.", NORM: "железнодорожный путевой пост"}, {ORTH: "ж/д о.п.", NORM: "железнодорожный остановочный пункт"}, {ORTH: "ж/д рзд.", NORM: "железнодорожный разъезд"}, {ORTH: "ж/д ст.", NORM: "железнодорожная станция"}, {ORTH: "м-ко", NORM: "местечко"}, {ORTH: "д.", NORM: "деревня"}, {ORTH: "с.", NORM: "село"}, {ORTH: "сл.", NORM: "слобода"}, {ORTH: "ст.", NORM: "станция"}, {ORTH: "ст-ца", NORM: "станица"}, {ORTH: "у.", NORM: "улус"}, {ORTH: "х.", NORM: "хутор"}, {ORTH: "рзд.", NORM: "разъезд"}, {ORTH: "зим.", NORM: "зимовье"}, {ORTH: "б-г", NORM: "берег"}, {ORTH: "ж/р", NORM: "жилой район"}, {ORTH: "кв-л", NORM: "квартал"}, {ORTH: "мкр.", NORM: "микрорайон"}, {ORTH: "ост-в", NORM: "остров"}, {ORTH: "платф.", NORM: "платформа"}, {ORTH: "п/р", NORM: "промышленный район"}, {ORTH: "р-н", NORM: "район"}, {ORTH: "тер.", NORM: "территория"}, { ORTH: "тер. СНО", NORM: "территория садоводческих некоммерческих объединений граждан", }, { ORTH: "тер. ОНО", NORM: "территория огороднических некоммерческих объединений граждан", }, {ORTH: "тер. ДНО", NORM: "территория дачных некоммерческих объединений граждан"}, {ORTH: "тер. СНТ", NORM: "территория садоводческих некоммерческих товариществ"}, {ORTH: "тер. ОНТ", NORM: "территория огороднических некоммерческих товариществ"}, {ORTH: "тер. ДНТ", NORM: "территория дачных некоммерческих товариществ"}, {ORTH: "тер. СПК", NORM: "территория садоводческих потребительских кооперативов"}, {ORTH: "тер. ОПК", NORM: "территория огороднических потребительских кооперативов"}, {ORTH: "тер. ДПК", NORM: "территория дачных потребительских кооперативов"}, {ORTH: "тер. СНП", NORM: "территория садоводческих некоммерческих партнерств"}, {ORTH: "тер. ОНП", NORM: "территория огороднических некоммерческих партнерств"}, {ORTH: "тер. ДНП", NORM: "территория дачных некоммерческих партнерств"}, {ORTH: "тер. ТСН", NORM: "территория товарищества собственников недвижимости"}, {ORTH: "тер. ГСК", NORM: "территория гаражно-строительного кооператива"}, {ORTH: "ус.", NORM: "усадьба"}, {ORTH: "тер.ф.х.", NORM: "территория фермерского хозяйства"}, {ORTH: "ю.", NORM: "юрты"}, {ORTH: "ал.", NORM: "аллея"}, {ORTH: "б-р", NORM: "бульвар"}, {ORTH: "взв.", NORM: "взвоз"}, {ORTH: "взд.", NORM: "въезд"}, {ORTH: "дор.", NORM: "дорога"}, {ORTH: "ззд.", NORM: "заезд"}, {ORTH: "км", NORM: "километр"}, {ORTH: "к-цо", NORM: "кольцо"}, {ORTH: "лн.", NORM: "линия"}, {ORTH: "мгстр.", NORM: "магистраль"}, {ORTH: "наб.", NORM: "набережная"}, {ORTH: "пер-д", NORM: "переезд"}, {ORTH: "пер.", NORM: "переулок"}, {ORTH: "пл-ка", NORM: "площадка"}, {ORTH: "пл.", NORM: "площадь"}, {ORTH: "пр-д", NORM: "проезд"}, {ORTH: "пр-к", NORM: "просек"}, {ORTH: "пр-ка", NORM: "просека"}, {ORTH: "пр-лок", NORM: "проселок"}, {ORTH: "пр-кт", NORM: "проспект"}, {ORTH: "проул.", NORM: "проулок"}, {ORTH: "рзд.", NORM: "разъезд"}, {ORTH: "ряд", NORM: "ряд(ы)"}, {ORTH: "с-р", NORM: "сквер"}, {ORTH: "с-к", NORM: "спуск"}, {ORTH: "сзд.", NORM: "съезд"}, {ORTH: "туп.", NORM: "тупик"}, {ORTH: "ул.", NORM: "улица"}, {ORTH: "ш.", NORM: "шоссе"}, {ORTH: "влд.", NORM: "владение"}, {ORTH: "г-ж", NORM: "гараж"}, {ORTH: "д.", NORM: "дом"}, {ORTH: "двлд.", NORM: "домовладение"}, {ORTH: "зд.", NORM: "здание"}, {ORTH: "з/у", NORM: "земельный участок"}, {ORTH: "кв.", NORM: "квартира"}, {ORTH: "ком.", NORM: "комната"}, {ORTH: "подв.", NORM: "подвал"}, {ORTH: "кот.", NORM: "котельная"}, {ORTH: "п-б", NORM: "погреб"}, {ORTH: "к.", NORM: "корпус"}, {ORTH: "ОНС", NORM: "объект незавершенного строительства"}, {ORTH: "оф.", NORM: "офис"}, {ORTH: "пав.", NORM: "павильон"}, {ORTH: "помещ.", NORM: "помещение"}, {ORTH: "раб.уч.", NORM: "рабочий участок"}, {ORTH: "скл.", NORM: "склад"}, {ORTH: "coop.", NORM: "сооружение"}, {ORTH: "стр.", NORM: "строение"}, {ORTH: "торг.зал", NORM: "торговый зал"}, {ORTH: "а/п", NORM: "аэропорт"}, {ORTH: "им.", NORM: "имени"}, ]: _exc[abbr[ORTH]] = [abbr] for abbr in [ # Others abbreviations {ORTH: "тыс.руб.", NORM: "тысяч рублей"}, {ORTH: "тыс.", NORM: "тысяч"}, {ORTH: "руб.", NORM: "рубль"}, {ORTH: "долл.", NORM: "доллар"}, {ORTH: "прим.", NORM: "примечание"}, {ORTH: "прим.ред.", NORM: "примечание редакции"}, {ORTH: "см. также", NORM: "смотри также"}, {ORTH: "см.", NORM: "смотри"}, {ORTH: "кв.м.", NORM: "квадратный метр"}, {ORTH: "м2", NORM: "квадратный метр"}, {ORTH: "б/у", NORM: "бывший в употреблении"}, {ORTH: "сокр.", NORM: "сокращение"}, {ORTH: "чел.", NORM: "человек"}, {ORTH: "б.п.", NORM: "базисный пункт"}, ]: _exc[abbr[ORTH]] = [abbr] TOKENIZER_EXCEPTIONS = update_exc(BASE_EXCEPTIONS, _exc)
18,289
43.828431
88
py
spaCy
spaCy-master/spacy/lang/sa/__init__.py
from ...language import BaseDefaults, Language from .lex_attrs import LEX_ATTRS from .stop_words import STOP_WORDS class SanskritDefaults(BaseDefaults): lex_attr_getters = LEX_ATTRS stop_words = STOP_WORDS class Sanskrit(Language): lang = "sa" Defaults = SanskritDefaults __all__ = ["Sanskrit"]
317
17.705882
46
py
spaCy
spaCy-master/spacy/lang/sa/examples.py
""" Example sentences to test spaCy and its language models. >>> from spacy.lang.sa.examples import sentences >>> docs = nlp.pipe(sentences) """ sentences = [ "अभ्यावहति कल्याणं विविधं वाक् सुभाषिता ।", "मनसि व्याकुले चक्षुः पश्यन्नपि न पश्यति ।", "यस्य बुद्धिर्बलं तस्य निर्बुद्धेस्तु कुतो बलम्?", "परो अपि हितवान् बन्धुः बन्धुः अपि अहितः परः ।", "अहितः देहजः व्याधिः हितम् आरण्यं औषधम् ॥", ]
417
25.125
56
py
spaCy
spaCy-master/spacy/lang/sa/lex_attrs.py
from ...attrs import LIKE_NUM # reference 1: https://en.wikibooks.org/wiki/Sanskrit/Numbers _num_words = [ "एकः", "द्वौ", "त्रयः", "चत्वारः", "पञ्च", "षट्", "सप्त", "अष्ट", "नव", "दश", "एकादश", "द्वादश", "त्रयोदश", "चतुर्दश", "पञ्चदश", "षोडश", "सप्तदश", "अष्टादश", "एकान्नविंशति", "विंशति", "एकाविंशति", "द्वाविंशति", "त्रयोविंशति", "चतुर्विंशति", "पञ्चविंशति", "षड्विंशति", "सप्तविंशति", "अष्टाविंशति", "एकान्नत्रिंशत्", "त्रिंशत्", "एकत्रिंशत्", "द्वात्रिंशत्", "त्रयत्रिंशत्", "चतुस्त्रिंशत्", "पञ्चत्रिंशत्", "षट्त्रिंशत्", "सप्तत्रिंशत्", "अष्टात्रिंशत्", "एकोनचत्वारिंशत्", "चत्वारिंशत्", "एकचत्वारिंशत्", "द्वाचत्वारिंशत्", "त्रयश्चत्वारिंशत्", "चतुश्चत्वारिंशत्", "पञ्चचत्वारिंशत्", "षट्चत्वारिंशत्", "सप्तचत्वारिंशत्", "अष्टाचत्वारिंशत्", "एकोनपञ्चाशत्", "पञ्चाशत्", "एकपञ्चाशत्", "द्विपञ्चाशत्", "त्रिपञ्चाशत्", "चतुःपञ्चाशत्", "पञ्चपञ्चाशत्", "षट्पञ्चाशत्", "सप्तपञ्चाशत्", "अष्टपञ्चाशत्", "एकोनषष्ठिः", "षष्ठिः", "एकषष्ठिः", "द्विषष्ठिः", "त्रिषष्ठिः", "चतुःषष्ठिः", "पञ्चषष्ठिः", "षट्षष्ठिः", "सप्तषष्ठिः", "अष्टषष्ठिः", "एकोनसप्ततिः", "सप्ततिः", "एकसप्ततिः", "द्विसप्ततिः", "त्रिसप्ततिः", "चतुःसप्ततिः", "पञ्चसप्ततिः", "षट्सप्ततिः", "सप्तसप्ततिः", "अष्टसप्ततिः", "एकोनाशीतिः", "अशीतिः", "एकाशीतिः", "द्वशीतिः", "त्र्यशीतिः", "चतुरशीतिः", "पञ्चाशीतिः", "षडशीतिः", "सप्ताशीतिः", "अष्टाशीतिः", "एकोननवतिः", "नवतिः", "एकनवतिः", "द्विनवतिः", "त्रिनवतिः", "चतुर्नवतिः", "पञ्चनवतिः", "षण्णवतिः", "सप्तनवतिः", "अष्टनवतिः", "एकोनशतम्", "शतम्", ] def like_num(text): """ Check if text resembles a number """ if text.startswith(("+", "-", "±", "~")): text = text[1:] text = text.replace(",", "").replace(".", "") if text.isdigit(): return True if text.count("/") == 1: num, denom = text.split("/") if num.isdigit() and denom.isdigit(): return True if text in _num_words: return True return False LEX_ATTRS = {LIKE_NUM: like_num}
2,326
17.179688
61
py
spaCy
spaCy-master/spacy/lang/sa/stop_words.py
# Source: https://gist.github.com/Akhilesh28/fe8b8e180f64b72e64751bc31cb6d323 STOP_WORDS = set( """ अहम् आवाम् वयम् माम् मा आवाम् अस्मान् नः मया आवाभ्याम् अस्माभिस् मह्यम् मे आवाभ्याम् नौ अस्मभ्यम् नः मत् आवाभ्याम् अस्मत् मम मे आवयोः अस्माकम् नः मयि आवयोः अस्मासु त्वम् युवाम् यूयम् त्वाम् त्वा युवाम् वाम् युष्मान् वः त्वया युवाभ्याम् युष्माभिः तुभ्यम् ते युवाभ्याम् वाम् युष्मभ्यम् वः त्वत् युवाभ्याम् युष्मत् तव ते युवयोः वाम् युष्माकम् वः त्वयि युवयोः युष्मासु सः तौ ते तम् तौ तान् तेन ताभ्याम् तैः तस्मै ताभ्याम् तेभ्यः तस्मात् ताभ्याम् तेभ्यः तस्य तयोः तेषाम् तस्मिन् तयोः तेषु सा ते ताः ताम् ते ताः तया ताभ्याम् ताभिः तस्यै ताभ्याम् ताभ्यः तस्याः ताभ्याम् ताभ्यः तस्य तयोः तासाम् तस्याम् तयोः तासु तत् ते तानि तत् ते तानि तया ताभ्याम् ताभिः तस्यै ताभ्याम् ताभ्यः तस्याः ताभ्याम् ताभ्यः तस्य तयोः तासाम् तस्याम् तयोः तासु अयम् इमौ इमे इमम् इमौ इमान् अनेन आभ्याम् एभिः अस्मै आभ्याम् एभ्यः अस्मात् आभ्याम् एभ्यः अस्य अनयोः एषाम् अस्मिन् अनयोः एषु इयम् इमे इमाः इमाम् इमे इमाः अनया आभ्याम् आभिः अस्यै आभ्याम् आभ्यः अस्याः आभ्याम् आभ्यः अस्याः अनयोः आसाम् अस्याम् अनयोः आसु इदम् इमे इमानि इदम् इमे इमानि अनेन आभ्याम् एभिः अस्मै आभ्याम् एभ्यः अस्मात् आभ्याम् एभ्यः अस्य अनयोः एषाम् अस्मिन् अनयोः एषु एषः एतौ एते एतम् एनम् एतौ एनौ एतान् एनान् एतेन एताभ्याम् एतैः एतस्मै एताभ्याम् एतेभ्यः एतस्मात् एताभ्याम् एतेभ्यः एतस्य एतस्मिन् एतेषाम् एतस्मिन् एतस्मिन् एतेषु एषा एते एताः एताम् एनाम् एते एने एताः एनाः एतया एनया एताभ्याम् एताभिः एतस्यै एताभ्याम् एताभ्यः एतस्याः एताभ्याम् एताभ्यः एतस्याः एतयोः एनयोः एतासाम् एतस्याम् एतयोः एनयोः एतासु एतत् एतद् एते एतानि एतत् एतद् एनत् एनद् एते एने एतानि एनानि एतेन एनेन एताभ्याम् एतैः एतस्मै एताभ्याम् एतेभ्यः एतस्मात् एताभ्याम् एतेभ्यः एतस्य एतयोः एनयोः एतेषाम् एतस्मिन् एतयोः एनयोः एतेषु असौ अमू अमी अमूम् अमू अमून् अमुना अमूभ्याम् अमीभिः अमुष्मै अमूभ्याम् अमीभ्यः अमुष्मात् अमूभ्याम् अमीभ्यः अमुष्य अमुयोः अमीषाम् अमुष्मिन् अमुयोः अमीषु असौ अमू अमूः अमूम् अमू अमूः अमुया अमूभ्याम् अमूभिः अमुष्यै अमूभ्याम् अमूभ्यः अमुष्याः अमूभ्याम् अमूभ्यः अमुष्याः अमुयोः अमूषाम् अमुष्याम् अमुयोः अमूषु अमु अमुनी अमूनि अमु अमुनी अमूनि अमुना अमूभ्याम् अमीभिः अमुष्मै अमूभ्याम् अमीभ्यः अमुष्मात् अमूभ्याम् अमीभ्यः अमुष्य अमुयोः अमीषाम् अमुष्मिन् अमुयोः अमीषु कः कौ के कम् कौ कान् केन काभ्याम् कैः कस्मै काभ्याम् केभ्य कस्मात् काभ्याम् केभ्य कस्य कयोः केषाम् कस्मिन् कयोः केषु का के काः काम् के काः कया काभ्याम् काभिः कस्यै काभ्याम् काभ्यः कस्याः काभ्याम् काभ्यः कस्याः कयोः कासाम् कस्याम् कयोः कासु किम् के कानि किम् के कानि केन काभ्याम् कैः कस्मै काभ्याम् केभ्य कस्मात् काभ्याम् केभ्य कस्य कयोः केषाम् कस्मिन् कयोः केषु भवान् भवन्तौ भवन्तः भवन्तम् भवन्तौ भवतः भवता भवद्भ्याम् भवद्भिः भवते भवद्भ्याम् भवद्भ्यः भवतः भवद्भ्याम् भवद्भ्यः भवतः भवतोः भवताम् भवति भवतोः भवत्सु भवती भवत्यौ भवत्यः भवतीम् भवत्यौ भवतीः भवत्या भवतीभ्याम् भवतीभिः भवत्यै भवतीभ्याम् भवतीभिः भवत्याः भवतीभ्याम् भवतीभिः भवत्याः भवत्योः भवतीनाम् भवत्याम् भवत्योः भवतीषु भवत् भवती भवन्ति भवत् भवती भवन्ति भवता भवद्भ्याम् भवद्भिः भवते भवद्भ्याम् भवद्भ्यः भवतः भवद्भ्याम् भवद्भ्यः भवतः भवतोः भवताम् भवति भवतोः भवत्सु अये अरे अरेरे अविधा असाधुना अस्तोभ अहह अहावस् आम् आर्यहलम् आह आहो इस् उम् उवे काम् कुम् चमत् टसत् दृन् धिक् पाट् फत् फाट् फुडुत् बत बाल् वट् व्यवस्तोभति व्यवस्तुभ् षाट् स्तोभ हुम्मा हूम् अति अधि अनु अप अपि अभि अव आ उद् उप नि निर् परा परि प्र प्रति वि सम् अथवा उत अन्यथा इव च चेत् यदि तु परन्तु यतः करणेन हि यतस् यदर्थम् यदर्थे यर्हि यथा यत्कारणम् येन ही हिन यथा यतस् यद्यपि यात् अवधेस् यावति येन प्रकारेण स्थाने अह एव एवम् कच्चित् कु कुवित् कूपत् च चण् चेत् तत्र नकिम् नह नुनम् नेत् भूयस् मकिम् मकिर् यत्र युगपत् वा शश्वत् सूपत् ह हन्त हि """.split() )
3,598
5.974806
77
py
spaCy
spaCy-master/spacy/lang/si/__init__.py
from ...language import BaseDefaults, Language from .lex_attrs import LEX_ATTRS from .stop_words import STOP_WORDS class SinhalaDefaults(BaseDefaults): lex_attr_getters = LEX_ATTRS stop_words = STOP_WORDS class Sinhala(Language): lang = "si" Defaults = SinhalaDefaults __all__ = ["Sinhala"]
313
17.470588
46
py
spaCy
spaCy-master/spacy/lang/si/examples.py
""" Example sentences to test spaCy and its language models. >>> from spacy.lang.si.examples import sentences >>> docs = nlp.pipe(sentences) """ sentences = [ "මෙය වාක්‍යයකි.", "ඔබ කවුද?", "ගූගල් සමාගම ඩොලර් මිලියන 500 කට එම ආයතනය මිලදී ගන්නා ලදී.", "කොළඹ ශ්‍රී ලංකාවේ ප්‍රධානතම නගරය යි.", "ප්‍රංශයේ ජනාධිපති කවරෙක් ද?", "මට බිස්කට් 1 ක් දෙන්න", "ඔවුන් ලකුණු 59 කින් තරඟය පරාජයට පත් විය.", "1 ත් 10 ත් අතර සංඛ්‍යාවක් කියන්න", "ඔහු සහ ඇය නුවර හෝ කොළඹ පදිංචි කරුවන් නොවේ", ]
512
24.65
64
py
spaCy
spaCy-master/spacy/lang/si/lex_attrs.py
from ...attrs import LIKE_NUM _num_words = [ "බින්දුව", "බිංදුව", "එක", "දෙක", "තුන", "හතර", "පහ", "හය", "හත", "අට", "නවය", "නමය", "දහය", "එකොළහ", "දොළහ", "දහතුන", "දහහතර", "දාහතර", "පහළව", "පහළොව", "දහසය", "දහහත", "දාහත", "දහඅට", "දහනවය", "විස්ස", "තිහ", "හතළිහ", "පනහ", "හැට", "හැත්තෑව", "අසූව", "අනූව", "සියය", "දහස", "දාහ", "ලක්ෂය", "මිලියනය", "කෝටිය", "බිලියනය", "ට්‍රිලියනය", ] def like_num(text): text = text.replace(",", "").replace(".", "") if text.isdigit(): return True if text.count("/") == 1: num, denom = text.split("/") if num.isdigit() and denom.isdigit(): return True if text.lower() in _num_words: return True return False LEX_ATTRS = {LIKE_NUM: like_num}
907
13.645161
49
py
spaCy
spaCy-master/spacy/lang/si/stop_words.py
STOP_WORDS = set( """ සහ සමග සමඟ අහා ආහ් ආ ඕහෝ අනේ අඳෝ අපොයි අපෝ අයියෝ ආයි ඌයි චී චිහ් චික් හෝ‍ දෝ දෝහෝ මෙන් සේ වැනි බඳු වන් අයුරු අයුරින් ලෙස වැඩි ශ්‍රී හා ය නිසා නිසාවෙන් බවට බව බවෙන් නම් වැඩි සිට දී මහා මහ පමණ පමණින් පමන වන විට විටින් මේ මෙලෙස මෙයින් ඇති ලෙස සිදු වශයෙන් යන සඳහා මගින් හෝ‍ ඉතා ඒ එම ද අතර විසින් සමග පිළිබඳව පිළිබඳ තුළ බව වැනි මහ මෙම මෙහි මේ වෙත වෙතින් වෙතට වෙනුවෙන් වෙනුවට වෙන ගැන නෑ අනුව නව පිළිබඳ විශේෂ දැනට එහෙන් මෙහෙන් එහේ මෙහේ ම තවත් තව සහ දක්වා ට ගේ එ ක ක් බවත් බවද මත ඇතුලු ඇතුළු මෙසේ වඩා වඩාත්ම නිති නිතිත් නිතොර නිතර ඉක්බිති දැන් යලි පුන ඉතින් සිට සිටන් පටන් තෙක් දක්වා සා තාක් තුවක් පවා ද හෝ‍ වත් විනා හැර මිස මුත් කිම කිම් ඇයි මන්ද හෙවත් නොහොත් පතා පාසා ගානෙ තව ඉතා බොහෝ වහා සෙද සැනින් හනික එම්බා එම්බල බොල නම් වනාහි කලී ඉඳුරා අන්න ඔන්න මෙන්න උදෙසා පිණිස සඳහා අරබයා නිසා එනිසා එබැවින් බැවින් හෙයින් සේක් සේක ගැන අනුව පරිදි විට තෙක් මෙතෙක් මේතාක් තුරු තුරා තුරාවට තුලින් නමුත් එනමුත් වස් මෙන් ලෙස පරිදි එහෙත් """.split() )
957
3.887755
17
py
spaCy
spaCy-master/spacy/lang/sk/__init__.py
from ...language import BaseDefaults, Language from .lex_attrs import LEX_ATTRS from .stop_words import STOP_WORDS class SlovakDefaults(BaseDefaults): lex_attr_getters = LEX_ATTRS stop_words = STOP_WORDS class Slovak(Language): lang = "sk" Defaults = SlovakDefaults __all__ = ["Slovak"]
309
17.235294
46
py
spaCy
spaCy-master/spacy/lang/sk/examples.py
""" Example sentences to test spaCy and its language models. >>> from spacy.lang.sk.examples import sentences >>> docs = nlp.pipe(sentences) """ sentences = [ "Ardevop, s.r.o. je malá startup firma na území SR.", "Samojazdiace autá presúvajú poistnú zodpovednosť na výrobcov automobilov.", "Košice sú na východe.", "Bratislava je hlavné mesto Slovenskej republiky.", "Kde si?", "Kto je prezidentom Francúzska?", "Aké je hlavné mesto Slovenska?", "Kedy sa narodil Andrej Kiska?", "Včera som dostal 100€ na ruku.", "Dnes je nedeľa 26.1.2020.", "Narodil sa 15.4.1998 v Ružomberku.", "Niekto mi povedal, že 500 eur je veľa peňazí.", "Podaj mi ruku!", ]
704
28.375
80
py
spaCy
spaCy-master/spacy/lang/sk/lex_attrs.py
from ...attrs import LIKE_NUM _num_words = [ "nula", "jeden", "dva", "tri", "štyri", "päť", "šesť", "sedem", "osem", "deväť", "desať", "jedenásť", "dvanásť", "trinásť", "štrnásť", "pätnásť", "šestnásť", "sedemnásť", "osemnásť", "devätnásť", "dvadsať", "tridsať", "štyridsať", "päťdesiat", "šesťdesiat", "sedemdesiat", "osemdesiat", "deväťdesiat", "sto", "tisíc", "milión", "miliarda", "bilión", "biliarda", "trilión", "triliarda", "kvadrilión", ] def like_num(text): if text.startswith(("+", "-", "±", "~")): text = text[1:] text = text.replace(",", "").replace(".", "") if text.isdigit(): return True if text.count("/") == 1: num, denom = text.split("/") if num.isdigit() and denom.isdigit(): return True if text.lower() in _num_words: return True return False LEX_ATTRS = {LIKE_NUM: like_num}
1,024
16.083333
49
py
spaCy
spaCy-master/spacy/lang/sk/stop_words.py
# Source: https://github.com/Ardevop-sk/stopwords-sk STOP_WORDS = set( """ a aby aj ak akej akejže ako akom akomže akou akouže akože aká akáže aké akého akéhože akému akémuže akéže akú akúže aký akých akýchže akým akými akýmiže akýmže akýže ale alebo ani asi avšak až ba bez bezo bol bola boli bolo bude budem budeme budete budeš budú buď by byť cez cezo dnes do ešte ho hoci i iba ich im inej inom iná iné iného inému iní inú iný iných iným inými ja je jeho jej jemu ju k kam kamže každou každá každé každého každému každí každú každý každých každým každými kde kej kejže keď keďže kie kieho kiehože kiemu kiemuže kieže koho kom komu kou kouže kto ktorej ktorou ktorá ktoré ktorí ktorú ktorý ktorých ktorým ktorými ku ká káže ké kéže kú kúže ký kýho kýhože kým kýmu kýmuže kýže lebo leda ledaže len ma majú mal mala mali mať medzi mi mne mnou moja moje mojej mojich mojim mojimi mojou moju možno mu musia musieť musí musím musíme musíte musíš my má mám máme máte máš môcť môj môjho môže môžem môžeme môžete môžeš môžu mňa na nad nado najmä nami naša naše našej naši našich našim našimi našou ne nech neho nej nejakej nejakom nejakou nejaká nejaké nejakého nejakému nejakú nejaký nejakých nejakým nejakými nemu než nich nie niektorej niektorom niektorou niektorá niektoré niektorého niektorému niektorú niektorý niektorých niektorým niektorými nielen niečo nim nimi nič ničoho ničom ničomu ničím no nám nás náš nášho ním o od odo on ona oni ono ony oň oňho po pod podo podľa pokiaľ popod popri potom poza pre pred predo preto pretože prečo pri práve s sa seba sebe sebou sem si sme so som ste svoj svoja svoje svojho svojich svojim svojimi svojou svoju svojím sú ta tak takej takejto taká takáto také takého takéhoto takému takémuto takéto takí takú takúto taký takýto takže tam teba tebe tebou teda tej tejto ten tento ti tie tieto tiež to toho tohoto tohto tom tomto tomu tomuto toto tou touto tu tvoj tvoja tvoje tvojej tvojho tvoji tvojich tvojim tvojimi tvojím ty tá táto tí títo tú túto tých tým tými týmto u už v vami vaša vaše vašej vaši vašich vašim vaším veď viac vo vy vám vás váš vášho však všetci všetka všetko všetky všetok z za začo začože zo áno čej či čia čie čieho čiemu čiu čo čoho čom čomu čou čože čí čím čími ďalšia ďalšie ďalšieho ďalšiemu ďalšiu ďalšom ďalšou ďalší ďalších ďalším ďalšími ňom ňou ňu že """.split() )
2,346
4.522353
52
py
spaCy
spaCy-master/spacy/lang/sl/__init__.py
from ...language import BaseDefaults, Language from .lex_attrs import LEX_ATTRS from .punctuation import TOKENIZER_INFIXES, TOKENIZER_PREFIXES, TOKENIZER_SUFFIXES from .stop_words import STOP_WORDS from .tokenizer_exceptions import TOKENIZER_EXCEPTIONS class SlovenianDefaults(BaseDefaults): stop_words = STOP_WORDS tokenizer_exceptions = TOKENIZER_EXCEPTIONS prefixes = TOKENIZER_PREFIXES infixes = TOKENIZER_INFIXES suffixes = TOKENIZER_SUFFIXES lex_attr_getters = LEX_ATTRS class Slovenian(Language): lang = "sl" Defaults = SlovenianDefaults __all__ = ["Slovenian"]
607
25.434783
82
py
spaCy
spaCy-master/spacy/lang/sl/examples.py
""" Example sentences to test spaCy and its language models. >>> from spacy.lang.sl.examples import sentences >>> docs = nlp.pipe(sentences) """ sentences = [ "Apple načrtuje nakup britanskega startupa za 1 bilijon dolarjev", "France Prešeren je umrl 8. februarja 1849 v Kranju", "Staro ljubljansko letališče Moste bo obnovila družba BTC", "London je največje mesto v Združenem kraljestvu.", "Kje se skrivaš?", "Kdo je predsednik Francije?", "Katero je glavno mesto Združenih držav Amerike?", "Kdaj je bil rojen Milan Kučan?", ]
564
28.736842
70
py
spaCy
spaCy-master/spacy/lang/sl/lex_attrs.py
import unicodedata from ...attrs import IS_CURRENCY, LIKE_NUM _num_words = set( """ nula ničla nič ena dva tri štiri pet šest sedem osem devet deset enajst dvanajst trinajst štirinajst petnajst šestnajst sedemnajst osemnajst devetnajst dvajset trideset štirideset petdeset šestdest sedemdeset osemdeset devedeset sto tisoč milijon bilijon trilijon kvadrilijon nešteto en eden enega enemu ennem enim enih enima enimi ene eni eno dveh dvema dvem dvoje trije treh trem tremi troje štirje štirih štirim štirimi petih petim petimi šestih šestim šestimi sedmih sedmim sedmimi osmih osmim osmimi devetih devetim devetimi desetih desetim desetimi enajstih enajstim enajstimi dvanajstih dvanajstim dvanajstimi trinajstih trinajstim trinajstimi šestnajstih šestnajstim šestnajstimi petnajstih petnajstim petnajstimi sedemnajstih sedemnajstim sedemnajstimi osemnajstih osemnajstim osemnajstimi devetnajstih devetnajstim devetnajstimi dvajsetih dvajsetim dvajsetimi """.split() ) _ordinal_words = set( """ prvi drugi tretji četrti peti šesti sedmi osmi deveti deseti enajsti dvanajsti trinajsti štirinajsti petnajsti šestnajsti sedemnajsti osemnajsti devetnajsti dvajseti trideseti štirideseti petdeseti šestdeseti sedemdeseti osemdeseti devetdeseti stoti tisoči milijonti bilijonti trilijonti kvadrilijonti nešteti prva druga tretja četrta peta šesta sedma osma deveta deseta enajsta dvanajsta trinajsta štirnajsta petnajsta šestnajsta sedemnajsta osemnajsta devetnajsta dvajseta trideseta štirideseta petdeseta šestdeseta sedemdeseta osemdeseta devetdeseta stota tisoča milijonta bilijonta trilijonta kvadrilijonta nešteta prvo drugo tretje četrto peto šestro sedmo osmo deveto deseto enajsto dvanajsto trinajsto štirnajsto petnajsto šestnajsto sedemnajsto osemnajsto devetnajsto dvajseto trideseto štirideseto petdeseto šestdeseto sedemdeseto osemdeseto devetdeseto stoto tisočo milijonto bilijonto trilijonto kvadrilijonto nešteto prvega drugega tretjega četrtega petega šestega sedmega osmega devega desetega enajstega dvanajstega trinajstega štirnajstega petnajstega šestnajstega sedemnajstega osemnajstega devetnajstega dvajsetega tridesetega štiridesetega petdesetega šestdesetega sedemdesetega osemdesetega devetdesetega stotega tisočega milijontega bilijontega trilijontega kvadrilijontega neštetega prvemu drugemu tretjemu četrtemu petemu šestemu sedmemu osmemu devetemu desetemu enajstemu dvanajstemu trinajstemu štirnajstemu petnajstemu šestnajstemu sedemnajstemu osemnajstemu devetnajstemu dvajsetemu tridesetemu štiridesetemu petdesetemu šestdesetemu sedemdesetemu osemdesetemu devetdesetemu stotemu tisočemu milijontemu bilijontemu trilijontemu kvadrilijontemu neštetemu prvem drugem tretjem četrtem petem šestem sedmem osmem devetem desetem enajstem dvanajstem trinajstem štirnajstem petnajstem šestnajstem sedemnajstem osemnajstem devetnajstem dvajsetem tridesetem štiridesetem petdesetem šestdesetem sedemdesetem osemdesetem devetdesetem stotem tisočem milijontem bilijontem trilijontem kvadrilijontem neštetem prvim drugim tretjim četrtim petim šestim sedtim osmim devetim desetim enajstim dvanajstim trinajstim štirnajstim petnajstim šestnajstim sedemnajstim osemnajstim devetnajstim dvajsetim tridesetim štiridesetim petdesetim šestdesetim sedemdesetim osemdesetim devetdesetim stotim tisočim milijontim bilijontim trilijontim kvadrilijontim neštetim prvih drugih tretjih četrthih petih šestih sedmih osmih deveth desetih enajstih dvanajstih trinajstih štirnajstih petnajstih šestnajstih sedemnajstih osemnajstih devetnajstih dvajsetih tridesetih štiridesetih petdesetih šestdesetih sedemdesetih osemdesetih devetdesetih stotih tisočih milijontih bilijontih trilijontih kvadrilijontih nešteth prvima drugima tretjima četrtima petima šestima sedmima osmima devetima desetima enajstima dvanajstima trinajstima štirnajstima petnajstima šestnajstima sedemnajstima osemnajstima devetnajstima dvajsetima tridesetima štiridesetima petdesetima šestdesetima sedemdesetima osemdesetima devetdesetima stotima tisočima milijontima bilijontima trilijontima kvadrilijontima neštetima prve druge četrte pete šeste sedme osme devete desete enajste dvanajste trinajste štirnajste petnajste šestnajste sedemnajste osemnajste devetnajste dvajsete tridesete štiridesete petdesete šestdesete sedemdesete osemdesete devetdesete stote tisoče milijonte bilijonte trilijonte kvadrilijonte neštete prvimi drugimi tretjimi četrtimi petimi šestimi sedtimi osmimi devetimi desetimi enajstimi dvanajstimi trinajstimi štirnajstimi petnajstimi šestnajstimi sedemnajstimi osemnajstimi devetnajstimi dvajsetimi tridesetimi štiridesetimi petdesetimi šestdesetimi sedemdesetimi osemdesetimi devetdesetimi stotimi tisočimi milijontimi bilijontimi trilijontimi kvadrilijontimi neštetimi """.split() ) _currency_words = set( """ evro evra evru evrom evrov evroma evrih evrom evre evri evr eur cent centa centu cenom centov centoma centih centom cente centi dolar dolarja dolarji dolarju dolarjem dolarjev dolarjema dolarjih dolarje usd tolar tolarja tolarji tolarju tolarjem tolarjev tolarjema tolarjih tolarje tol dinar dinarja dinarji dinarju dinarjem dinarjev dinarjema dinarjih dinarje din funt funta funti funtu funtom funtov funtoma funtih funte gpb forint forinta forinti forintu forintom forintov forintoma forintih forinte zlot zlota zloti zlotu zlotom zlotov zlotoma zlotih zlote rupij rupija rupiji rupiju rupijem rupijev rupijema rupijih rupije jen jena jeni jenu jenom jenov jenoma jenih jene kuna kuni kune kuno kun kunama kunah kunam kunami marka marki marke markama markah markami """.split() ) def like_num(text): if text.startswith(("+", "-", "±", "~")): text = text[1:] text = text.replace(",", "").replace(".", "") if text.isdigit(): return True if text.count("/") == 1: num, denom = text.split("/") if num.isdigit() and denom.isdigit(): return True text_lower = text.lower() if text_lower in _num_words: return True if text_lower in _ordinal_words: return True return False def is_currency(text): text_lower = text.lower() if text in _currency_words: return True for char in text: if unicodedata.category(char) != "Sc": return False return True LEX_ATTRS = {LIKE_NUM: like_num, IS_CURRENCY: is_currency}
6,474
43.655172
89
py
spaCy
spaCy-master/spacy/lang/sl/punctuation.py
from ..char_classes import ( ALPHA, ALPHA_LOWER, ALPHA_UPPER, CONCAT_QUOTES, CURRENCY, HYPHENS, LIST_CURRENCY, LIST_ELLIPSES, LIST_ICONS, LIST_PUNCT, LIST_QUOTES, PUNCT, UNITS, merge_chars, ) from ..punctuation import TOKENIZER_PREFIXES as BASE_TOKENIZER_PREFIXES INCLUDE_SPECIAL = ["\\+", "\\/", "\\•", "\\¯", "\\=", "\\×"] + HYPHENS.split("|") _prefixes = INCLUDE_SPECIAL + BASE_TOKENIZER_PREFIXES _suffixes = ( INCLUDE_SPECIAL + LIST_PUNCT + LIST_ELLIPSES + LIST_QUOTES + LIST_ICONS + [ r"(?<=°[FfCcKk])\.", r"(?<=[0-9])(?:{c})".format(c=CURRENCY), r"(?<=[0-9])(?:{u})".format(u=UNITS), r"(?<=[{al}{e}{p}(?:{q})])\.".format( al=ALPHA_LOWER, e=r"%²\-\+", q=CONCAT_QUOTES, p=PUNCT ), r"(?<=[{au}][{au}])\.".format(au=ALPHA_UPPER), # split initials like J.K. Rowling r"(?<=[A-Z]\.)(?:[A-Z].)", ] ) # a list of all suffixes following a hyphen that are shouldn't split (eg. BTC-jev) # source: Obeliks tokenizer - https://github.com/clarinsi/obeliks/blob/master/obeliks/res/TokRulesPart1.txt CONCAT_QUOTES = CONCAT_QUOTES.replace("'", "") HYPHENS_PERMITTED = ( "((a)|(evemu)|(evskega)|(i)|(jevega)|(jevska)|(jevskimi)|(jinemu)|(oma)|(ovim)|" "(ovski)|(e)|(evi)|(evskem)|(ih)|(jevem)|(jevske)|(jevsko)|(jini)|(ov)|(ovima)|" "(ovskih)|(em)|(evih)|(evskemu)|(ja)|(jevemu)|(jevskega)|(ji)|(jinih)|(ova)|" "(ovimi)|(ovskim)|(ema)|(evim)|(evski)|(je)|(jevi)|(jevskem)|(jih)|(jinim)|" "(ove)|(ovo)|(ovskima)|(ev)|(evima)|(evskih)|(jem)|(jevih)|(jevskemu)|(jin)|" "(jinima)|(ovega)|(ovska)|(ovskimi)|(eva)|(evimi)|(evskim)|(jema)|(jevim)|" "(jevski)|(jina)|(jinimi)|(ovem)|(ovske)|(ovsko)|(eve)|(evo)|(evskima)|(jev)|" "(jevima)|(jevskih)|(jine)|(jino)|(ovemu)|(ovskega)|(u)|(evega)|(evska)|" "(evskimi)|(jeva)|(jevimi)|(jevskim)|(jinega)|(ju)|(ovi)|(ovskem)|(evem)|" "(evske)|(evsko)|(jeve)|(jevo)|(jevskima)|(jinem)|(om)|(ovih)|(ovskemu)|" "(ovec)|(ovca)|(ovcu)|(ovcem)|(ovcev)|(ovcema)|(ovcih)|(ovci)|(ovce)|(ovcimi)|" "(evec)|(evca)|(evcu)|(evcem)|(evcev)|(evcema)|(evcih)|(evci)|(evce)|(evcimi)|" "(jevec)|(jevca)|(jevcu)|(jevcem)|(jevcev)|(jevcema)|(jevcih)|(jevci)|(jevce)|" "(jevcimi)|(ovka)|(ovke)|(ovki)|(ovko)|(ovk)|(ovkama)|(ovkah)|(ovkam)|(ovkami)|" "(evka)|(evke)|(evki)|(evko)|(evk)|(evkama)|(evkah)|(evkam)|(evkami)|(jevka)|" "(jevke)|(jevki)|(jevko)|(jevk)|(jevkama)|(jevkah)|(jevkam)|(jevkami)|(timi)|" "(im)|(ima)|(a)|(imi)|(e)|(o)|(ega)|(ti)|(em)|(tih)|(emu)|(tim)|(i)|(tima)|" "(ih)|(ta)|(te)|(to)|(tega)|(tem)|(temu))" ) _infixes = ( LIST_ELLIPSES + LIST_ICONS + [ r"(?<=[0-9])[+\-\*^](?=[0-9-])", r"(?<=[{al}{q}])\.(?=[{au}{q}])".format( al=ALPHA_LOWER, au=ALPHA_UPPER, q=CONCAT_QUOTES ), r"(?<=[{a}]),(?=[{a}])".format(a=ALPHA), r"(?<=[{a}0-9])(?:{h})(?!{hp}$)(?=[{a}])".format( a=ALPHA, h=HYPHENS, hp=HYPHENS_PERMITTED ), r"(?<=[{a}0-9])[:<>=/](?=[{a}])".format(a=ALPHA), ] ) TOKENIZER_PREFIXES = _prefixes TOKENIZER_SUFFIXES = _suffixes TOKENIZER_INFIXES = _infixes
3,216
36.406977
107
py
spaCy
spaCy-master/spacy/lang/sl/stop_words.py
# Source: https://github.com/stopwords-iso/stopwords-sl STOP_WORDS = set( """ a ali b bi bil bila bile bili bilo biti blizu bo bodo bojo bolj bom bomo boste bova boš brez c cel cela celi celo č če često četrta četrtek četrti četrto čez čigav d da daleč dan danes datum deset deseta deseti deseto devet deveta deveti deveto do dober dobra dobri dobro dokler dol dolg dolga dolgi dovolj drug druga drugi drugo dva dve e eden en ena ene eni enkrat eno etc. f g g. ga ga. gor gospa gospod h halo i idr. ii iii in iv ix iz j jaz je ji jih jim jo jutri k kadarkoli kaj kajti kako kakor kamor kamorkoli kar karkoli katerikoli kdaj kdo kdorkoli ker ki kje kjer kjerkoli ko koder koderkoli koga komu kot kratek kratka kratke kratki l lahka lahke lahki lahko le lep lepa lepe lepi lepo leto m majhen majhna majhni malce malo manj me med medtem mene mesec mi midva midve mnogo moj moja moje mora morajo moram moramo morate moraš morem mu n na nad naj najina najino najmanj naju največ nam narobe nas nato nazaj naš naša naše ne nedavno nedelja nek neka nekaj nekatere nekateri nekatero nekdo neke nekega neki nekje neko nekoga nekoč ni nikamor nikdar nikjer nikoli nič nje njega njegov njegova njegovo njej njemu njen njena njeno nji njih njihov njihova njihovo njiju njim njo njun njuna njuno no nocoj npr. o ob oba obe oboje od odprt odprta odprti okoli on onadva one oni onidve osem osma osmi osmo oz. p pa pet peta petek peti peto po pod pogosto poleg poln polna polni polno ponavadi ponedeljek ponovno potem povsod pozdravljen pozdravljeni prav prava prave pravi pravo prazen prazna prazno prbl. precej pred prej preko pri pribl. približno primer pripravljen pripravljena pripravljeni proti prva prvi prvo r ravno redko res reč s saj sam sama same sami samo se sebe sebi sedaj sedem sedma sedmi sedmo sem seveda si sicer skoraj skozi slab sm so sobota spet sreda srednja srednji sta ste stran stvar sva š šest šesta šesti šesto štiri t ta tak taka take taki tako takoj tam te tebe tebi tega težak težka težki težko ti tista tiste tisti tisto tj. tja to toda torek tretja tretje tretji tri tu tudi tukaj tvoj tvoja tvoje u v vaju vam vas vaš vaša vaše ve vedno velik velika veliki veliko vendar ves več vi vidva vii viii visok visoka visoke visoki vsa vsaj vsak vsaka vsakdo vsake vsaki vsakomur vse vsega vsi vso včasih včeraj x z za zadaj zadnji zakaj zaprta zaprti zaprto zdaj zelo zunaj ž že """.split() )
2,440
27.717647
67
py
spaCy
spaCy-master/spacy/lang/sl/tokenizer_exceptions.py
from typing import Dict, List from ...symbols import NORM, ORTH from ...util import update_exc from ..tokenizer_exceptions import BASE_EXCEPTIONS _exc: Dict[str, List[Dict]] = {} _other_exc = { "t.i.": [{ORTH: "t.", NORM: "tako"}, {ORTH: "i.", NORM: "imenovano"}], "t.j.": [{ORTH: "t.", NORM: "to"}, {ORTH: "j.", NORM: "je"}], "T.j.": [{ORTH: "T.", NORM: "to"}, {ORTH: "j.", NORM: "je"}], "d.o.o.": [ {ORTH: "d.", NORM: "družba"}, {ORTH: "o.", NORM: "omejeno"}, {ORTH: "o.", NORM: "odgovornostjo"}, ], "D.O.O.": [ {ORTH: "D.", NORM: "družba"}, {ORTH: "O.", NORM: "omejeno"}, {ORTH: "O.", NORM: "odgovornostjo"}, ], "d.n.o.": [ {ORTH: "d.", NORM: "družba"}, {ORTH: "n.", NORM: "neomejeno"}, {ORTH: "o.", NORM: "odgovornostjo"}, ], "D.N.O.": [ {ORTH: "D.", NORM: "družba"}, {ORTH: "N.", NORM: "neomejeno"}, {ORTH: "O.", NORM: "odgovornostjo"}, ], "d.d.": [{ORTH: "d.", NORM: "delniška"}, {ORTH: "d.", NORM: "družba"}], "D.D.": [{ORTH: "D.", NORM: "delniška"}, {ORTH: "D.", NORM: "družba"}], "s.p.": [{ORTH: "s.", NORM: "samostojni"}, {ORTH: "p.", NORM: "podjetnik"}], "S.P.": [{ORTH: "S.", NORM: "samostojni"}, {ORTH: "P.", NORM: "podjetnik"}], "l.r.": [{ORTH: "l.", NORM: "lastno"}, {ORTH: "r.", NORM: "ročno"}], "le-te": [{ORTH: "le"}, {ORTH: "-"}, {ORTH: "te"}], "Le-te": [{ORTH: "Le"}, {ORTH: "-"}, {ORTH: "te"}], "le-ti": [{ORTH: "le"}, {ORTH: "-"}, {ORTH: "ti"}], "Le-ti": [{ORTH: "Le"}, {ORTH: "-"}, {ORTH: "ti"}], "le-to": [{ORTH: "le"}, {ORTH: "-"}, {ORTH: "to"}], "Le-to": [{ORTH: "Le"}, {ORTH: "-"}, {ORTH: "to"}], "le-ta": [{ORTH: "le"}, {ORTH: "-"}, {ORTH: "ta"}], "Le-ta": [{ORTH: "Le"}, {ORTH: "-"}, {ORTH: "ta"}], "le-tega": [{ORTH: "le"}, {ORTH: "-"}, {ORTH: "tega"}], "Le-tega": [{ORTH: "Le"}, {ORTH: "-"}, {ORTH: "tega"}], } _exc.update(_other_exc) for exc_data in [ {ORTH: "adm.", NORM: "administracija"}, {ORTH: "aer.", NORM: "aeronavtika"}, {ORTH: "agr.", NORM: "agronomija"}, {ORTH: "amer.", NORM: "ameriško"}, {ORTH: "anat.", NORM: "anatomija"}, {ORTH: "angl.", NORM: "angleški"}, {ORTH: "ant.", NORM: "antonim"}, {ORTH: "antr.", NORM: "antropologija"}, {ORTH: "apr.", NORM: "april"}, {ORTH: "arab.", NORM: "arabsko"}, {ORTH: "arheol.", NORM: "arheologija"}, {ORTH: "arhit.", NORM: "arhitektura"}, {ORTH: "avg.", NORM: "avgust"}, {ORTH: "avstr.", NORM: "avstrijsko"}, {ORTH: "avt.", NORM: "avtomobilizem"}, {ORTH: "bibl.", NORM: "biblijsko"}, {ORTH: "biokem.", NORM: "biokemija"}, {ORTH: "biol.", NORM: "biologija"}, {ORTH: "bolg.", NORM: "bolgarski"}, {ORTH: "bot.", NORM: "botanika"}, {ORTH: "cit.", NORM: "citat"}, {ORTH: "daj.", NORM: "dajalnik"}, {ORTH: "del.", NORM: "deležnik"}, {ORTH: "ed.", NORM: "ednina"}, {ORTH: "etn.", NORM: "etnografija"}, {ORTH: "farm.", NORM: "farmacija"}, {ORTH: "filat.", NORM: "filatelija"}, {ORTH: "filoz.", NORM: "filozofija"}, {ORTH: "fin.", NORM: "finančništvo"}, {ORTH: "fiz.", NORM: "fizika"}, {ORTH: "fot.", NORM: "fotografija"}, {ORTH: "fr.", NORM: "francoski"}, {ORTH: "friz.", NORM: "frizerstvo"}, {ORTH: "gastr.", NORM: "gastronomija"}, {ORTH: "geogr.", NORM: "geografija"}, {ORTH: "geol.", NORM: "geologija"}, {ORTH: "geom.", NORM: "geometrija"}, {ORTH: "germ.", NORM: "germanski"}, {ORTH: "gl.", NORM: "glej"}, {ORTH: "glag.", NORM: "glagolski"}, {ORTH: "glasb.", NORM: "glasba"}, {ORTH: "gled.", NORM: "gledališče"}, {ORTH: "gost.", NORM: "gostinstvo"}, {ORTH: "gozd.", NORM: "gozdarstvo"}, {ORTH: "gr.", NORM: "grški"}, {ORTH: "grad.", NORM: "gradbeništvo"}, {ORTH: "hebr.", NORM: "hebrejsko"}, {ORTH: "hrv.", NORM: "hrvaško"}, {ORTH: "ide.", NORM: "indoevropsko"}, {ORTH: "igr.", NORM: "igre"}, {ORTH: "im.", NORM: "imenovalnik"}, {ORTH: "iron.", NORM: "ironično"}, {ORTH: "it.", NORM: "italijanski"}, {ORTH: "itd.", NORM: "in tako dalje"}, {ORTH: "itn.", NORM: "in tako naprej"}, {ORTH: "ipd.", NORM: "in podobno"}, {ORTH: "jap.", NORM: "japonsko"}, {ORTH: "jul.", NORM: "julij"}, {ORTH: "jun.", NORM: "junij"}, {ORTH: "kit.", NORM: "kitajsko"}, {ORTH: "knj.", NORM: "knjižno"}, {ORTH: "knjiž.", NORM: "knjižno"}, {ORTH: "kor.", NORM: "koreografija"}, {ORTH: "lat.", NORM: "latinski"}, {ORTH: "les.", NORM: "lesna stroka"}, {ORTH: "lingv.", NORM: "lingvistika"}, {ORTH: "lit.", NORM: "literarni"}, {ORTH: "ljubk.", NORM: "ljubkovalno"}, {ORTH: "lov.", NORM: "lovstvo"}, {ORTH: "m.", NORM: "moški"}, {ORTH: "mak.", NORM: "makedonski"}, {ORTH: "mar.", NORM: "marec"}, {ORTH: "mat.", NORM: "matematika"}, {ORTH: "med.", NORM: "medicina"}, {ORTH: "meh.", NORM: "mehiško"}, {ORTH: "mest.", NORM: "mestnik"}, {ORTH: "mdr.", NORM: "med drugim"}, {ORTH: "min.", NORM: "mineralogija"}, {ORTH: "mitol.", NORM: "mitologija"}, {ORTH: "mn.", NORM: "množina"}, {ORTH: "mont.", NORM: "montanistika"}, {ORTH: "muz.", NORM: "muzikologija"}, {ORTH: "nam.", NORM: "namenilnik"}, {ORTH: "nar.", NORM: "narečno"}, {ORTH: "nav.", NORM: "navadno"}, {ORTH: "nedol.", NORM: "nedoločnik"}, {ORTH: "nedov.", NORM: "nedovršni"}, {ORTH: "neprav.", NORM: "nepravilno"}, {ORTH: "nepreh.", NORM: "neprehodno"}, {ORTH: "neskl.", NORM: "nesklonljiv(o)"}, {ORTH: "nestrok.", NORM: "nestrokovno"}, {ORTH: "num.", NORM: "numizmatika"}, {ORTH: "npr.", NORM: "na primer"}, {ORTH: "obrt.", NORM: "obrtništvo"}, {ORTH: "okt.", NORM: "oktober"}, {ORTH: "or.", NORM: "orodnik"}, {ORTH: "os.", NORM: "oseba"}, {ORTH: "otr.", NORM: "otroško"}, {ORTH: "oz.", NORM: "oziroma"}, {ORTH: "pal.", NORM: "paleontologija"}, {ORTH: "papir.", NORM: "papirništvo"}, {ORTH: "ped.", NORM: "pedagogika"}, {ORTH: "pisar.", NORM: "pisarniško"}, {ORTH: "pog.", NORM: "pogovorno"}, {ORTH: "polit.", NORM: "politika"}, {ORTH: "polj.", NORM: "poljsko"}, {ORTH: "poljud.", NORM: "poljudno"}, {ORTH: "preg.", NORM: "pregovor"}, {ORTH: "preh.", NORM: "prehodno"}, {ORTH: "pren.", NORM: "preneseno"}, {ORTH: "prid.", NORM: "pridevnik"}, {ORTH: "prim.", NORM: "primerjaj"}, {ORTH: "prisl.", NORM: "prislov"}, {ORTH: "psih.", NORM: "psihologija"}, {ORTH: "psiht.", NORM: "psihiatrija"}, {ORTH: "rad.", NORM: "radiotehnika"}, {ORTH: "rač.", NORM: "računalništvo"}, {ORTH: "rib.", NORM: "ribištvo"}, {ORTH: "rod.", NORM: "rodilnik"}, {ORTH: "rus.", NORM: "rusko"}, {ORTH: "s.", NORM: "srednji"}, {ORTH: "sam.", NORM: "samostalniški"}, {ORTH: "sed.", NORM: "sedanjik"}, {ORTH: "sep.", NORM: "september"}, {ORTH: "slabš.", NORM: "slabšalno"}, {ORTH: "slovan.", NORM: "slovansko"}, {ORTH: "slovaš.", NORM: "slovaško"}, {ORTH: "srb.", NORM: "srbsko"}, {ORTH: "star.", NORM: "starinsko"}, {ORTH: "stil.", NORM: "stilno"}, {ORTH: "sv.", NORM: "svet(i)"}, {ORTH: "teh.", NORM: "tehnika"}, {ORTH: "tisk.", NORM: "tiskarstvo"}, {ORTH: "tj.", NORM: "to je"}, {ORTH: "tož.", NORM: "tožilnik"}, {ORTH: "trg.", NORM: "trgovina"}, {ORTH: "ukr.", NORM: "ukrajinski"}, {ORTH: "um.", NORM: "umetnost"}, {ORTH: "vel.", NORM: "velelnik"}, {ORTH: "vet.", NORM: "veterina"}, {ORTH: "vez.", NORM: "veznik"}, {ORTH: "vn.", NORM: "visokonemško"}, {ORTH: "voj.", NORM: "vojska"}, {ORTH: "vrtn.", NORM: "vrtnarstvo"}, {ORTH: "vulg.", NORM: "vulgarno"}, {ORTH: "vznes.", NORM: "vzneseno"}, {ORTH: "zal.", NORM: "založništvo"}, {ORTH: "zastar.", NORM: "zastarelo"}, {ORTH: "zgod.", NORM: "zgodovina"}, {ORTH: "zool.", NORM: "zoologija"}, {ORTH: "čeb.", NORM: "čebelarstvo"}, {ORTH: "češ.", NORM: "češki"}, {ORTH: "člov.", NORM: "človeškost"}, {ORTH: "šah.", NORM: "šahovski"}, {ORTH: "šalj.", NORM: "šaljivo"}, {ORTH: "šp.", NORM: "španski"}, {ORTH: "špan.", NORM: "špansko"}, {ORTH: "šport.", NORM: "športni"}, {ORTH: "štev.", NORM: "števnik"}, {ORTH: "šved.", NORM: "švedsko"}, {ORTH: "švic.", NORM: "švicarsko"}, {ORTH: "ž.", NORM: "ženski"}, {ORTH: "žarg.", NORM: "žargonsko"}, {ORTH: "žel.", NORM: "železnica"}, {ORTH: "živ.", NORM: "živost"}, ]: _exc[exc_data[ORTH]] = [exc_data] abbrv = """ Co. Ch. DIPL. DR. Dr. Ev. Inc. Jr. Kr. Mag. M. MR. Mr. Mt. Murr. Npr. OZ. Opr. Osn. Prim. Roj. ST. Sim. Sp. Sred. St. Sv. Škofl. Tel. UR. Zb. a. aa. ab. abc. abit. abl. abs. abt. acc. accel. add. adj. adv. aet. afr. akad. al. alban. all. alleg. alp. alt. alter. alžir. am. an. andr. ang. anh. anon. ans. antrop. apoc. app. approx. apt. ar. arc. arch. arh. arr. as. asist. assist. assoc. asst. astr. attn. aug. avstral. az. b. bab. bal. bbl. bd. belg. bioinf. biomed. bk. bl. bn. borg. bp. br. braz. brit. bros. broš. bt. bu. c. ca. cal. can. cand. cantab. cap. capt. cat. cath. cc. cca. cd. cdr. cdre. cent. cerkv. cert. cf. cfr. ch. chap. chem. chr. chs. cic. circ. civ. cl. cm. cmd. cnr. co. cod. col. coll. colo. com. comp. con. conc. cond. conn. cons. cont. coop. corr. cost. cp. cpl. cr. crd. cres. cresc. ct. cu. d. dan. dat. davč. ddr. dec. ded. def. dem. dent. dept. dia. dip. dipl. dir. disp. diss. div. do. doc. dok. dol. doo. dop. dott. dr. dram. druž. družb. drž. dt. duh. dur. dvr. dwt. e. ea. ecc. eccl. eccles. econ. edn. egipt. egr. ekon. eksp. el. em. enc. eng. eo. ep. err. esp. esq. est. et. etc. etnogr. etnol. ev. evfem. evr. ex. exc. excl. exp. expl. ext. exx. f. fa. facs. fak. faks. fas. fasc. fco. fcp. feb. febr. fec. fed. fem. ff. fff. fid. fig. fil. film. fiziol. fiziot. flam. fm. fo. fol. folk. frag. fran. franc. fsc. g. ga. gal. gdč. ge. gen. geod. geog. geotehnol. gg. gimn. glas. glav. gnr. go. gor. gosp. gp. graf. gram. gren. grš. gs. h. hab. hf. hist. ho. hort. i. ia. ib. ibid. id. idr. idridr. ill. imen. imp. impf. impr. in. inc. incl. ind. indus. inf. inform. ing. init. ins. int. inv. inšp. inštr. inž. is. islam. ist. ital. iur. iz. izbr. izd. izg. izgr. izr. izv. j. jak. jam. jan. jav. je. jez. jr. jsl. jud. jug. jugoslovan. jur. juž. jv. jz. k. kal. kan. kand. kat. kdo. kem. kip. kmet. kol. kom. komp. konf. kont. kost. kov. kp. kpfw. kr. kraj. krat. kub. kult. kv. kval. l. la. lab. lb. ld. let. lib. lik. litt. lj. ljud. ll. loc. log. loč. lt. ma. madž. mag. manag. manjš. masc. mass. mater. max. maxmax. mb. md. mech. medic. medij. medn. mehč. mem. menedž. mes. mess. metal. meteor. meteorol. mex. mi. mikr. mil. minn. mio. misc. miss. mit. mk. mkt. ml. mlad. mlle. mlr. mm. mme. množ. mo. moj. moš. možn. mr. mrd. mrs. ms. msc. msgr. mt. murr. mus. mut. n. na. nad. nadalj. nadom. nagl. nakl. namer. nan. naniz. nasl. nat. navt. nač. ned. nem. nik. nizoz. nm. nn. no. nom. norv. notr. nov. novogr. ns. o. ob. obd. obj. oblač. obl. oblik. obr. obraz. obs. obst. obt. obč. oc. oct. od. odd. odg. odn. odst. odv. oec. off. ok. okla. okr. ont. oo. op. opis. opp. opr. orch. ord. ore. oreg. org. orient. orig. ork. ort. oseb. osn. ot. ozir. ošk. p. pag. par. para. parc. parl. part. past. pat. pdk. pen. perf. pert. perz. pesn. pet. pev. pf. pfc. ph. pharm. phil. pis. pl. po. pod. podr. podaljš. pogl. pogoj. pojm. pok. pokr. pol. poljed. poljub. polu. pom. pomen. pon. ponov. pop. por. port. pos. posl. posn. pov. pp. ppl. pr. praet. prav. pravopis. pravosl. preb. pred. predl. predm. predp. preds. pref. pregib. prel. prem. premen. prep. pres. pret. prev. pribl. prih. pril. primerj. primor. prip. pripor. prir. prist. priv. proc. prof. prog. proiz. prom. pron. prop. prot. protest. prov. ps. pss. pt. publ. pz. q. qld. qu. quad. que. r. racc. rastl. razgl. razl. razv. rd. red. ref. reg. rel. relig. rep. repr. rer. resp. rest. ret. rev. revol. rež. rim. rist. rkp. rm. roj. rom. romun. rp. rr. rt. rud. ruš. ry. sal. samogl. san. sc. scen. sci. scr. sdv. seg. sek. sen. sept. ser. sev. sg. sgt. sh. sig. sigg. sign. sim. sin. sing. sinh. skand. skl. sklad. sklanj. sklep. skr. sl. slik. slov. slovak. slovn. sn. so. sob. soc. sociol. sod. sopomen. sopr. sor. sov. sovj. sp. spec. spl. spr. spreg. sq. sr. sre. sred. sredoz. srh. ss. ssp. st. sta. stan. stanstar. stcsl. ste. stim. stol. stom. str. stroj. strok. stsl. stud. sup. supl. suppl. svet. sz. t. tab. tech. ted. tehn. tehnol. tek. teks. tekst. tel. temp. ten. teol. ter. term. test. th. theol. tim. tip. tisočl. tit. tl. tol. tolmač. tom. tor. tov. tr. trad. traj. trans. tren. trib. tril. trop. trp. trž. ts. tt. tu. tur. turiz. tvor. tvorb. tč. u. ul. umet. un. univ. up. upr. ur. urad. us. ust. utr. v. va. val. var. varn. ven. ver. verb. vest. vezal. vic. vis. viv. viz. viš. vod. vok. vol. vpr. vrst. vrstil. vs. vv. vzd. vzg. vzh. vzor. w. wed. wg. wk. x. y. z. zah. zaim. zak. zap. zasl. zavar. zač. zb. združ. zg. zn. znan. znanstv. zoot. zun. zv. zvd. á. é. ć. č. čas. čet. čl. člen. čustv. đ. ľ. ł. ş. ŠT. š. šir. škofl. škot. šol. št. števil. štud. ů. ű. žen. žival. """.split() for orth in abbrv: _exc[orth] = [{ORTH: orth}] TOKENIZER_EXCEPTIONS = update_exc(BASE_EXCEPTIONS, _exc)
13,288
47.5
117
py
spaCy
spaCy-master/spacy/lang/sq/__init__.py
from ...language import BaseDefaults, Language from .stop_words import STOP_WORDS class AlbanianDefaults(BaseDefaults): stop_words = STOP_WORDS class Albanian(Language): lang = "sq" Defaults = AlbanianDefaults __all__ = ["Albanian"]
251
15.8
46
py
spaCy
spaCy-master/spacy/lang/sq/examples.py
""" Example sentences to test spaCy and its language models. >>> from spacy.lang.sq.examples import sentences >>> docs = nlp.pipe(sentences) """ sentences = [ "Apple po shqyrton blerjen e nje shoqërie të U.K. për 1 miliard dollarë", "Makinat autonome ndryshojnë përgjegjësinë e sigurimit ndaj prodhuesve", "San Francisko konsideron ndalimin e robotëve të shpërndarjes", "Londra është një qytet i madh në Mbretërinë e Bashkuar.", ]
450
29.066667
77
py
spaCy
spaCy-master/spacy/lang/sq/stop_words.py
# Source: https://github.com/andrixh/index-albanian STOP_WORDS = set( """ a afert ai ajo andej anes aq as asaj ashtu ata ate atij atje ato aty atyre b be behem behet bej beje bejne ben bene bere beri bie c ca cdo cfare cila cilat cilave cilen ciles cilet cili cilin cilit deri dhe dic dicka dickaje dike dikujt dikush disa do dot drejt duke dy e edhe ende eshte etj fare gjate gje gjitha gjithcka gjithe gjithnje here i ia ishin ishte iu ja jam jane jap je jemi jo ju k ka kam kane kem kemi keq kesaj keshtu kete ketej ketij keto ketu ketyre kishin kishte kjo krejt kryer kryesisht kryhet ku kudo kundrejt kur kurre kush ky la le lloj m ma madhe marr marre mban mbi me menjehere merr merret mes mi midis mire mjaft mori mos mua mund na ndaj nder ndermjet ndersa ndonje ndryshe ne nen neper nepermjet nese nga nje njera nuk ose pa pak papritur para pas pasi pasur per perbashket perpara po por prane prapa prej pse qe qene qenet rralle rreth rri s sa saj sapo se secila sepse sh shih shume si sic sikur sipas siper sone t ta tani te tej tek teper tere ti tij tilla tille tjera tjeret tjeter tjetren to tone ty tyre u ua une vazhdimisht vend vet veta vete vetem veten vetes vjen yne zakonisht """.split() )
1,210
4.265217
51
py
spaCy
spaCy-master/spacy/lang/sr/__init__.py
from ...language import BaseDefaults, Language from .lex_attrs import LEX_ATTRS from .punctuation import TOKENIZER_INFIXES, TOKENIZER_SUFFIXES from .stop_words import STOP_WORDS from .tokenizer_exceptions import TOKENIZER_EXCEPTIONS class SerbianDefaults(BaseDefaults): tokenizer_exceptions = TOKENIZER_EXCEPTIONS infixes = TOKENIZER_INFIXES suffixes = TOKENIZER_SUFFIXES lex_attr_getters = LEX_ATTRS stop_words = STOP_WORDS class Serbian(Language): lang = "sr" Defaults = SerbianDefaults __all__ = ["Serbian"]
545
23.818182
62
py
spaCy
spaCy-master/spacy/lang/sr/examples.py
""" Example sentences to test spaCy and its language models. >>> from spacy.lang.sr.examples import sentences >>> docs = nlp.pipe(sentences) """ sentences = [ # Translations from English "Apple планира куповину америчког стартапа за $1 милијарду.", "Беспилотни аутомобили пребацују одговорност осигурања на произвођаче.", "Лондон је велики град у Уједињеном Краљевству.", "Где си ти?", "Ко је председник Француске?", # Serbian common and slang "Moj ћале је инжењер!", "Новак Ђоковић је најбољи тенисер света.", "У Пироту има добрих кафана!", "Музеј Николе Тесле се налази у Београду.", ]
635
27.909091
76
py
spaCy
spaCy-master/spacy/lang/sr/lex_attrs.py
from ...attrs import LIKE_NUM _num_words = [ "нула", "један", "два", "три", "четири", "пет", "шест", "седам", "осам", "девет", "десет", "једанаест", "дванаест", "тринаест", "четрнаест", "петнаест", "шеснаест", "седамнаест", "осамнаест", "деветнаест", "двадесет", "тридесет", "четрдесет", "педесет", "шездесет", "седамдесет", "осамдесет", "деведесет", "сто", "двеста", "триста", "четиристо", "петсто", "шестсто", "седамсто", "осамсто", "деветсто", "хиљаду", "милион", "милијарду", "трилион", "квадрилион", "квинтилион", ] def like_num(text): if text.startswith(("+", "-", "±", "~")): text = text[1:] text = text.replace(",", "").replace(".", "") if text.isdigit(): return True if text.count("/") == 1: num, denom = text.split("/") if num.isdigit() and denom.isdigit(): return True if text.lower() in _num_words: return True return False LEX_ATTRS = {LIKE_NUM: like_num}
1,122
16.015152
49
py
spaCy
spaCy-master/spacy/lang/sr/punctuation.py
from ..char_classes import ( ALPHA, ALPHA_LOWER, ALPHA_UPPER, CONCAT_QUOTES, CURRENCY, LIST_ELLIPSES, LIST_ICONS, LIST_PUNCT, LIST_QUOTES, PUNCT, UNITS, ) _infixes = ( LIST_ELLIPSES + LIST_ICONS + [ r"(?<=[0-9])[+\-\*^](?=[0-9-])", r"(?<=[{al}{q}])\.(?=[{au}{q}])".format( al=ALPHA_LOWER, au=ALPHA_UPPER, q=CONCAT_QUOTES ), r"(?<=[{a}]),(?=[{a}])".format(a=ALPHA), r"(?<=[{a}0-9])[:<>=/](?=[{a}])".format(a=ALPHA), ] ) _suffixes = ( LIST_PUNCT + LIST_ELLIPSES + LIST_QUOTES + LIST_ICONS + [ r"(?<=[0-9])\+", r"(?<=°[FfCcKk])\.", r"(?<=[0-9])(?:{c})".format(c=CURRENCY), r"(?<=[0-9])(?:{u})".format(u=UNITS), r"(?<=[{a}{e}{p}(?:{q})])\.".format( a=ALPHA, e=r"%²\-\+", q=CONCAT_QUOTES, p=PUNCT ), ] ) TOKENIZER_INFIXES = _infixes TOKENIZER_SUFFIXES = _suffixes
958
19.847826
59
py
spaCy
spaCy-master/spacy/lang/sr/stop_words.py
STOP_WORDS = set( """ а авај ако ал али арх ау ах аха ај бар би била били било бисмо бисте бих бијасмо бијасте бијах бијаху бијаше биће близу број брр буде будимо будите буду будући бум бућ вам вама вас ваша ваше вашим вашима ваљда веома вероватно већ већина ви видео више врло врх га где гиц год горе гђекоје да дакле дана данас дај два де дедер делимице делимично дем до добар добити довечер докле доле донекле досад доскоро дотад дотле дошао доћи другамо другде други е ево ено ето ех ехе еј желела желеле желели желело желех желећи жели за заиста зар затим зато захвалити зашто збиља зимус знати зум и иде из изван изволи између изнад икада икакав икаква икакве икакви икаквим икаквима икаквих икакво икаквог икаквога икаквом икаквоме икаквој или им има имам имао испод их ију ићи кад када кога којекакав којима коју кришом лани ли мали мањи ме мене мени ми мимо мисли много могу мора морао мој моја моје моји моју моћи му на над након нам нама нас наша наше нашег наши наћи не негде нека некад неке неког неку нема немам неко неће нећемо нећете нећеш нећу ни никада никога никоје никоји никоју нисам ниси нисте нису ништа ниједан но о ова овако овамо овај овде ове овим овима ово овој од одмах око около он онај оне оним онима оном оној ону осим остали отишао па пак питати по поводом под подаље пожељан пожељна поиздаље поименце понекад попреко поред после потаман потрбушке поуздано почетак поједини правити први преко према прије пут пљус радије с са сав сада сам само сасвим сва сваки сви свим свог свом свој своја своје своју сву свугде се себе себи си смети смо ствар стварно сте су сутра та таèно тако такође тамо твој твоја твоје твоји твоју те тебе теби ти тима то томе тој ту у увек увијек уз уза узалуд уздуж узети умало унутра употребити упркос учинио учинити хало хвала хеј хм хоп хоће хоћемо хоћете хоћеш хоћу хтедосте хтедох хтедоше хтела хтеле хтели хтео хтејасмо хтејасте хтејаху хура често чијем чији чијим чијима шиц штагод што штогод ја је један једини једна једне једни једно једном јер јесам јеси јесмо јесу јим јој ју јуче његова његово њезин њезина њезино њему њен њим њима њихова њихово њој њу ће ћемо ћете ћеш ћу """.split() )
2,162
4.489848
17
py
spaCy
spaCy-master/spacy/lang/sr/tokenizer_exceptions.py
from ...symbols import NORM, ORTH from ...util import update_exc from ..tokenizer_exceptions import BASE_EXCEPTIONS _exc = {} _abbrev_exc = [ # Weekdays abbreviations {ORTH: "пoн", NORM: "понедељак"}, {ORTH: "уто", NORM: "уторак"}, {ORTH: "сре", NORM: "среда"}, {ORTH: "чет", NORM: "четвртак"}, {ORTH: "пет", NORM: "петак"}, {ORTH: "суб", NORM: "субота"}, {ORTH: "нед", NORM: "недеља"}, # Months abbreviations {ORTH: "јан", NORM: "јануар"}, {ORTH: "феб", NORM: "фебруар"}, {ORTH: "мар", NORM: "март"}, {ORTH: "апр", NORM: "април"}, {ORTH: "јуни", NORM: "јун"}, {ORTH: "јули", NORM: "јул"}, {ORTH: "авг", NORM: "август"}, {ORTH: "сеп", NORM: "септембар"}, {ORTH: "септ", NORM: "септембар"}, {ORTH: "окт", NORM: "октобар"}, {ORTH: "нов", NORM: "новембар"}, {ORTH: "дец", NORM: "децембар"}, ] for abbrev_desc in _abbrev_exc: abbrev = abbrev_desc[ORTH] for orth in (abbrev, abbrev.capitalize(), abbrev.upper()): _exc[orth] = [{ORTH: orth, NORM: abbrev_desc[NORM]}] _exc[orth + "."] = [{ORTH: orth + ".", NORM: abbrev_desc[NORM]}] # common abbreviations _slang_exc = [ # without dot {ORTH: "др", NORM: "доктор"}, {ORTH: "гдин", NORM: "господин"}, {ORTH: "гђа", NORM: "госпођа"}, {ORTH: "гђица", NORM: "госпођица"}, {ORTH: "мр", NORM: "магистар"}, {ORTH: "Бгд", NORM: "београд"}, {ORTH: "цм", NORM: "центиметар"}, {ORTH: "м", NORM: "метар"}, {ORTH: "км", NORM: "километар"}, {ORTH: "мг", NORM: "милиграм"}, {ORTH: "кг", NORM: "килограм"}, {ORTH: "дл", NORM: "децилитар"}, {ORTH: "хл", NORM: "хектолитар"}, # with dot {ORTH: "ул.", NORM: "улица"}, {ORTH: "бр.", NORM: "број"}, {ORTH: "нпр.", NORM: "на пример"}, {ORTH: "тзв.", NORM: "такозван"}, {ORTH: "проф.", NORM: "професор"}, {ORTH: "стр.", NORM: "страна"}, {ORTH: "једн.", NORM: "једнина"}, {ORTH: "мн.", NORM: "множина"}, {ORTH: "уч.", NORM: "ученик"}, {ORTH: "разр.", NORM: "разред"}, {ORTH: "инж.", NORM: "инжењер"}, {ORTH: "гимн.", NORM: "гимназија"}, {ORTH: "год.", NORM: "година"}, {ORTH: "мед.", NORM: "медицина"}, {ORTH: "гимн.", NORM: "гимназија"}, {ORTH: "акад.", NORM: "академик"}, {ORTH: "доц.", NORM: "доцент"}, {ORTH: "итд.", NORM: "и тако даље"}, {ORTH: "и сл.", NORM: "и слично"}, {ORTH: "н.е.", NORM: "нове ере"}, {ORTH: "о.г.", NORM: "ове године"}, {ORTH: "л.к.", NORM: "лична карта"}, {ORTH: "в.д.", NORM: "вршилац дужности"}, {ORTH: "стр.", NORM: "страна"}, # with qoute {ORTH: "ал'", NORM: "али"}, {ORTH: "ил'", NORM: "или"}, {ORTH: "је л'", NORM: "је ли"}, {ORTH: "да л'", NORM: "да ли"}, {ORTH: "држ'те", NORM: "држите"}, ] for slang_desc in _slang_exc: _exc[slang_desc[ORTH]] = [slang_desc] TOKENIZER_EXCEPTIONS = update_exc(BASE_EXCEPTIONS, _exc)
2,922
30.430108
72
py