Search is not available for this dataset
repo
stringlengths 2
152
⌀ | file
stringlengths 15
239
| code
stringlengths 0
58.4M
| file_length
int64 0
58.4M
| avg_line_length
float64 0
1.81M
| max_line_length
int64 0
12.7M
| extension_type
stringclasses 364
values |
---|---|---|---|---|---|---|
spaCy | spaCy-master/spacy/lang/lij/punctuation.py | from ..char_classes import ALPHA
from ..punctuation import TOKENIZER_INFIXES
ELISION = " ' ’ ".strip().replace(" ", "").replace("\n", "")
_infixes = TOKENIZER_INFIXES + [
r"(?<=[{a}][{el}])(?=[{a}])".format(a=ALPHA, el=ELISION)
]
TOKENIZER_INFIXES = _infixes
| 267 | 21.333333 | 60 | py |
spaCy | spaCy-master/spacy/lang/lij/stop_words.py | STOP_WORDS = set(
"""
a à â a-a a-e a-i a-o aiva aloa an ancheu ancon apreuvo ascì atra atre atri atro avanti avei
bella belle belli bello ben
ch' che chì chi ciù co-a co-e co-i co-o comm' comme con cösa coscì cöse
d' da da-a da-e da-i da-o dapeu de delongo derê di do doe doî donde dòppo
é e ê ea ean emmo en ëse
fin fiña
gh' ghe guæei
i î in insemme int' inta inte inti into
l' lê lì lô
m' ma manco me megio meno mezo mi
na n' ne ni ninte nisciun nisciuña no
o ò ô oua
parte pe pe-a pe-i pe-e pe-o perché pittin pö primma pròpio
quæ quand' quande quarche quella quelle quelli quello
s' sce scê sci sciâ sciô sciù se segge seu sò solo son sott' sta stæta stæte stæti stæto ste sti sto
tanta tante tanti tanto te ti torna tra tròppo tutta tutte tutti tutto
un uña unn' unna
za zu
""".split()
)
| 815 | 19.4 | 100 | py |
spaCy | spaCy-master/spacy/lang/lij/tokenizer_exceptions.py | from ...symbols import ORTH
from ...util import update_exc
from ..tokenizer_exceptions import BASE_EXCEPTIONS
_exc = {}
for raw in [
"a-e",
"a-o",
"a-i",
"a-a",
"co-a",
"co-e",
"co-i",
"co-o",
"da-a",
"da-e",
"da-i",
"da-o",
"pe-a",
"pe-e",
"pe-i",
"pe-o",
]:
for orth in [raw, raw.capitalize()]:
_exc[orth] = [{ORTH: orth}]
# Prefix + prepositions with à (e.g. "sott'a-o")
for prep in [
"a-a",
"a-e",
"a-o",
"a-i",
]:
for prefix in [
"sott'",
"sott’",
"contr'",
"contr’",
"ch'",
"ch’",
"s'",
"s’",
]:
for prefix_orth in [prefix, prefix.capitalize()]:
_exc[prefix_orth + prep] = [{ORTH: prefix_orth}, {ORTH: prep}]
TOKENIZER_EXCEPTIONS = update_exc(BASE_EXCEPTIONS, _exc)
| 861 | 16.24 | 74 | py |
spaCy | spaCy-master/spacy/lang/lt/__init__.py | from ...language import BaseDefaults, Language
from .lex_attrs import LEX_ATTRS
from .punctuation import TOKENIZER_INFIXES, TOKENIZER_SUFFIXES
from .stop_words import STOP_WORDS
from .tokenizer_exceptions import TOKENIZER_EXCEPTIONS
class LithuanianDefaults(BaseDefaults):
infixes = TOKENIZER_INFIXES
suffixes = TOKENIZER_SUFFIXES
tokenizer_exceptions = TOKENIZER_EXCEPTIONS
stop_words = STOP_WORDS
lex_attr_getters = LEX_ATTRS
class Lithuanian(Language):
lang = "lt"
Defaults = LithuanianDefaults
__all__ = ["Lithuanian"]
| 557 | 24.363636 | 62 | py |
spaCy | spaCy-master/spacy/lang/lt/examples.py | """
Example sentences to test spaCy and its language models.
>>> from spacy.lang.lt.examples import sentences
>>> docs = nlp.pipe(sentences)
"""
sentences = [
"Jaunikis pirmąją vestuvinę naktį iškeitė į areštinės gultą",
"Bepiločiai automobiliai išnaikins vairavimo mokyklas, autoservisus ir eismo nelaimes",
"Vilniuje galvojama uždrausti naudoti skėčius",
"Londonas yra didelis miestas Jungtinėje Karalystėje",
"Kur tu?",
"Kas yra Prancūzijos prezidentas?",
"Kokia yra Jungtinių Amerikos Valstijų sostinė?",
"Kada gimė Dalia Grybauskaitė?",
]
| 579 | 29.526316 | 91 | py |
spaCy | spaCy-master/spacy/lang/lt/lex_attrs.py | from ...attrs import LIKE_NUM
_num_words = {
"antra",
"antrai",
"antrais",
"antram",
"antrame",
"antras",
"antri",
"antriems",
"antro",
"antroje",
"antromis",
"antroms",
"antros",
"antrose",
"antru",
"antruose",
"antrus",
"antrą",
"antrų",
"aštunta",
"aštuntai",
"aštuntais",
"aštuntam",
"aštuntame",
"aštuntas",
"aštunti",
"aštuntiems",
"aštunto",
"aštuntoje",
"aštuntomis",
"aštuntoms",
"aštuntos",
"aštuntose",
"aštuntu",
"aštuntuose",
"aštuntus",
"aštuntą",
"aštuntų",
"aštuoneri",
"aštuoneriais",
"aštuonerias",
"aštuoneriems",
"aštuoneriomis",
"aštuonerioms",
"aštuonerios",
"aštuoneriose",
"aštuoneriuose",
"aštuonerius",
"aštuonerių",
"aštuonetai",
"aštuonetais",
"aštuonetams",
"aštuonetas",
"aštuonete",
"aštuoneto",
"aštuonetu",
"aštuonetui",
"aštuonetuose",
"aštuonetus",
"aštuonetą",
"aštuonetų",
"aštuoni",
"aštuoniais",
"aštuonias",
"aštuoniasdešimt",
"aštuoniasdešimta",
"aštuoniasdešimtai",
"aštuoniasdešimtais",
"aštuoniasdešimtam",
"aštuoniasdešimtame",
"aštuoniasdešimtas",
"aštuoniasdešimti",
"aštuoniasdešimtiems",
"aštuoniasdešimties",
"aštuoniasdešimtimi",
"aštuoniasdešimtimis",
"aštuoniasdešimtims",
"aštuoniasdešimtis",
"aštuoniasdešimto",
"aštuoniasdešimtoje",
"aštuoniasdešimtomis",
"aštuoniasdešimtoms",
"aštuoniasdešimtos",
"aštuoniasdešimtose",
"aštuoniasdešimtu",
"aštuoniasdešimtuose",
"aštuoniasdešimtus",
"aštuoniasdešimtyje",
"aštuoniasdešimtys",
"aštuoniasdešimtyse",
"aštuoniasdešimtą",
"aštuoniasdešimtį",
"aštuoniasdešimtų",
"aštuoniasdešimčia",
"aštuoniasdešimčiai",
"aštuoniasdešimčių",
"aštuoniems",
"aštuoniolika",
"aštuoniolikai",
"aštuoniolikoje",
"aštuoniolikos",
"aštuoniolikta",
"aštuonioliktai",
"aštuonioliktais",
"aštuonioliktam",
"aštuonioliktame",
"aštuonioliktas",
"aštuoniolikti",
"aštuonioliktiems",
"aštuoniolikto",
"aštuonioliktoje",
"aštuonioliktomis",
"aštuonioliktoms",
"aštuonioliktos",
"aštuonioliktose",
"aštuonioliktu",
"aštuonioliktuose",
"aštuonioliktus",
"aštuonioliktą",
"aštuonioliktų",
"aštuoniomis",
"aštuonioms",
"aštuonios",
"aštuoniose",
"aštuonis",
"aštuoniuose",
"aštuonių",
"bilijonai",
"bilijonais",
"bilijonams",
"bilijonas",
"bilijone",
"bilijono",
"bilijonu",
"bilijonui",
"bilijonuose",
"bilijonus",
"bilijoną",
"bilijonų",
"devinta",
"devintai",
"devintais",
"devintam",
"devintame",
"devintas",
"devinti",
"devintiems",
"devinto",
"devintoje",
"devintomis",
"devintoms",
"devintos",
"devintose",
"devintu",
"devintuose",
"devintus",
"devintą",
"devintų",
"devyneri",
"devyneriais",
"devynerias",
"devyneriems",
"devyneriomis",
"devynerioms",
"devynerios",
"devyneriose",
"devyneriuose",
"devynerius",
"devynerių",
"devynetas",
"devynete",
"devyneto",
"devynetu",
"devynetui",
"devynetą",
"devyni",
"devyniais",
"devynias",
"devyniasdešimt",
"devyniasdešimta",
"devyniasdešimtai",
"devyniasdešimtais",
"devyniasdešimtam",
"devyniasdešimtame",
"devyniasdešimtas",
"devyniasdešimti",
"devyniasdešimtiems",
"devyniasdešimties",
"devyniasdešimtimi",
"devyniasdešimtimis",
"devyniasdešimtims",
"devyniasdešimtis",
"devyniasdešimto",
"devyniasdešimtoje",
"devyniasdešimtomis",
"devyniasdešimtoms",
"devyniasdešimtos",
"devyniasdešimtose",
"devyniasdešimtu",
"devyniasdešimtuose",
"devyniasdešimtus",
"devyniasdešimtyje",
"devyniasdešimtys",
"devyniasdešimtyse",
"devyniasdešimtą",
"devyniasdešimtį",
"devyniasdešimtų",
"devyniasdešimčia",
"devyniasdešimčiai",
"devyniasdešimčių",
"devyniems",
"devyniolika",
"devyniolikai",
"devyniolikoje",
"devyniolikos",
"devyniolikta",
"devynioliktai",
"devynioliktais",
"devynioliktam",
"devynioliktame",
"devynioliktas",
"devyniolikti",
"devynioliktiems",
"devyniolikto",
"devynioliktoje",
"devynioliktomis",
"devynioliktoms",
"devynioliktos",
"devynioliktose",
"devynioliktu",
"devynioliktuose",
"devynioliktus",
"devynioliktą",
"devynioliktų",
"devyniomis",
"devynioms",
"devynios",
"devyniose",
"devynis",
"devyniuose",
"devynių",
"dešimt",
"dešimta",
"dešimtai",
"dešimtais",
"dešimtam",
"dešimtame",
"dešimtas",
"dešimti",
"dešimtiems",
"dešimties",
"dešimtimi",
"dešimtimis",
"dešimtims",
"dešimtis",
"dešimto",
"dešimtoje",
"dešimtomis",
"dešimtoms",
"dešimtos",
"dešimtose",
"dešimtu",
"dešimtuose",
"dešimtus",
"dešimtyje",
"dešimtys",
"dešimtyse",
"dešimtą",
"dešimtį",
"dešimtų",
"dešimčia",
"dešimčiai",
"dešimčių",
"du",
"dutūkstanta",
"dutūkstantai",
"dutūkstantais",
"dutūkstantam",
"dutūkstantame",
"dutūkstantas",
"dutūkstanti",
"dutūkstantiems",
"dutūkstanto",
"dutūkstantoje",
"dutūkstantomis",
"dutūkstantoms",
"dutūkstantos",
"dutūkstantose",
"dutūkstantu",
"dutūkstantuose",
"dutūkstantus",
"dutūkstantą",
"dutūkstantų",
"dušimta",
"dušimtai",
"dušimtais",
"dušimtam",
"dušimtame",
"dušimtas",
"dušimti",
"dušimtiems",
"dušimto",
"dušimtoje",
"dušimtomis",
"dušimtoms",
"dušimtos",
"dušimtose",
"dušimtu",
"dušimtuose",
"dušimtus",
"dušimtą",
"dušimtų",
"dvejais",
"dvejas",
"dvejetai",
"dvejetais",
"dvejetams",
"dvejetas",
"dvejete",
"dvejeto",
"dvejetu",
"dvejetui",
"dvejetuose",
"dvejetus",
"dvejetą",
"dvejetų",
"dveji",
"dvejiems",
"dvejomis",
"dvejoms",
"dvejos",
"dvejose",
"dvejuose",
"dvejus",
"dvejų",
"dvi",
"dvidešimt",
"dvidešimta",
"dvidešimtai",
"dvidešimtais",
"dvidešimtam",
"dvidešimtame",
"dvidešimtas",
"dvidešimti",
"dvidešimtiems",
"dvidešimties",
"dvidešimtimi",
"dvidešimtimis",
"dvidešimtims",
"dvidešimtis",
"dvidešimto",
"dvidešimtoje",
"dvidešimtomis",
"dvidešimtoms",
"dvidešimtos",
"dvidešimtose",
"dvidešimtu",
"dvidešimtuose",
"dvidešimtus",
"dvidešimtyje",
"dvidešimtys",
"dvidešimtyse",
"dvidešimtą",
"dvidešimtį",
"dvidešimtų",
"dvidešimčia",
"dvidešimčiai",
"dvidešimčių",
"dviejose",
"dviejuose",
"dviejų",
"dviem",
"dvylika",
"dvylikai",
"dvylikoje",
"dvylikos",
"dvylikta",
"dvyliktai",
"dvyliktais",
"dvyliktam",
"dvyliktame",
"dvyliktas",
"dvylikti",
"dvyliktiems",
"dvylikto",
"dvyliktoje",
"dvyliktomis",
"dvyliktoms",
"dvyliktos",
"dvyliktose",
"dvyliktu",
"dvyliktuose",
"dvyliktus",
"dvyliktą",
"dvyliktų",
"keturi",
"keturiais",
"keturias",
"keturiasdešimt",
"keturiasdešimta",
"keturiasdešimtai",
"keturiasdešimtais",
"keturiasdešimtam",
"keturiasdešimtame",
"keturiasdešimtas",
"keturiasdešimti",
"keturiasdešimtiems",
"keturiasdešimties",
"keturiasdešimtimi",
"keturiasdešimtimis",
"keturiasdešimtims",
"keturiasdešimtis",
"keturiasdešimto",
"keturiasdešimtoje",
"keturiasdešimtomis",
"keturiasdešimtoms",
"keturiasdešimtos",
"keturiasdešimtose",
"keturiasdešimtu",
"keturiasdešimtuose",
"keturiasdešimtus",
"keturiasdešimtyje",
"keturiasdešimtys",
"keturiasdešimtyse",
"keturiasdešimtą",
"keturiasdešimtį",
"keturiasdešimtų",
"keturiasdešimčia",
"keturiasdešimčiai",
"keturiasdešimčių",
"keturiems",
"keturiolika",
"keturiolikai",
"keturiolikoje",
"keturiolikos",
"keturiolikta",
"keturioliktai",
"keturioliktais",
"keturioliktam",
"keturioliktame",
"keturioliktas",
"keturiolikti",
"keturioliktiems",
"keturiolikto",
"keturioliktoje",
"keturioliktomis",
"keturioliktoms",
"keturioliktos",
"keturioliktose",
"keturioliktu",
"keturioliktuose",
"keturioliktus",
"keturioliktą",
"keturioliktų",
"keturiomis",
"keturioms",
"keturios",
"keturiose",
"keturis",
"keturiuose",
"keturių",
"ketveri",
"ketveriais",
"ketverias",
"ketveriems",
"ketveriomis",
"ketverioms",
"ketverios",
"ketveriose",
"ketveriuose",
"ketverius",
"ketverių",
"ketvertai",
"ketvertais",
"ketvertams",
"ketvertas",
"ketverte",
"ketverto",
"ketvertu",
"ketvertui",
"ketvertuose",
"ketvertus",
"ketvertą",
"ketvertų",
"ketvirta",
"ketvirtai",
"ketvirtais",
"ketvirtam",
"ketvirtame",
"ketvirtas",
"ketvirti",
"ketvirtiems",
"ketvirto",
"ketvirtoje",
"ketvirtomis",
"ketvirtoms",
"ketvirtos",
"ketvirtose",
"ketvirtu",
"ketvirtuose",
"ketvirtus",
"ketvirtą",
"ketvirtų",
"milijardai",
"milijardais",
"milijardams",
"milijardas",
"milijarde",
"milijardo",
"milijardu",
"milijardui",
"milijarduose",
"milijardus",
"milijardą",
"milijardų",
"milijonai",
"milijonais",
"milijonams",
"milijonas",
"milijone",
"milijono",
"milijonu",
"milijonui",
"milijonuose",
"milijonus",
"milijoną",
"milijonų",
"penkeri",
"penkeriais",
"penkerias",
"penkeriems",
"penkeriomis",
"penkerioms",
"penkerios",
"penkeriose",
"penkeriuose",
"penkerius",
"penkerių",
"penketai",
"penketais",
"penketams",
"penketas",
"penkete",
"penketo",
"penketu",
"penketui",
"penketuose",
"penketus",
"penketą",
"penketų",
"penki",
"penkiais",
"penkias",
"penkiasdešimt",
"penkiasdešimta",
"penkiasdešimtai",
"penkiasdešimtais",
"penkiasdešimtam",
"penkiasdešimtame",
"penkiasdešimtas",
"penkiasdešimti",
"penkiasdešimtiems",
"penkiasdešimties",
"penkiasdešimtimi",
"penkiasdešimtimis",
"penkiasdešimtims",
"penkiasdešimtis",
"penkiasdešimto",
"penkiasdešimtoje",
"penkiasdešimtomis",
"penkiasdešimtoms",
"penkiasdešimtos",
"penkiasdešimtose",
"penkiasdešimtu",
"penkiasdešimtuose",
"penkiasdešimtus",
"penkiasdešimtyje",
"penkiasdešimtys",
"penkiasdešimtyse",
"penkiasdešimtą",
"penkiasdešimtį",
"penkiasdešimtų",
"penkiasdešimčia",
"penkiasdešimčiai",
"penkiasdešimčių",
"penkiems",
"penkiolika",
"penkiolikai",
"penkiolikoje",
"penkiolikos",
"penkiolikta",
"penkioliktai",
"penkioliktais",
"penkioliktam",
"penkioliktame",
"penkioliktas",
"penkiolikti",
"penkioliktiems",
"penkiolikto",
"penkioliktoje",
"penkioliktomis",
"penkioliktoms",
"penkioliktos",
"penkioliktose",
"penkioliktu",
"penkioliktuose",
"penkioliktus",
"penkioliktą",
"penkioliktų",
"penkiomis",
"penkioms",
"penkios",
"penkiose",
"penkis",
"penkiuose",
"penkišimta",
"penkišimtai",
"penkišimtais",
"penkišimtam",
"penkišimtame",
"penkišimtas",
"penkišimti",
"penkišimtiems",
"penkišimto",
"penkišimtoje",
"penkišimtomis",
"penkišimtoms",
"penkišimtos",
"penkišimtose",
"penkišimtu",
"penkišimtuose",
"penkišimtus",
"penkišimtą",
"penkišimtų",
"penkių",
"penkta",
"penktai",
"penktais",
"penktam",
"penktame",
"penktas",
"penkti",
"penktiems",
"penkto",
"penktoje",
"penktomis",
"penktoms",
"penktos",
"penktose",
"penktu",
"penktuose",
"penktus",
"penktą",
"penktų",
"pirma",
"pirmai",
"pirmais",
"pirmaisiais",
"pirmajai",
"pirmajam",
"pirmajame",
"pirmam",
"pirmame",
"pirmas",
"pirmasis",
"pirmi",
"pirmieji",
"pirmiems",
"pirmiesiems",
"pirmo",
"pirmoje",
"pirmoji",
"pirmojo",
"pirmojoje",
"pirmomis",
"pirmoms",
"pirmos",
"pirmose",
"pirmosiomis",
"pirmosioms",
"pirmosios",
"pirmosiose",
"pirmu",
"pirmuoju",
"pirmuose",
"pirmuosiuose",
"pirmuosius",
"pirmus",
"pirmą",
"pirmąja",
"pirmąją",
"pirmąjį",
"pirmąsias",
"pirmų",
"pirmųjų",
"pusantro",
"pusantros",
"pusantrų",
"pusdevinto",
"pusdevintos",
"pusdevintų",
"pusdešimto",
"pusdešimtos",
"pusdešimtų",
"pusketvirto",
"pusketvirtos",
"pusketvirtų",
"puspenkto",
"puspenktos",
"puspenktų",
"pusseptinto",
"pusseptintos",
"pusseptintų",
"pustrečio",
"pustrečios",
"pustrečių",
"pusšešto",
"pusšeštos",
"pusšeštų",
"septinta",
"septintai",
"septintais",
"septintam",
"septintame",
"septintas",
"septinti",
"septintiems",
"septinto",
"septintoje",
"septintomis",
"septintoms",
"septintos",
"septintose",
"septintu",
"septintuose",
"septintus",
"septintą",
"septintų",
"septyneri",
"septyneriais",
"septynerias",
"septyneriems",
"septyneriomis",
"septynerioms",
"septynerios",
"septyneriose",
"septyneriuose",
"septynerius",
"septynerių",
"septynetas",
"septynete",
"septyneto",
"septynetu",
"septynetui",
"septynetą",
"septyni",
"septyniais",
"septynias",
"septyniasdešimt",
"septyniasdešimta",
"septyniasdešimtai",
"septyniasdešimtais",
"septyniasdešimtam",
"septyniasdešimtame",
"septyniasdešimtas",
"septyniasdešimti",
"septyniasdešimtiems",
"septyniasdešimties",
"septyniasdešimtimi",
"septyniasdešimtimis",
"septyniasdešimtims",
"septyniasdešimtis",
"septyniasdešimto",
"septyniasdešimtoje",
"septyniasdešimtomis",
"septyniasdešimtoms",
"septyniasdešimtos",
"septyniasdešimtose",
"septyniasdešimtu",
"septyniasdešimtuose",
"septyniasdešimtus",
"septyniasdešimtyje",
"septyniasdešimtys",
"septyniasdešimtyse",
"septyniasdešimtą",
"septyniasdešimtį",
"septyniasdešimtų",
"septyniasdešimčia",
"septyniasdešimčiai",
"septyniasdešimčių",
"septyniems",
"septyniolika",
"septyniolikai",
"septyniolikoje",
"septyniolikos",
"septyniolikta",
"septynioliktai",
"septynioliktais",
"septynioliktam",
"septynioliktame",
"septynioliktas",
"septyniolikti",
"septynioliktiems",
"septyniolikto",
"septynioliktoje",
"septynioliktomis",
"septynioliktoms",
"septynioliktos",
"septynioliktose",
"septynioliktu",
"septynioliktuose",
"septynioliktus",
"septynioliktą",
"septynioliktų",
"septyniomis",
"septynioms",
"septynios",
"septyniose",
"septynis",
"septyniuose",
"septynių",
"skaitvardi",
"skaitvardis",
"skaitvardyje",
"skaitvardį",
"skaitvardžiai",
"skaitvardžiais",
"skaitvardžiams",
"skaitvardžio",
"skaitvardžiu",
"skaitvardžiui",
"skaitvardžiuose",
"skaitvardžius",
"skaitvardžių",
"trejais",
"trejas",
"trejetai",
"trejetais",
"trejetams",
"trejetas",
"trejete",
"trejeto",
"trejetu",
"trejetui",
"trejetuose",
"trejetus",
"trejetą",
"trejetų",
"treji",
"trejiems",
"trejomis",
"trejoms",
"trejos",
"trejose",
"trejuose",
"trejus",
"trejų",
"treti",
"tretiems",
"trečia",
"trečiai",
"trečiais",
"trečiam",
"trečiame",
"trečias",
"trečio",
"trečioje",
"trečiomis",
"trečioms",
"trečios",
"trečiose",
"trečiu",
"trečiuose",
"trečius",
"trečią",
"trečių",
"trijose",
"trijuose",
"trijų",
"trilijonai",
"trilijonais",
"trilijonams",
"trilijonas",
"trilijone",
"trilijono",
"trilijonu",
"trilijonui",
"trilijonuose",
"trilijonus",
"trilijoną",
"trilijonų",
"trimis",
"trims",
"tris",
"trisdešimt",
"trisdešimta",
"trisdešimtai",
"trisdešimtais",
"trisdešimtam",
"trisdešimtame",
"trisdešimtas",
"trisdešimti",
"trisdešimtiems",
"trisdešimties",
"trisdešimtimi",
"trisdešimtimis",
"trisdešimtims",
"trisdešimtis",
"trisdešimto",
"trisdešimtoje",
"trisdešimtomis",
"trisdešimtoms",
"trisdešimtos",
"trisdešimtose",
"trisdešimtu",
"trisdešimtuose",
"trisdešimtus",
"trisdešimtyje",
"trisdešimtys",
"trisdešimtyse",
"trisdešimtą",
"trisdešimtį",
"trisdešimtų",
"trisdešimčia",
"trisdešimčiai",
"trisdešimčių",
"trylika",
"trylikai",
"trylikoje",
"trylikos",
"trylikta",
"tryliktai",
"tryliktais",
"tryliktam",
"tryliktame",
"tryliktas",
"trylikti",
"tryliktiems",
"trylikto",
"tryliktoje",
"tryliktomis",
"tryliktoms",
"tryliktos",
"tryliktose",
"tryliktu",
"tryliktuose",
"tryliktus",
"tryliktą",
"tryliktų",
"trys",
"tūkstanta",
"tūkstantai",
"tūkstantais",
"tūkstantam",
"tūkstantame",
"tūkstantas",
"tūkstanti",
"tūkstantiems",
"tūkstantis",
"tūkstanto",
"tūkstantoje",
"tūkstantomis",
"tūkstantoms",
"tūkstantos",
"tūkstantose",
"tūkstantu",
"tūkstantuose",
"tūkstantus",
"tūkstantyje",
"tūkstantą",
"tūkstantį",
"tūkstantų",
"tūkstančiai",
"tūkstančiais",
"tūkstančiams",
"tūkstančio",
"tūkstančiu",
"tūkstančiui",
"tūkstančiuose",
"tūkstančius",
"tūkstančių",
"vienam",
"viename",
"vienas",
"vieno",
"vienu",
"vienuolika",
"vienuolikai",
"vienuolikoje",
"vienuolikos",
"vienuolikta",
"vienuoliktais",
"vienuoliktam",
"vienuoliktame",
"vienuoliktas",
"vienuolikti",
"vienuoliktiems",
"vienuolikto",
"vienuoliktoje",
"vienuoliktomis",
"vienuoliktoms",
"vienuoliktos",
"vienuoliktose",
"vienuoliktu",
"vienuoliktuose",
"vienuoliktus",
"vienuoliktą",
"vienuoliktų",
"vienuoliką",
"vieną",
"šešeri",
"šešeriais",
"šešerias",
"šešeriems",
"šešeriomis",
"šešerioms",
"šešerios",
"šešeriose",
"šešeriuose",
"šešerius",
"šešerių",
"šešetai",
"šešetais",
"šešetams",
"šešetas",
"šešete",
"šešeto",
"šešetu",
"šešetui",
"šešetuose",
"šešetus",
"šešetą",
"šešetų",
"šeši",
"šešiais",
"šešias",
"šešiasdešimt",
"šešiasdešimta",
"šešiasdešimtai",
"šešiasdešimtais",
"šešiasdešimtam",
"šešiasdešimtame",
"šešiasdešimtas",
"šešiasdešimti",
"šešiasdešimtiems",
"šešiasdešimties",
"šešiasdešimtimi",
"šešiasdešimtimis",
"šešiasdešimtims",
"šešiasdešimtis",
"šešiasdešimto",
"šešiasdešimtoje",
"šešiasdešimtomis",
"šešiasdešimtoms",
"šešiasdešimtos",
"šešiasdešimtose",
"šešiasdešimtu",
"šešiasdešimtuose",
"šešiasdešimtus",
"šešiasdešimtyje",
"šešiasdešimtys",
"šešiasdešimtyse",
"šešiasdešimtą",
"šešiasdešimtį",
"šešiasdešimtų",
"šešiasdešimčia",
"šešiasdešimčiai",
"šešiasdešimčių",
"šešiems",
"šešiolika",
"šešiolikai",
"šešiolikoje",
"šešiolikos",
"šešiolikta",
"šešioliktai",
"šešioliktais",
"šešioliktam",
"šešioliktame",
"šešioliktas",
"šešiolikti",
"šešioliktiems",
"šešiolikto",
"šešioliktoje",
"šešioliktomis",
"šešioliktoms",
"šešioliktos",
"šešioliktose",
"šešioliktu",
"šešioliktuose",
"šešioliktus",
"šešioliktą",
"šešioliktų",
"šešiomis",
"šešioms",
"šešios",
"šešiose",
"šešis",
"šešiuose",
"šešių",
"šešta",
"šeštai",
"šeštais",
"šeštam",
"šeštame",
"šeštas",
"šešti",
"šeštiems",
"šešto",
"šeštoje",
"šeštomis",
"šeštoms",
"šeštos",
"šeštose",
"šeštu",
"šeštuose",
"šeštus",
"šeštą",
"šeštų",
"šimtai",
"šimtais",
"šimtams",
"šimtas",
"šimte",
"šimto",
"šimtu",
"šimtui",
"šimtuose",
"šimtus",
"šimtą",
"šimtų",
}
def like_num(text):
text = text.replace(",", "").replace(".", "")
if text.isdigit():
return True
if text.count("/") == 1:
num, denom = text.split("/")
if num.isdigit() and denom.isdigit():
return True
if text.lower() in _num_words:
return True
return False
LEX_ATTRS = {LIKE_NUM: like_num}
| 21,536 | 17.711555 | 49 | py |
spaCy | spaCy-master/spacy/lang/lt/punctuation.py | from ..char_classes import (
ALPHA,
ALPHA_LOWER,
ALPHA_UPPER,
CONCAT_QUOTES,
HYPHENS,
LIST_ELLIPSES,
LIST_ICONS,
)
from ..punctuation import TOKENIZER_SUFFIXES
_infixes = (
LIST_ELLIPSES
+ LIST_ICONS
+ [
r"(?<=[0-9])[+\*^](?=[0-9-])",
r"(?<=[{al}{q}])\.(?=[{au}{q}])".format(
al=ALPHA_LOWER, au=ALPHA_UPPER, q=CONCAT_QUOTES
),
r"(?<=[{a}]),(?=[{a}])".format(a=ALPHA),
r"(?<=[{a}])(?:{h})(?=[{a}])".format(a=ALPHA, h=HYPHENS),
r"(?<=[{a}0-9])[:<>=/](?=[{a}])".format(a=ALPHA),
]
)
_suffixes = [r"\."] + list(TOKENIZER_SUFFIXES)
TOKENIZER_INFIXES = _infixes
TOKENIZER_SUFFIXES = _suffixes
| 696 | 20.78125 | 65 | py |
spaCy | spaCy-master/spacy/lang/lt/stop_words.py | STOP_WORDS = {
"a",
"abejais",
"abejas",
"abejetam",
"abejetame",
"abejetas",
"abejeto",
"abejetu",
"abejetą",
"abeji",
"abejiems",
"abejomis",
"abejoms",
"abejos",
"abejose",
"abejuose",
"abejus",
"abejų",
"abi",
"abidvi",
"abiejose",
"abiejuose",
"abiejų",
"abiem",
"abiems",
"abigaliai",
"abipus",
"abu",
"abudu",
"aha",
"ai",
"aiman",
"aj",
"ajajai",
"ak",
"aleliuja",
"aliai",
"alio",
"amen",
"ana",
"anai",
"anaiptol",
"anais",
"anaisiais",
"anajai",
"anajam",
"anajame",
"anam",
"aname",
"anapus",
"anas",
"anasai",
"anasis",
"ane",
"anei",
"anie",
"aniedvi",
"aniedviem",
"anieji",
"aniem",
"aniemdviem",
"aniems",
"aniesiems",
"ano",
"anodviem",
"anoj",
"anoje",
"anoji",
"anojo",
"anojoje",
"anokia",
"anokiai",
"anokiais",
"anokiam",
"anokiame",
"anokias",
"anokie",
"anokiems",
"anokio",
"anokioje",
"anokiomis",
"anokioms",
"anokios",
"anokiose",
"anokiu",
"anokiuose",
"anokius",
"anokią",
"anokių",
"anoks",
"anoksai",
"anokį",
"anom",
"anomdviem",
"anomis",
"anoms",
"anos",
"anose",
"anosiomis",
"anosioms",
"anosios",
"anosiose",
"anot",
"ant",
"antai",
"antrokia",
"antrokiai",
"antrokiais",
"antrokiam",
"antrokiame",
"antrokias",
"antrokie",
"antrokiems",
"antrokio",
"antrokioje",
"antrokiomis",
"antrokioms",
"antrokios",
"antrokiose",
"antrokiu",
"antrokiuose",
"antrokius",
"antrokią",
"antrokių",
"antroks",
"antrokį",
"anuo",
"anuodu",
"anuoju",
"anuos",
"anuose",
"anuosiuose",
"anuosius",
"aną",
"anąja",
"anąją",
"anąjį",
"anąsias",
"anąįį",
"anų",
"anųdviejų",
"anųjų",
"apie",
"aplink",
"ar",
"arba",
"argi",
"arti",
"at",
"aukščiau",
"ačiū",
"aš",
"bakst",
"bambt",
"bau",
"be",
"bei",
"beje",
"bemaž",
"bene",
"bent",
"berods",
"bet",
"betgi",
"beveik",
"bis",
"brakšt",
"braukšt",
"bravo",
"bumbt",
"būtent",
"cakt",
"capt",
"cha",
"cit",
"cvakt",
"dar",
"dargi",
"daugmaž",
"deja",
"dievaž",
"din",
"dirst",
"dribt",
"drykt",
"dunkst",
"dvejokia",
"dvejokiai",
"dvejokiais",
"dvejokiam",
"dvejokiame",
"dvejokias",
"dvejokie",
"dvejokiems",
"dvejokio",
"dvejokioje",
"dvejokiomis",
"dvejokioms",
"dvejokios",
"dvejokiose",
"dvejokiu",
"dvejokiuose",
"dvejokius",
"dvejokią",
"dvejokių",
"dvejoks",
"dvejokį",
"dzin",
"dėka",
"dėkui",
"dėl",
"dėlei",
"dėlto",
"e",
"ech",
"ei",
"ej",
"et",
"fe",
"gaila",
"gal",
"galbūt",
"galgi",
"gan",
"gana",
"gi",
"greta",
"idant",
"iki",
"ir",
"irgi",
"it",
"itin",
"iš",
"išilgai",
"išvis",
"ja",
"jai",
"jais",
"jaisiais",
"jajai",
"jajam",
"jajame",
"jam",
"jame",
"jas",
"jau",
"jei",
"jeigu",
"ji",
"jie",
"jiedu",
"jiedvi",
"jiedviem",
"jieji",
"jiemdviem",
"jiems",
"jiesiems",
"jinai",
"jis",
"jisai",
"jo",
"jodviem",
"jog",
"joje",
"joji",
"jojo",
"jojoje",
"jokia",
"jokiai",
"jokiais",
"jokiam",
"jokiame",
"jokias",
"jokie",
"jokiems",
"jokio",
"jokioje",
"jokiomis",
"jokioms",
"jokios",
"jokiose",
"jokiu",
"jokiuose",
"jokius",
"jokią",
"jokių",
"joks",
"jokį",
"jomdviem",
"jomis",
"joms",
"jos",
"jose",
"josiomis",
"josioms",
"josios",
"josiose",
"judu",
"judvi",
"judviejose",
"judviejuose",
"judviejų",
"judviem",
"juk",
"jumis",
"jums",
"jumyse",
"juo",
"juodu",
"juoju",
"juos",
"juose",
"juosiuose",
"juosius",
"jus",
"ją",
"jąja",
"jąją",
"jąsias",
"jį",
"jįjį",
"jūs",
"jūsiške",
"jūsiškei",
"jūsiškes",
"jūsiškiai",
"jūsiškiais",
"jūsiškiam",
"jūsiškiame",
"jūsiškiams",
"jūsiškio",
"jūsiškis",
"jūsiškiu",
"jūsiškiuose",
"jūsiškius",
"jūsiškių",
"jūsiškė",
"jūsiškėje",
"jūsiškėmis",
"jūsiškėms",
"jūsiškės",
"jūsiškėse",
"jūsiškę",
"jūsiškį",
"jūsų",
"jų",
"jųdviejų",
"jųjų",
"kad",
"kada",
"kadangi",
"kai",
"kaip",
"kaipgi",
"kapt",
"kas",
"katra",
"katrai",
"katrais",
"katram",
"katrame",
"katras",
"katrie",
"katriedvi",
"katriems",
"katro",
"katroje",
"katromis",
"katroms",
"katros",
"katrose",
"katruo",
"katruodu",
"katruos",
"katruose",
"katrą",
"katrų",
"kaukšt",
"kažin",
"kažkas",
"kažkatra",
"kažkatras",
"kažkokia",
"kažkokiai",
"kažkokiais",
"kažkokiam",
"kažkokiame",
"kažkokias",
"kažkokie",
"kažkokiems",
"kažkokio",
"kažkokioje",
"kažkokiomis",
"kažkokioms",
"kažkokios",
"kažkokiose",
"kažkokiu",
"kažkokiuose",
"kažkokius",
"kažkokią",
"kažkokių",
"kažkoks",
"kažkoksai",
"kažkokį",
"kažkuri",
"kažkuria",
"kažkuriai",
"kažkuriais",
"kažkuriam",
"kažkuriame",
"kažkurias",
"kažkurie",
"kažkuriems",
"kažkurio",
"kažkurioje",
"kažkuriomis",
"kažkurioms",
"kažkurios",
"kažkuriose",
"kažkuris",
"kažkuriuo",
"kažkuriuos",
"kažkuriuose",
"kažkurią",
"kažkurių",
"kažkurį",
"keleri",
"keleriais",
"kelerias",
"keleriems",
"keleriomis",
"kelerioms",
"kelerios",
"keleriose",
"keleriuose",
"kelerius",
"kelerių",
"keletas",
"kelete",
"keleto",
"keletu",
"keletui",
"keletą",
"keli",
"keliais",
"kelias",
"keliasdešimt",
"keliems",
"kelinta",
"kelintai",
"kelintaisiais",
"kelintajai",
"kelintajam",
"kelintajame",
"kelintam",
"kelintame",
"kelintas",
"kelintasis",
"kelintieji",
"kelintiesiems",
"kelinto",
"kelintoje",
"kelintoji",
"kelintojo",
"kelintojoje",
"kelintos",
"kelintosioms",
"kelintosios",
"kelintosiose",
"kelintu",
"kelintuoju",
"kelintuosiuose",
"kelintuosius",
"kelintą",
"kelintąją",
"kelintąjį",
"kelintąsias",
"kelintųjų",
"keliolika",
"keliolikai",
"keliolikoje",
"keliolikos",
"keliomis",
"kelioms",
"kelios",
"keliose",
"kelis",
"keliuose",
"kelių",
"kiaurai",
"kiek",
"kiekviena",
"kiekvienai",
"kiekvienais",
"kiekvienam",
"kiekviename",
"kiekvienas",
"kiekvieni",
"kiekvieniems",
"kiekvieno",
"kiekvienoje",
"kiekvienomis",
"kiekvienoms",
"kiekvienos",
"kiekvienose",
"kiekvienu",
"kiekvienuose",
"kiekvienus",
"kiekvieną",
"kiekvienų",
"kieno",
"kita",
"kitai",
"kitais",
"kitam",
"kitame",
"kitas",
"kiti",
"kitiems",
"kito",
"kitoje",
"kitokia",
"kitokiai",
"kitokiais",
"kitokiam",
"kitokiame",
"kitokias",
"kitokie",
"kitokiems",
"kitokio",
"kitokioje",
"kitokiomis",
"kitokioms",
"kitokios",
"kitokiose",
"kitokiu",
"kitokiuose",
"kitokius",
"kitokią",
"kitokių",
"kitoks",
"kitokį",
"kitomis",
"kitoms",
"kitos",
"kitose",
"kitu",
"kituose",
"kitus",
"kitą",
"kitų",
"kodėl",
"kokia",
"kokiai",
"kokiais",
"kokiam",
"kokiame",
"kokias",
"kokie",
"kokiem",
"kokiems",
"kokio",
"kokioje",
"kokiomis",
"kokioms",
"kokios",
"kokiose",
"kokiu",
"kokiuose",
"kokius",
"kokią",
"kokių",
"koks",
"koksai",
"kokį",
"kol",
"kolei",
"kone",
"kuomet",
"kur",
"kurgi",
"kuri",
"kuria",
"kuriai",
"kuriais",
"kuriam",
"kuriame",
"kurias",
"kurie",
"kuriedvi",
"kuriem",
"kuriems",
"kurio",
"kurioje",
"kuriomis",
"kurioms",
"kurion",
"kurios",
"kuriose",
"kuris",
"kuriuo",
"kuriuodu",
"kuriuos",
"kuriuose",
"kurią",
"kurių",
"kurį",
"labanakt",
"labanaktis",
"labas",
"lai",
"lig",
"ligi",
"link",
"lyg",
"man",
"mana",
"manai",
"manais",
"manaisiais",
"manajai",
"manajam",
"manajame",
"manam",
"maname",
"manas",
"manasai",
"manasis",
"mane",
"mani",
"manieji",
"maniems",
"maniesiems",
"manim",
"manimi",
"maniške",
"maniškei",
"maniškes",
"maniškiai",
"maniškiais",
"maniškiam",
"maniškiame",
"maniškiams",
"maniškio",
"maniškis",
"maniškiu",
"maniškiuose",
"maniškius",
"maniškių",
"maniškė",
"maniškėje",
"maniškėmis",
"maniškėms",
"maniškės",
"maniškėse",
"maniškę",
"maniškį",
"mano",
"manoje",
"manoji",
"manojo",
"manojoje",
"manomis",
"manoms",
"manos",
"manose",
"manosiomis",
"manosioms",
"manosios",
"manosiose",
"manu",
"manuoju",
"manuose",
"manuosiuose",
"manuosius",
"manus",
"many",
"manyje",
"maną",
"manąja",
"manąją",
"manąjį",
"manąsias",
"manęs",
"manų",
"manųjų",
"mat",
"maždaug",
"mažne",
"mes",
"mudu",
"mudvi",
"mudviejose",
"mudviejuose",
"mudviejų",
"mudviem",
"mudviems",
"mumis",
"mums",
"mumyse",
"mus",
"mūs",
"mūsiške",
"mūsiškei",
"mūsiškes",
"mūsiškiai",
"mūsiškiais",
"mūsiškiam",
"mūsiškiame",
"mūsiškiams",
"mūsiškio",
"mūsiškis",
"mūsiškiu",
"mūsiškiuose",
"mūsiškius",
"mūsiškių",
"mūsiškė",
"mūsiškėje",
"mūsiškėmis",
"mūsiškėms",
"mūsiškės",
"mūsiškėse",
"mūsiškę",
"mūsiškį",
"mūsų",
"na",
"nagi",
"ne",
"nebe",
"nebent",
"negi",
"negu",
"nei",
"nejau",
"nejaugi",
"nekaip",
"nelyginant",
"nes",
"net",
"netgi",
"netoli",
"neva",
"niekatra",
"niekatrai",
"niekatrais",
"niekatram",
"niekatrame",
"niekatras",
"niekatrie",
"niekatriems",
"niekatro",
"niekatroje",
"niekatromis",
"niekatroms",
"niekatros",
"niekatrose",
"niekatruo",
"niekatruos",
"niekatruose",
"niekatrą",
"niekatrų",
"nors",
"nuo",
"nė",
"nėmaž",
"o",
"ogi",
"oho",
"oi",
"oj",
"op",
"opa",
"paeiliui",
"pagal",
"pagaliau",
"pakeliui",
"pala",
"palaipsniui",
"palei",
"pas",
"pasak",
"paskos",
"paskui",
"paskum",
"pat",
"pati",
"patiem",
"patiems",
"paties",
"pats",
"patsai",
"patys",
"patį",
"paukšt",
"pačia",
"pačiai",
"pačiais",
"pačiam",
"pačiame",
"pačias",
"pačioje",
"pačiomis",
"pačioms",
"pačios",
"pačiose",
"pačiu",
"pačiuose",
"pačius",
"pačią",
"pačių",
"per",
"pernelyg",
"pirm",
"pirma",
"pirmiau",
"pliumpt",
"plius",
"po",
"pokšt",
"prie",
"prieš",
"priešais",
"pro",
"pusiau",
"pykšt",
"rasi",
"rodos",
"sau",
"sava",
"savai",
"savais",
"savaisiais",
"savajai",
"savajam",
"savajame",
"savam",
"savame",
"savas",
"savasai",
"savasis",
"save",
"savi",
"savieji",
"saviems",
"saviesiems",
"savim",
"savimi",
"saviške",
"saviškei",
"saviškes",
"saviškiai",
"saviškiais",
"saviškiam",
"saviškiame",
"saviškiams",
"saviškio",
"saviškis",
"saviškiu",
"saviškiuose",
"saviškius",
"saviškių",
"saviškė",
"saviškėje",
"saviškėmis",
"saviškėms",
"saviškės",
"saviškėse",
"saviškę",
"saviškį",
"savo",
"savoje",
"savoji",
"savojo",
"savojoje",
"savomis",
"savoms",
"savos",
"savose",
"savosiomis",
"savosioms",
"savosios",
"savosiose",
"savu",
"savuoju",
"savuose",
"savuosiuose",
"savuosius",
"savus",
"savyj",
"savyje",
"savą",
"savąja",
"savąją",
"savąjį",
"savąsias",
"savęs",
"savų",
"savųjų",
"skersai",
"skradžiai",
"stačiai",
"strikt",
"strykt",
"stukt",
"su",
"sudie",
"sudieu",
"sudiev",
"sulig",
"ta",
"tad",
"tai",
"taigi",
"taip",
"taipogi",
"tais",
"taisiais",
"tajai",
"tajam",
"tajame",
"tam",
"tame",
"tamsta",
"tamstai",
"tamstas",
"tamstoje",
"tamstomis",
"tamstoms",
"tamstos",
"tamstose",
"tamstą",
"tamstų",
"tarp",
"tarsi",
"tartum",
"tarytum",
"tas",
"tasai",
"tau",
"tava",
"tavai",
"tavais",
"tavaisiais",
"tavajai",
"tavajam",
"tavajame",
"tavam",
"tavame",
"tavas",
"tavasai",
"tavasis",
"tave",
"tavi",
"tavieji",
"taviems",
"taviesiems",
"tavim",
"tavimi",
"taviške",
"taviškei",
"taviškes",
"taviškiai",
"taviškiais",
"taviškiam",
"taviškiame",
"taviškiams",
"taviškio",
"taviškis",
"taviškiu",
"taviškiuose",
"taviškius",
"taviškių",
"taviškė",
"taviškėje",
"taviškėmis",
"taviškėms",
"taviškės",
"taviškėse",
"taviškę",
"taviškį",
"tavo",
"tavoje",
"tavoji",
"tavojo",
"tavojoje",
"tavomis",
"tavoms",
"tavos",
"tavose",
"tavosiomis",
"tavosioms",
"tavosios",
"tavosiose",
"tavu",
"tavuoju",
"tavuose",
"tavuosiuose",
"tavuosius",
"tavus",
"tavy",
"tavyje",
"tavą",
"tavąja",
"tavąją",
"tavąjį",
"tavąsias",
"tavęs",
"tavų",
"tavųjų",
"tačiau",
"te",
"tegu",
"tegul",
"tie",
"tiedu",
"tiedvi",
"tiedviejose",
"tiedviejuose",
"tiedviejų",
"tiedviem",
"tiedviems",
"tieji",
"tiem",
"tiemdviem",
"tiems",
"ties",
"tiesiems",
"tiesiog",
"tik",
"tikriausiai",
"tiktai",
"to",
"todviem",
"toj",
"toje",
"toji",
"tojo",
"tojoje",
"tokia",
"tokiai",
"tokiais",
"tokiam",
"tokiame",
"tokias",
"tokie",
"tokiems",
"tokio",
"tokioje",
"tokiomis",
"tokioms",
"tokios",
"tokiose",
"tokiu",
"tokiuose",
"tokius",
"tokią",
"tokių",
"toks",
"toksai",
"tokį",
"tol",
"tolei",
"toliau",
"tom",
"tomdviem",
"tomis",
"toms",
"tos",
"tose",
"tosiomis",
"tosioms",
"tosios",
"tosiose",
"trakšt",
"trinkt",
"tu",
"tuo",
"tuodu",
"tuoju",
"tuos",
"tuose",
"tuosiuose",
"tuosius",
"turbūt",
"tą",
"tąja",
"tąją",
"tąjį",
"tąsias",
"tąįį",
"tūla",
"tūlai",
"tūlais",
"tūlam",
"tūlame",
"tūlas",
"tūli",
"tūliems",
"tūlo",
"tūloje",
"tūlomis",
"tūloms",
"tūlos",
"tūlose",
"tūlu",
"tūluose",
"tūlus",
"tūlą",
"tūlų",
"tų",
"tųdviejų",
"tųjų",
"ui",
"už",
"užtat",
"užuot",
"užvis",
"va",
"vai",
"valio",
"vau",
"viduj",
"vidury",
"vien",
"vienas",
"vienokia",
"vienoks",
"vietoj",
"virš",
"viršuj",
"viršum",
"vis",
"visa",
"visas",
"visgi",
"visokia",
"visoks",
"vos",
"vėl",
"vėlgi",
"y",
"ypač",
"čikšt",
"činkšt",
"ėgi",
"į",
"įkypai",
"įstrižai",
"ša",
"šalia",
"šast",
"še",
"šekit",
"ši",
"šia",
"šiai",
"šiaipjau",
"šiais",
"šiaisiais",
"šiajai",
"šiajam",
"šiajame",
"šiam",
"šiame",
"šiapus",
"šias",
"šie",
"šiedu",
"šiedvi",
"šiedviejose",
"šiedviejuose",
"šiedviejų",
"šiedviem",
"šiedviems",
"šieji",
"šiemdviem",
"šiems",
"šiesiems",
"šio",
"šiodviem",
"šioje",
"šioji",
"šiojo",
"šiojoje",
"šiokia",
"šiokiai",
"šiokiais",
"šiokiam",
"šiokiame",
"šiokias",
"šiokie",
"šiokiems",
"šiokio",
"šiokioje",
"šiokiomis",
"šiokioms",
"šiokios",
"šiokiose",
"šiokiu",
"šiokiuose",
"šiokius",
"šiokią",
"šiokių",
"šioks",
"šioksai",
"šiokį",
"šiomdviem",
"šiomis",
"šioms",
"šios",
"šiose",
"šiosiomis",
"šiosioms",
"šiosios",
"šiosiose",
"šis",
"šisai",
"šit",
"šita",
"šitai",
"šitais",
"šitaisiais",
"šitajai",
"šitajam",
"šitajame",
"šitam",
"šitame",
"šitas",
"šitasai",
"šitie",
"šitiedvi",
"šitiedviem",
"šitieji",
"šitiem",
"šitiemdviem",
"šitiems",
"šitiesiems",
"šito",
"šitodviem",
"šitoj",
"šitoje",
"šitoji",
"šitojo",
"šitojoje",
"šitokia",
"šitokiai",
"šitokiais",
"šitokiam",
"šitokiame",
"šitokias",
"šitokie",
"šitokiems",
"šitokio",
"šitokioje",
"šitokiomis",
"šitokioms",
"šitokios",
"šitokiose",
"šitokiu",
"šitokiuose",
"šitokius",
"šitokią",
"šitokių",
"šitoks",
"šitoksai",
"šitokį",
"šitom",
"šitomdviem",
"šitomis",
"šitoms",
"šitos",
"šitose",
"šitosiomis",
"šitosioms",
"šitosios",
"šitosiose",
"šituo",
"šituodu",
"šituoju",
"šituos",
"šituose",
"šituosiuose",
"šituosius",
"šitą",
"šitąja",
"šitąją",
"šitąsias",
"šitų",
"šitųdviejų",
"šitųjų",
"šiuo",
"šiuodu",
"šiuoju",
"šiuos",
"šiuose",
"šiuosiuose",
"šiuosius",
"šią",
"šiąja",
"šiąją",
"šiąsias",
"šių",
"šiųdviejų",
"šiųjų",
"škac",
"škic",
"šlept",
"šmurkšt",
"štai",
"šį",
"šįjį",
"žemiau",
"žūtbūt",
}
| 19,027 | 13.447988 | 21 | py |
spaCy | spaCy-master/spacy/lang/lt/tokenizer_exceptions.py | from ...symbols import ORTH
from ...util import update_exc
from ..tokenizer_exceptions import BASE_EXCEPTIONS
_exc = {}
for orth in ["n-tosios", "?!"]:
_exc[orth] = [{ORTH: orth}]
mod_base_exceptions = {
exc: val for exc, val in BASE_EXCEPTIONS.items() if not exc.endswith(".")
}
del mod_base_exceptions["8)"]
TOKENIZER_EXCEPTIONS = update_exc(mod_base_exceptions, _exc)
| 382 | 24.533333 | 77 | py |
spaCy | spaCy-master/spacy/lang/lv/__init__.py | from ...language import BaseDefaults, Language
from .stop_words import STOP_WORDS
class LatvianDefaults(BaseDefaults):
stop_words = STOP_WORDS
class Latvian(Language):
lang = "lv"
Defaults = LatvianDefaults
__all__ = ["Latvian"]
| 247 | 15.533333 | 46 | py |
spaCy | spaCy-master/spacy/lang/lv/stop_words.py | # Source: https://github.com/stopwords-iso/stopwords-lv
STOP_WORDS = set(
"""
aiz
ap
apakš
apakšpus
ar
arī
augšpus
bet
bez
bija
biji
biju
bijām
bijāt
būs
būsi
būsiet
būsim
būt
būšu
caur
diemžēl
diezin
droši
dēļ
esam
esat
esi
esmu
gan
gar
iekam
iekams
iekām
iekāms
iekš
iekšpus
ik
ir
it
itin
iz
ja
jau
jeb
jebšu
jel
jo
jā
ka
kamēr
kaut
kolīdz
kopš
kā
kļuva
kļuvi
kļuvu
kļuvām
kļuvāt
kļūs
kļūsi
kļūsiet
kļūsim
kļūst
kļūstam
kļūstat
kļūsti
kļūstu
kļūt
kļūšu
labad
lai
lejpus
līdz
līdzko
ne
nebūt
nedz
nekā
nevis
nezin
no
nu
nē
otrpus
pa
par
pat
pie
pirms
pret
priekš
pār
pēc
starp
tad
tak
tapi
taps
tapsi
tapsiet
tapsim
tapt
tapāt
tapšu
taču
te
tiec
tiek
tiekam
tiekat
tieku
tik
tika
tikai
tiki
tikko
tiklab
tiklīdz
tiks
tiksiet
tiksim
tikt
tiku
tikvien
tikām
tikāt
tikšu
tomēr
topat
turpretim
turpretī
tā
tādēļ
tālab
tāpēc
un
uz
vai
var
varat
varēja
varēji
varēju
varējām
varējāt
varēs
varēsi
varēsiet
varēsim
varēt
varēšu
vien
virs
virspus
vis
viņpus
zem
ārpus
šaipus
""".split()
)
| 986 | 4.875 | 55 | py |
spaCy | spaCy-master/spacy/lang/mk/__init__.py | from typing import Callable, Optional
from thinc.api import Model
from ...attrs import LANG
from ...language import BaseDefaults, Language
from ...lookups import Lookups
from ...util import update_exc
from ..tokenizer_exceptions import BASE_EXCEPTIONS
from .lemmatizer import MacedonianLemmatizer
from .lex_attrs import LEX_ATTRS
from .stop_words import STOP_WORDS
from .tokenizer_exceptions import TOKENIZER_EXCEPTIONS
class MacedonianDefaults(BaseDefaults):
lex_attr_getters = dict(Language.Defaults.lex_attr_getters)
lex_attr_getters[LANG] = lambda text: "mk"
# Optional: replace flags with custom functions, e.g. like_num()
lex_attr_getters.update(LEX_ATTRS)
# Merge base exceptions and custom tokenizer exceptions
tokenizer_exceptions = update_exc(BASE_EXCEPTIONS, TOKENIZER_EXCEPTIONS)
stop_words = STOP_WORDS
@classmethod
def create_lemmatizer(cls, nlp=None, lookups=None):
if lookups is None:
lookups = Lookups()
return MacedonianLemmatizer(lookups)
class Macedonian(Language):
lang = "mk"
Defaults = MacedonianDefaults
@Macedonian.factory(
"lemmatizer",
assigns=["token.lemma"],
default_config={
"model": None,
"mode": "rule",
"overwrite": False,
"scorer": {"@scorers": "spacy.lemmatizer_scorer.v1"},
},
default_score_weights={"lemma_acc": 1.0},
)
def make_lemmatizer(
nlp: Language,
model: Optional[Model],
name: str,
mode: str,
overwrite: bool,
scorer: Optional[Callable],
):
return MacedonianLemmatizer(
nlp.vocab, model, name, mode=mode, overwrite=overwrite, scorer=scorer
)
__all__ = ["Macedonian"]
| 1,690 | 25.421875 | 77 | py |
spaCy | spaCy-master/spacy/lang/mk/lemmatizer.py | from collections import OrderedDict
from typing import List
from ...pipeline import Lemmatizer
from ...tokens import Token
class MacedonianLemmatizer(Lemmatizer):
def rule_lemmatize(self, token: Token) -> List[str]:
string = token.text
univ_pos = token.pos_.lower()
if univ_pos in ("", "eol", "space"):
return [string.lower()]
if string[-3:] == "јќи":
string = string[:-3]
univ_pos = "verb"
index_table = self.lookups.get_table("lemma_index", {})
exc_table = self.lookups.get_table("lemma_exc", {})
rules_table = self.lookups.get_table("lemma_rules", {})
if not any(
(
index_table.get(univ_pos),
exc_table.get(univ_pos),
rules_table.get(univ_pos),
)
):
if univ_pos == "propn":
return [string]
else:
return [string.lower()]
index = index_table.get(univ_pos, {})
exceptions = exc_table.get(univ_pos, {})
rules = rules_table.get(univ_pos, [])
orig = string
string = string.lower()
forms = []
for old, new in rules:
if string.endswith(old):
form = string[: len(string) - len(old)] + new
if not form:
continue
if form in index or not form.isalpha():
forms.append(form)
forms = list(OrderedDict.fromkeys(forms))
for form in exceptions.get(string, []):
if form not in forms:
forms.insert(0, form)
if not forms:
forms.append(orig)
return forms
| 1,715 | 28.084746 | 63 | py |
spaCy | spaCy-master/spacy/lang/mk/lex_attrs.py | from ...attrs import LIKE_NUM
_num_words = [
"нула",
"еден",
"една",
"едно",
"два",
"две",
"три",
"четири",
"пет",
"шест",
"седум",
"осум",
"девет",
"десет",
"единаесет",
"дванаесет",
"тринаесет",
"четиринаесет",
"петнаесет",
"шеснаесет",
"седумнаесет",
"осумнаесет",
"деветнаесет",
"дваесет",
"триесет",
"четириесет",
"педесет",
"шеесет",
"седумдесет",
"осумдесет",
"деведесет",
"сто",
"двесте",
"триста",
"четиристотини",
"петстотини",
"шестотини",
"седумстотини",
"осумстотини",
"деветстотини",
"илјада",
"илјади",
"милион",
"милиони",
"милијарда",
"милијарди",
"билион",
"билиони",
"двајца",
"тројца",
"четворица",
"петмина",
"шестмина",
"седуммина",
"осуммина",
"деветмина",
"обата",
"обајцата",
"прв",
"втор",
"трет",
"четврт",
"седм",
"осм",
"двестоти",
"два-три",
"два-триесет",
"два-триесетмина",
"два-тринаесет",
"два-тројца",
"две-три",
"две-тристотини",
"пет-шеесет",
"пет-шеесетмина",
"пет-шеснаесетмина",
"пет-шест",
"пет-шестмина",
"пет-шестотини",
"петина",
"осмина",
"седум-осум",
"седум-осумдесет",
"седум-осуммина",
"седум-осумнаесет",
"седум-осумнаесетмина",
"три-четириесет",
"три-четиринаесет",
"шеесет",
"шеесетина",
"шеесетмина",
"шеснаесет",
"шеснаесетмина",
"шест-седум",
"шест-седумдесет",
"шест-седумнаесет",
"шест-седумстотини",
"шестоти",
"шестотини",
]
def like_num(text):
if text.startswith(("+", "-", "±", "~")):
text = text[1:]
text = text.replace(",", "").replace(".", "")
if text.isdigit():
return True
if text.count("/") == 1:
num, denom = text.split("/")
if num.isdigit() and denom.isdigit():
return True
text_lower = text.lower()
if text_lower in _num_words:
return True
if text_lower.endswith(("а", "о", "и")):
if text_lower[:-1] in _num_words:
return True
if text_lower.endswith(("ти", "та", "то", "на")):
if text_lower[:-2] in _num_words:
return True
if text_lower.endswith(("ата", "иот", "ите", "ина", "чки")):
if text_lower[:-3] in _num_words:
return True
if text_lower.endswith(("мина", "тина")):
if text_lower[:-4] in _num_words:
return True
return False
LEX_ATTRS = {LIKE_NUM: like_num}
| 2,612 | 17.798561 | 64 | py |
spaCy | spaCy-master/spacy/lang/mk/stop_words.py | STOP_WORDS = set(
"""
а
абре
aв
аи
ако
алало
ам
ама
аман
ами
амин
априли-ли-ли
ау
аух
ауч
ах
аха
аха-ха
аш
ашколсум
ашколсун
ај
ајде
ајс
аџаба
бавно
бам
бам-бум
бап
бар
баре
барем
бау
бау-бау
баш
бај
бе
беа
бев
бевме
бевте
без
безбели
бездруго
белки
беше
би
бидејќи
бим
бис
бла
блазе
богами
божем
боц
браво
бравос
бре
бреј
брзо
бришка
бррр
бу
бум
буф
буц
бујрум
ваа
вам
варај
варда
вас
вај
ве
велат
вели
версус
веќе
ви
виа
види
вие
вистина
витос
внатре
во
воз
вон
впрочем
врв
вред
време
врз
всушност
втор
галиба
ги
гитла
го
годе
годишник
горе
гра
гуц
гљу
да
даан
дава
дал
дали
дан
два
дваесет
дванаесет
двајца
две
двесте
движам
движат
движи
движиме
движите
движиш
де
деведесет
девет
деветнаесет
деветстотини
деветти
дека
дел
делми
демек
десет
десетина
десетти
деситици
дејгиди
дејди
ди
дилми
дин
дип
дно
до
доволно
додека
додуша
докај
доколку
доправено
доправи
досамоти
доста
држи
дрн
друг
друга
другата
други
другиот
другите
друго
другото
дум
дур
дури
е
евала
еве
евет
ега
егиди
еден
едикојси
единаесет
единствено
еднаш
едно
ексик
ела
елбете
елем
ели
ем
еми
ене
ете
еурека
ех
еј
жими
жити
за
завал
заврши
зад
задека
задоволна
задржи
заедно
зар
зарад
заради
заре
зарем
затоа
зашто
згора
зема
земе
земува
зер
значи
зошто
зуј
и
иако
из
извезен
изгледа
измеѓу
износ
или
или-или
илјада
илјади
им
има
имаа
имаат
имавме
имавте
имам
имаме
имате
имаш
имаше
име
имено
именува
имплицира
имплицираат
имплицирам
имплицираме
имплицирате
имплицираш
инаку
индицира
исечок
исклучен
исклучена
исклучени
исклучено
искористен
искористена
искористени
искористено
искористи
искрај
исти
исто
итака
итн
их
иха
ихуу
иш
ишала
иј
ка
каде
кажува
како
каков
камоли
кај
ква
ки
кит
кло
клум
кога
кого
кого-годе
кое
кои
количество
количина
колку
кому
кон
користена
користени
користено
користи
кот
котрр
кош-кош
кој
која
којзнае
којшто
кр-кр-кр
крај
крек
крз
крк
крц
куку
кукуригу
куш
ле
лебами
леле
лели
ли
лиду
луп
ма
макар
малку
марш
мат
мац
машала
ме
мене
место
меѓу
меѓувреме
меѓутоа
ми
мое
може
можеби
молам
моли
мор
мора
море
мори
мразец
му
муклец
мутлак
муц
мјау
на
навидум
навистина
над
надвор
назад
накај
накрај
нали
нам
наместо
наоколу
направено
направи
напред
нас
наспоред
наспрема
наспроти
насред
натаму
натема
начин
наш
наша
наше
наши
нај
најдоцна
најмалку
најмногу
не
неа
него
негов
негова
негови
негово
незе
нека
некаде
некако
некаков
некого
некое
некои
неколку
некому
некој
некојси
нели
немој
нему
неоти
нечиј
нешто
нејзе
нејзин
нејзини
нејзино
нејсе
ни
нив
нивен
нивна
нивни
нивно
ние
низ
никаде
никако
никогаш
никого
никому
никој
ним
нити
нито
ниту
ничиј
ништо
но
нѐ
о
обр
ова
ова-она
оваа
овај
овде
овега
овие
овој
од
одавде
оди
однесува
односно
одошто
околу
олеле
олкацок
он
она
онаа
онака
онаков
онде
они
оние
оно
оној
оп
освем
освен
осем
осми
осум
осумдесет
осумнаесет
осумстотитни
отаде
оти
откако
откај
откога
отколку
оттаму
оттука
оф
ох
ој
па
пак
папа
пардон
пате-ќуте
пати
пау
паче
пеесет
пеки
пет
петнаесет
петстотини
петти
пи
пи-пи
пис
плас
плус
по
побавно
поблиску
побрзо
побуни
повеќе
повторно
под
подалеку
подолу
подоцна
подруго
позади
поинаква
поинакви
поинакво
поинаков
поинаку
покаже
покажува
покрај
полно
помалку
помеѓу
понатаму
понекогаш
понекој
поради
поразличен
поразлична
поразлични
поразлично
поседува
после
последен
последна
последни
последно
поспоро
потег
потоа
пошироко
прави
празно
прв
пред
през
преку
претежно
претходен
претходна
претходни
претходник
претходно
при
присвои
притоа
причинува
пријатно
просто
против
прр
пст
пук
пусто
пуф
пуј
пфуј
пшт
ради
различен
различна
различни
различно
разни
разоружен
разредлив
рамките
рамнообразно
растревожено
растреперено
расчувствувано
ратоборно
рече
роден
с
сакан
сам
сама
сами
самите
само
самоти
свое
свои
свој
своја
се
себе
себеси
сега
седми
седум
седумдесет
седумнаесет
седумстотини
секаде
секаков
секи
секогаш
секого
секому
секој
секојдневно
сем
сенешто
сепак
сериозен
сериозна
сериозни
сериозно
сет
сечиј
сешто
си
сиктер
сиот
сип
сиреч
сите
сичко
скок
скоро
скрц
следбеник
следбеничка
следен
следователно
следствено
сме
со
соне
сопствен
сопствена
сопствени
сопствено
сосе
сосем
сполај
според
споро
спрема
спроти
спротив
сред
среде
среќно
срочен
сст
става
ставаат
ставам
ставаме
ставате
ставаш
стави
сте
сто
стоп
страна
сум
сума
супер
сус
сѐ
та
таа
така
таква
такви
таков
тамам
таму
тангар-мангар
тандар-мандар
тап
твое
те
тебе
тебека
тек
текот
ти
тие
тизе
тик-так
тики
тоа
тогаш
тој
трак
трака-трука
трас
треба
трет
три
триесет
тринаест
триста
труп
трупа
трус
ту
тука
туку
тукушто
туф
у
уа
убаво
уви
ужасно
уз
ура
уу
уф
уха
уш
уште
фазен
фала
фил
филан
фис
фиу
фиљан
фоб
фон
ха
ха-ха
хе
хеј
хеј
хи
хм
хо
цак
цап
целина
цело
цигу-лигу
циц
чекај
често
четврт
четири
четириесет
четиринаесет
четирстотини
чие
чии
чик
чик-чирик
чини
чиш
чиј
чија
чијшто
чкрап
чому
чук
чукш
чуму
чунки
шеесет
шеснаесет
шест
шести
шестотини
ширум
шлак
шлап
шлапа-шлупа
шлуп
шмрк
што
штогоде
штом
штотуку
штрак
штрап
штрап-штруп
шуќур
ѓиди
ѓоа
ѓоамити
ѕан
ѕе
ѕин
ја
јадец
јазе
јали
јас
јаска
јок
ќе
ќешки
ѝ
џагара-магара
џанам
џив-џив
""".split()
)
| 4,993 | 5.120098 | 17 | py |
spaCy | spaCy-master/spacy/lang/mk/tokenizer_exceptions.py | from ...symbols import NORM, ORTH
_exc = {}
_abbr_exc = [
{ORTH: "м", NORM: "метар"},
{ORTH: "мм", NORM: "милиметар"},
{ORTH: "цм", NORM: "центиметар"},
{ORTH: "см", NORM: "сантиметар"},
{ORTH: "дм", NORM: "дециметар"},
{ORTH: "км", NORM: "километар"},
{ORTH: "кг", NORM: "килограм"},
{ORTH: "дкг", NORM: "декаграм"},
{ORTH: "дг", NORM: "дециграм"},
{ORTH: "мг", NORM: "милиграм"},
{ORTH: "г", NORM: "грам"},
{ORTH: "т", NORM: "тон"},
{ORTH: "кл", NORM: "килолитар"},
{ORTH: "хл", NORM: "хектолитар"},
{ORTH: "дкл", NORM: "декалитар"},
{ORTH: "л", NORM: "литар"},
{ORTH: "дл", NORM: "децилитар"},
]
for abbr in _abbr_exc:
_exc[abbr[ORTH]] = [abbr]
_abbr_line_exc = [
{ORTH: "д-р", NORM: "доктор"},
{ORTH: "м-р", NORM: "магистер"},
{ORTH: "г-ѓа", NORM: "госпоѓа"},
{ORTH: "г-ца", NORM: "госпоѓица"},
{ORTH: "г-дин", NORM: "господин"},
]
for abbr in _abbr_line_exc:
_exc[abbr[ORTH]] = [abbr]
_abbr_dot_exc = [
{ORTH: "в.", NORM: "век"},
{ORTH: "в.д.", NORM: "вршител на должност"},
{ORTH: "г.", NORM: "година"},
{ORTH: "г.г.", NORM: "господин господин"},
{ORTH: "м.р.", NORM: "машки род"},
{ORTH: "год.", NORM: "женски род"},
{ORTH: "с.р.", NORM: "среден род"},
{ORTH: "н.е.", NORM: "наша ера"},
{ORTH: "о.г.", NORM: "оваа година"},
{ORTH: "о.м.", NORM: "овој месец"},
{ORTH: "с.", NORM: "село"},
{ORTH: "т.", NORM: "точка"},
{ORTH: "т.е.", NORM: "то ест"},
{ORTH: "т.н.", NORM: "таканаречен"},
{ORTH: "бр.", NORM: "број"},
{ORTH: "гр.", NORM: "град"},
{ORTH: "др.", NORM: "другар"},
{ORTH: "и др.", NORM: "и друго"},
{ORTH: "и сл.", NORM: "и слично"},
{ORTH: "кн.", NORM: "книга"},
{ORTH: "мн.", NORM: "множина"},
{ORTH: "на пр.", NORM: "на пример"},
{ORTH: "св.", NORM: "свети"},
{ORTH: "сп.", NORM: "списание"},
{ORTH: "с.", NORM: "страница"},
{ORTH: "стр.", NORM: "страница"},
{ORTH: "чл.", NORM: "член"},
{ORTH: "арх.", NORM: "архитект"},
{ORTH: "бел.", NORM: "белешка"},
{ORTH: "гимн.", NORM: "гимназија"},
{ORTH: "ден.", NORM: "денар"},
{ORTH: "ул.", NORM: "улица"},
{ORTH: "инж.", NORM: "инженер"},
{ORTH: "проф.", NORM: "професор"},
{ORTH: "студ.", NORM: "студент"},
{ORTH: "бот.", NORM: "ботаника"},
{ORTH: "мат.", NORM: "математика"},
{ORTH: "мед.", NORM: "медицина"},
{ORTH: "прил.", NORM: "прилог"},
{ORTH: "прид.", NORM: "придавка"},
{ORTH: "сврз.", NORM: "сврзник"},
{ORTH: "физ.", NORM: "физика"},
{ORTH: "хем.", NORM: "хемија"},
{ORTH: "пр. н.", NORM: "природни науки"},
{ORTH: "истор.", NORM: "историја"},
{ORTH: "геогр.", NORM: "географија"},
{ORTH: "литер.", NORM: "литература"},
]
for abbr in _abbr_dot_exc:
_exc[abbr[ORTH]] = [abbr]
TOKENIZER_EXCEPTIONS = _exc
| 2,878 | 29.62766 | 48 | py |
spaCy | spaCy-master/spacy/lang/ml/__init__.py | from ...language import BaseDefaults, Language
from .lex_attrs import LEX_ATTRS
from .stop_words import STOP_WORDS
class MalayalamDefaults(BaseDefaults):
lex_attr_getters = LEX_ATTRS
stop_words = STOP_WORDS
class Malayalam(Language):
lang = "ml"
Defaults = MalayalamDefaults
__all__ = ["Malayalam"]
| 321 | 17.941176 | 46 | py |
spaCy | spaCy-master/spacy/lang/ml/examples.py | """
Example sentences to test spaCy and its language models.
>>> from spacy.lang.ml.examples import sentences
>>> docs = nlp.pipe(sentences)
"""
sentences = [
"അനാവശ്യമായി കണ്ണിലും മൂക്കിലും വായിലും സ്പർശിക്കാതിരിക്കുക",
"പൊതുരംഗത്ത് മലയാള ഭാഷയുടെ സമഗ്രപുരോഗതി ലക്ഷ്യമാക്കി പ്രവർത്തിക്കുന്ന സംഘടനയായ മലയാളഐക്യവേദിയുടെ വിദ്യാർത്ഥിക്കൂട്ടായ്മയാണ് വിദ്യാർത്ഥി മലയാളവേദി",
"എന്താണ് കവാടങ്ങൾ?",
"ചുരുക്കത്തിൽ വിക്കിപീഡിയയുടെ ഉള്ളടക്കത്തിലേക്കുള്ള പടിപ്പുരകളാണ് കവാടങ്ങൾ. അവ ലളിതവും വായനക്കാരനെ ആകർഷിക്കുന്നതുമായിരിക്കും",
"പതിനൊന്നുപേർ വീതമുള്ള രണ്ടു ടീമുകൾ കളിക്കുന്ന സംഘകായിക വിനോദമാണു ക്രിക്കറ്റ്",
]
| 625 | 38.125 | 151 | py |
spaCy | spaCy-master/spacy/lang/ml/lex_attrs.py | from ...attrs import LIKE_NUM
# reference 2: https://www.omniglot.com/language/numbers/malayalam.htm
_num_words = [
"പൂജ്യം ",
"ഒന്ന് ",
"രണ്ട് ",
"മൂന്ന് ",
"നാല് ",
"അഞ്ച് ",
"ആറ് ",
"ഏഴ് ",
"എട്ട് ",
"ഒന്പത് ",
"പത്ത് ",
"പതിനൊന്ന്",
"പന്ത്രണ്ട്",
"പതി മൂന്നു",
"പതിനാല്",
"പതിനഞ്ച്",
"പതിനാറ്",
"പതിനേഴ്",
"പതിനെട്ട്",
"പത്തൊമ്പതു",
"ഇരുപത്",
"ഇരുപത്തിഒന്ന്",
"ഇരുപത്തിരണ്ട്",
"ഇരുപത്തിമൂന്ന്",
"ഇരുപത്തിനാല്",
"ഇരുപത്തിഅഞ്ചു",
"ഇരുപത്തിആറ്",
"ഇരുപത്തിഏഴ്",
"ഇരുപത്തിഎട്ടു",
"ഇരുപത്തിഒന്പത്",
"മുപ്പത്",
"മുപ്പത്തിഒന്ന്",
"മുപ്പത്തിരണ്ട്",
"മുപ്പത്തിമൂന്ന്",
"മുപ്പത്തിനാല്",
"മുപ്പത്തിഅഞ്ചു",
"മുപ്പത്തിആറ്",
"മുപ്പത്തിഏഴ്",
"മുപ്പത്തിഎട്ട്",
"മുപ്പത്തിഒന്പതു",
"നാല്പത് ",
"അന്പത് ",
"അറുപത് ",
"എഴുപത് ",
"എണ്പത് ",
"തൊണ്ണൂറ് ",
"നുറ് ",
"ആയിരം ",
"പത്തുലക്ഷം",
]
def like_num(text):
"""
Check if text resembles a number
"""
if text.startswith(("+", "-", "±", "~")):
text = text[1:]
text = text.replace(",", "").replace(".", "")
if text.isdigit():
return True
if text.count("/") == 1:
num, denom = text.split("/")
if num.isdigit() and denom.isdigit():
return True
if text in _num_words:
return True
return False
LEX_ATTRS = {LIKE_NUM: like_num}
| 1,451 | 17.857143 | 70 | py |
spaCy | spaCy-master/spacy/lang/ml/stop_words.py | STOP_WORDS = set(
"""
അത്
ഇത്
ആയിരുന്നു
ആകുന്നു
വരെ
അന്നേരം
അന്ന്
ഇന്ന്
ആണ്
""".split()
)
| 94 | 5.785714 | 17 | py |
spaCy | spaCy-master/spacy/lang/mr/__init__.py | from ...language import BaseDefaults, Language
from .stop_words import STOP_WORDS
class MarathiDefaults(BaseDefaults):
stop_words = STOP_WORDS
class Marathi(Language):
lang = "mr"
Defaults = MarathiDefaults
__all__ = ["Marathi"]
| 247 | 15.533333 | 46 | py |
spaCy | spaCy-master/spacy/lang/mr/stop_words.py | # Source: https://github.com/stopwords-iso/stopwords-mr/blob/master/stopwords-mr.txt, https://github.com/6/stopwords-json/edit/master/dist/mr.json
STOP_WORDS = set(
"""
न
अतरी
तो
हें
तें
कां
आणि
जें
जे
मग
ते
मी
जो
परी
गा
हे
ऐसें
आतां
नाहीं
तेथ
हा
तया
असे
म्हणे
काय
कीं
जैसें
तंव
तूं
होय
जैसा
आहे
पैं
तैसा
जरी
म्हणोनि
एक
ऐसा
जी
ना
मज
एथ
या
जेथ
जया
तुज
तेणें
तैं
पां
असो
करी
ऐसी
येणें
जाहला
तेंचि
आघवें
होती
कांहीं
होऊनि
एकें
मातें
ठायीं
ये
सकळ
केलें
जेणें
जाण
जैसी
होये
जेवीं
एऱ्हवीं
मीचि
किरीटी
दिसे
देवा
हो
तरि
कीजे
तैसे
आपण
तिये
कर्म
नोहे
इये
पडे
माझें
तैसी
लागे
नाना
जंव
कीर
अधिक
अनेक
अशी
असलयाचे
असलेल्या
असा
असून
असे
आज
आणि
आता
आपल्या
आला
आली
आले
आहे
आहेत
एक
एका
कमी
करणयात
करून
का
काम
काय
काही
किवा
की
केला
केली
केले
कोटी
गेल्या
घेऊन
जात
झाला
झाली
झाले
झालेल्या
टा
तर
तरी
तसेच
ता
ती
तीन
ते
तो
त्या
त्याचा
त्याची
त्याच्या
त्याना
त्यानी
त्यामुळे
त्री
दिली
दोन
न
पण
पम
परयतन
पाटील
म
मात्र
माहिती
मी
मुबी
म्हणजे
म्हणाले
म्हणून
या
याचा
याची
याच्या
याना
यानी
येणार
येत
येथील
येथे
लाख
व
व्यकत
सर्व
सागित्ले
सुरू
हजार
हा
ही
हे
होणार
होत
होता
होती
होते
""".split()
)
| 1,068 | 4.53886 | 146 | py |
spaCy | spaCy-master/spacy/lang/ms/__init__.py | from ...language import BaseDefaults, Language
from .lex_attrs import LEX_ATTRS
from .punctuation import TOKENIZER_INFIXES, TOKENIZER_PREFIXES, TOKENIZER_SUFFIXES
from .stop_words import STOP_WORDS
from .syntax_iterators import SYNTAX_ITERATORS
from .tokenizer_exceptions import TOKENIZER_EXCEPTIONS
class MalayDefaults(BaseDefaults):
tokenizer_exceptions = TOKENIZER_EXCEPTIONS
prefixes = TOKENIZER_PREFIXES
suffixes = TOKENIZER_SUFFIXES
infixes = TOKENIZER_INFIXES
syntax_iterators = SYNTAX_ITERATORS
lex_attr_getters = LEX_ATTRS
stop_words = STOP_WORDS
class Malay(Language):
lang = "ms"
Defaults = MalayDefaults
__all__ = ["Malay"]
| 678 | 26.16 | 82 | py |
spaCy | spaCy-master/spacy/lang/ms/_tokenizer_exceptions_list.py | # from https://prpm.dbp.gov.my/cari1?keyword=
# dbp https://en.wikipedia.org/wiki/Dewan_Bahasa_dan_Pustaka
MS_BASE_EXCEPTIONS = set(
"""
aba-aba
abah-abah
abar-abar
abrit-abritan
abu-abu
abuk-abuk
abun-abun
acak-acak
acak-acakan
acang-acang
aci-aci
aci-acian
aci-acinya
adang-adang
adap-adapan
adik-beradik
aduk-adukan
agak-agak
agar-agar
agut-agut
air-cooled
ajar-ajar
aji-aji
akal-akal
akhir-akhir
aki-aki
alah-mengalahi
alan-alan
alang-alang
alang-alangan
alap-alap
ali-ali
alih-alih
aling-aling
aling-alingan
alip-alipan
alon-alon
alu-alu
alu-aluan
alun-alun
alur-alur
ambah-ambah
ambai-ambai
ambil-mengambil
ambring-ambringan
ambu-ambu
ambung-ambung
amin-amin
ampai-ampai
amung-amung
anai-anai
anak-anak
anak-anakan
anak-beranak
ancak-ancak
ancang-ancang
andang-andang
angan-angan
anggar-anggar
angin-angin
angin-anginan
angkul-angkul
angkup-angkup
angkut-angkut
ani-ani
aning-aning
anjang-anjang
anjing-anjing
anjung-anjung
anjung-anjungan
antar-antar
ante-mortem
anting-anting
antung-antung
anyam-menganyam
apa-apa
api-api
apit-apit
aprit-apritan
arah-arah
arak-arakan
aram-aram
ari-ari
aru-aru
asa-asaan
asam-asaman
asuh-asuh
atas-mengatasi
ati-ati
audio-visual
avant-garde
awang-awang
awang-gemawang
ayak-ayak
ayam-ayam
ayam-ayaman
ayang-ayang
ayeng-ayengan
ayun-temayun
back-up
bahu-membahu
baik-baik
bajang-bajang
baji-baji
balai-balai
balam-balam
balas-membalas
baling-baling
balut-balut
bangun-bangun
bantal-bantal
barat-barat
barau-barau
bari-bari
barung-barung
basa-basi
bata-bata
batir-batir
bau-bauan
bayang-bayang
bedil-bedal
begana-begini
bekal-bekalan
belat-belit
belu-belai
benggal-benggil
bengkal-bengkil
bengkang-bengkok
bengkang-bengkong
berabad-abad
berabun-rabun
berada-ada
beragah-agah
beragak-agak
beragam-ragam
beraja-raja
berakit-rakit
beraku-akuan
beralun-alun
beramah-ramahan
beramah-tamah
beramai-ramai
berambai-ambai
berambal-ambalan
beramuk-amukan
berandai-andai
berandai-randai
berang-berang
berangan-angan
beranggap-anggapan
berangguk-angguk
berangin-angin
berangka-angka
berangka-angkaan
berangkai-rangkai
beranja-anja
berantai-rantai
berapi-api
berapung-apung
berarak-arakan
beras-beras
berasing-asingan
beratus-ratus
berawas-awas
berayal-ayalan
berayun-ayun
berbagai-bagai
berbahas-bahasan
berbalas-balasan
berbalik-balik
berbanjar-banjar
berbantah-bantah
berbanyak-banyak
berbarik-barik
berbasah-basah
berbatu-batu
berbayang-bayang
berbecak-becak
berbedil-bedilan
berbeka-beka
berbelakang-belakangan
berbelang-belang
berbeli-belian
berbelit-belit
berbelok-belok
berbenar-benar
berbencah-bencah
berbesar-besar
berbidai-bidai
berbiku-biku
berbilik-bilik
berbinar-binar
berbincang-bincang
berbingkah-bingkah
berbintang-bintang
berbintik-bintik
berbintil-bintil
berbisik-bisik
berbolak-balik
berbolong-bolong
berbondong-bondong
berbongkah-bongkah
berbuai-buai
berbual-bual
berbukit-bukit
berbulan-bulan
berbunga-bunga
berbuntut-buntut
berbunuh-bunuhan
berburu-buru
berburuk-buruk
berbutir-butir
bercabang-cabang
bercaci-cacian
bercakap-cakap
bercakar-cakaran
bercantik-cantik
bercari-cari
bercari-carian
bercarik-carik
bercepat-cepat
bercerai-berai
bercerai-cerai
bercetai-cetai
bercikun-cikun
bercinta-cintaan
bercita-cita
berciut-ciut
berconteng-conteng
bercoreng-coreng
bercoreng-moreng
bercuit-cuit
bercumbu-cumbu
bercumbu-cumbuan
bercura-bura
bercura-cura
berdada-dadaan
berdahulu-dahuluan
berdalam-dalam
berdebar-debar
berdecap-decap
berdedai-dedai
berdegap-degap
berdegar-degar
berdeham-deham
berdekah-dekah
berdekat-dekat
berdelat-delat
berdembun-dembun
berdempang-dempang
berdendam-dendaman
berdengkang-dengkang
berdentang-dentang
berdentum-dentum
berdentung-dentung
berdepak-depak
berdepan-depan
berderai-derai
berderak-derak
berderau-derau
berdering-dering
berderung-derung
berdesak-desakan
berdesing-desing
berdesus-desus
berdikit-dikit
berdingkit-dingkit
berdua-dua
berduri-duri
berduru-duru
berduyun-duyun
berebut-rebut
berebut-rebutan
beregang-regang
berek-berek
berembut-rembut
berempat-empat
berenak-enak
berenteng-renteng
beresah-resah
berfoya-foya
bergagah-gagahan
bergagap-gagap
bergalur-galur
berganda-ganda
berganti-ganti
bergarah-garah
bergaruk-garuk
bergegas-gegas
bergelang-gelang
bergelap-gelap
bergelas-gelasan
bergeleng-geleng
bergemal-gemal
bergembut-gembut
bergerek-gerek
bergesa-gesa
bergilir-gilir
bergolek-golek
bergores-gores
bergotong-royong
bergugus-gugus
bergulung-gulung
bergulut-gulut
bergumpal-gumpal
bergunung-gunung
berhadap-hadapan
berhamun-hamun
berhandai-handai
berhanyut-hanyut
berhari-hari
berhati-hati
berhilau-hilau
berhujan-hujan
beria-ia
beria-ria
beriak-riak
beribu-ribu
berigi-rigi
bering-bering
beringat-ingat
beringgit-ringgit
berintik-rintik
beriring-iring
beriring-iringan
berjabir-jabir
berjaga-jaga
berjagung-jagung
berjalan-jalan
berjalar-jalar
berjalin-jalin
berjalur-jalur
berjam-jam
berjauh-jauhan
berjejal-jejal
berjela-jela
berjenis-jenis
berjenjang-jenjang
berjilid-jilid
berjinak-jinak
berjingkat-jingkat
berjingkrak-jingkrak
berjongkok-jongkok
berjubel-jubel
berjujut-jujutan
berjulai-julai
berjumbai-jumbai
berjurai-jurai
berjurus-jurus
berjuta-juta
berkaca-kaca
berkait-kaitan
berkala-kala
berkali-kali
berkanjar-kanjar
berkaok-kaok
berkarung-karung
berkasih-kasihan
berkata-kata
berkatak-katak
berkecai-kecai
berkecek-kecek
berkecil-kecil
berkecil-kecilan
berkedip-kedip
berkejang-kejang
berkejap-kejap
berkejar-kejaran
berkelar-kelar
berkelip-kelip
berkelit-kelit
berkelok-kelok
berkelompok-kelompok
berkelun-kelun
berkembur-kembur
berkempul-kempul
berkena-kenaan
berkenal-kenalan
berkendur-kendur
berkeok-keok
berkepak-kepak
berkepal-kepal
berkeping-keping
berkepul-kepul
berkeras-kerasan
berkeritik-keritik
berkeruit-keruit
berkerut-kerut
berketak-ketak
berketak-ketik
berketi-keti
berketil-ketil
berketuk-ketak
berketul-ketul
berkial-kial
berkian-kian
berkias-kiasan
berkibar-kibar
berkilah-kilah
berkilat-kilat
berkilau-kilauan
berkilo-kilo
berkinja-kinja
berkipas-kipas
berkira-kira
berkirim-kiriman
berkobar-kobar
berkobok-kobok
berkocak-kocak
berkodi-kodi
berkolek-kolek
berkopah-kopah
berkotak-kotak
berkuat-kuatan
berkunang-kunang
berkurun-kurun
berkusau-kusau
berkusu-kusu
berkusut-kusut
berkuting-kuting
berkutu-kutuan
berlabun-labun
berlain-lainan
berlalai-lalai
berlama-lama
berlambai-lambai
berlambak-lambak
berlampang-lampang
berlapang-lapang
berlapis-lapis
berlapuk-lapuk
berlarah-larah
berlarat-larat
berlari-larian
berlarik-larik
berlarut-larut
berlawak-lawak
berlayap-layapan
berlebih-lebih
berlebih-lebihan
berlekas-lekas
berlena-lena
berlengah-lengah
berlenggek-lenggek
berlenggok-lenggok
berleret-leret
berliang-liuk
berliku-liku
berlimpah-limpah
berlimpap-limpap
berlimpit-limpit
berlinang-linang
berlindak-lindak
berlipat-lipat
berlompok-lompok
berloncat-loncatan
berlopak-lopak
berlubang-lubang
bermaaf-maafan
bermacam-macam
bermain-main
bermalas-malas
bermanik-manik
bermanis-manis
bermanja-manja
bermasak-masak
bermati-mati
bermegah-megah
bermemek-memek
bermesra-mesraan
bermewah-mewah
berminggu-minggu
berminta-minta
bermuda-muda
bermudah-mudah
bermuka-muka
bermula-mula
bermulut-mulut
bernafsi-nafsi
bernaka-naka
berniat-niat
berogak-ogak
beroleng-oleng
berolok-olok
beromong-omong
beronggok-onggok
berorang-orang
beroyal-royal
berpada-pada
berpahit-pahit
berpair-pair
berpal-pal
berpalu-palu
berpalu-paluan
berpalun-palun
berpandai-pandai
berpandang-pandangan
berpangkat-pangkat
berpanjang-panjang
berpasang-pasang
berpasang-pasangan
berpayah-payah
berpeluh-peluh
berpeluk-pelukan
berpenat-penat
berpencar-pencar
berpendar-pendar
berpenggal-penggal
berperai-perai
berpesai-pesai
berpesta-pesta
berpesuk-pesuk
berpetak-petak
berpeti-peti
berpihak-pihak
berpijar-pijar
berpikul-pikul
berpilih-pilih
berpilin-pilin
berpindah-pindah
berpintal-pintal
berpirau-pirau
berpisah-pisah
berpolah-polah
berpongah-pongah
berpontang-panting
berporah-porah
berpotong-potong
berpuak-puak
berpual-pual
berpugak-pugak
berpuluh-puluh
berpulun-pulun
berpuntal-puntal
berpura-pura
berpusar-pusar
berpusing-pusing
berpusu-pusu
berputar-putar
bersaf-saf
bersahut-sahutan
bersakit-sakit
bersalah-salahan
bersalam-salaman
bersalin-salin
bersama-sama
bersambut-sambutan
bersampan-sampan
bersantai-santai
bersapa-sapaan
bersarang-sarang
bersedan-sedan
bersedia-sedia
bersedu-sedu
bersekat-sekat
berselang-selang
berselang-seli
bersembur-semburan
bersempit-sempit
bersenang-senang
bersenang-senangkan
bersenda-senda
bersendi-sendi
bersepah-sepah
bersepi-sepi
berserak-serak
berseri-seri
bersesak-sesak
bersetai-setai
bersia-sia
bersiap-siap
bersiar-siar
bersilir-silir
bersimbur-simburan
bersinau-sinau
bersorak-sorai
bersuap-suapan
bersudah-sudah
bersuka-suka
bersuka-sukaan
bersuku-suku
bersumpah-sumpahan
bersungguh-sungguh
bersungut-sungut
bersunyi-sunyi
bersusah-susah
bersusuk-susuk
bersusuk-susukan
bersutan-sutan
bertabur-tabur
bertahu-tahu
bertahun-tahun
bertajuk-tajuk
bertakik-takik
bertala-tala
bertali-tali
bertalu-talu
bertambah-tambah
bertanda-tandaan
bertangis-tangisan
bertangkil-tangkil
bertanya-tanya
bertarik-tarikan
bertatai-tatai
bertatih-tatih
bertawan-tawan
bertawar-tawaran
bertebu-tebu
bertebu-tebukan
berteguh-teguh
berteguh-teguhan
berteka-teki
bertelau-telau
bertele-tele
bertempat-tempat
bertempuh-tempuh
bertenang-tenang
bertenggang-tenggangan
bertentu-tentu
bertepek-tepek
berterang-terang
berterang-terangan
bertikam-tikaman
bertimbal-timbalan
bertimbun-timbun
bertimpa-timpa
bertimpas-timpas
bertingkah-tingkah
bertingkat-tingkat
bertinjau-tinjauan
bertiras-tiras
bertitar-titar
bertoboh-toboh
bertolak-tolak
bertolak-tolakan
bertolong-tolongan
bertonjol-tonjol
bertua-tua
bertua-tuaan
bertual-tual
bertubi-tubi
bertukar-tukar
bertukar-tukaran
bertukas-tukas
bertumpak-tumpak
bertunda-tunda
bertunjuk-tunjukan
bertura-tura
berturut-turut
bertutur-tutur
beruas-ruas
berubah-ubah
berulang-alik
berulang-ulang
berumbai-rumbai
berundung-undung
berunggas-runggas
berungkur-ungkuran
beruntai-untai
beruntun-runtun
berunyai-unyai
berupa-rupa
berura-ura
beruris-uris
berurut-urutan
berwarna-warna
berwarna-warni
berwindu-windu
berwiru-wiru
beryang-yang
besar-besaran
betak-betak
beti-beti
betul-betul
biang-biang
biar-biar
biji-bijian
bila-bila
bilang-bilang
bincang-bincut
bini-binian
biri-biri
biru-biru
bisik-bisik
biti-biti
bolak-balik
bolang-baling
bongkar-bangkir
buah-buahan
buat-buatan
buaya-buaya
bubun-bubun
bugi-bugi
built-in
bukan-bukan
bulan-bulan
bulan-bulanan
bulang-bulang
bulat-bulat
buli-buli
bulu-bulu
buluh-buluh
bulus-bulus
bunga-bungaan
bunuh-membunuh
bunyi-bunyian
buru-buru
burung-burungan
bye-bye
cabik-cabik
caing-caing
calar-balar
cara-cara
carut-marut
cawi-cawi
cebar-cebur
celam-celum
celangak-celinguk
celas-celus
celedang-celedok
celengkak-celengkok
cemas-cemas
centang-perenang
cepat-cepat
cerai-berai
ceruk-menceruk
ceruk-meruk
check-up
chit-chat
cirit-birit
cita-cita
close-up
closed-circuit
cobak-cabik
cobar-cabir
cola-cala
compang-camping
congak-cangit
congkah-cangkih
congkah-mangkih
copak-capik
corak-carik
corat-coret
coreng-moreng
cuang-caing
cubung-cubung
culik-culik
cuma-cuma
cumi-cumi
cungap-cangip
cupu-cupu
dahulu-mendahului
dali-dali
dapur-dapur
dari-dari
daru-daru
datang-datang
datang-mendatangi
daun-daunan
dawai-dawai
dayang-dayang
degap-degap
dekak-dekak
dekat-dekat
dengar-dengaran
desas-desus
diam-diam
do-it-yourself
dokok-dokok
dolak-dalik
dorong-mendorong
drive-in
dua-dua
dua-duanya
duduk-duduk
dulang-dulang
ecek-ecek
embuh-embuhan
empek-empek
empok-empok
encal-encal
endap-endap
endut-endutan
engah-engah
enggan-enggan
engkah-engkah
entah-berentah
erang-erot
erong-erong
fast-food
fifty-fifty
flip-flop
follow-up
foya-foya
gaba-gaba
gabai-gabai
gada-gada
gading-gading
gado-gado
gajah-gajahan
gala-gala
gali-galian
galing-galing
galu-galu
gamit-gamitan
gampang-gampangan
ganal-ganal
ganda-berganda
gapah-gopoh
gara-gara
garah-garah
gatal-gatal
gawar-gawar
gaya-gayanya
gedebak-gedebuk
gelang-gelang
gelembung-gelembungan
geli-geli
geliang-geliut
geliat-geliut
gempul-gempul
gendang-gendang
genjang-genjot
gerabak-gerubuk
gerak-gerik
gerbas-gerbus
gerit-gerit
geruh-gerah
getak-getuk
geti-geti
gila-gila
gila-gilaan
gilang-gemilang
gilap-gemilap
gili-gili
giling-giling
ginang-ginang
girik-girik
giring-giring
go-kart
golak-galik
gonta-ganti
gotong-royong
gual-gail
gudu-gudu
gula-gula
gulang-gulang
guna-guna
guntang-guntang
gunung-ganang
gunung-gemunung
gunung-gunungan
habis-habis
habis-habisan
halai-balai
half-time
hampir-hampir
harap-harapan
harum-haruman
hati-hati
heavy-duty
hebat-hebatan
hidup-hidup
hiru-biru
hiruk-pikuk
hubaya-hubaya
hula-hula
huru-hara
ibar-ibar
icak-icak
igau-igauan
ikut-ikut
ikut-ikutan
ilam-ilam
imbang-imbangan
inang-inang
inca-binca
incang-incut
ingat-ingat
ingat-ingatan
ingau-ingauan
inggang-inggung
injak-injak
iras-iras
iring-iringan
iseng-iseng
jadi-jadian
jala-jala
jamah-jamahan
jambu-jambu
jangan-jangan
jarang-jarang
jari-jari
jaring-jaring
jarum-jarum
jauh-jauh
jawi-jawi
jebat-jebatan
jelur-jelir
jendal-jendul
jenggar-jenggur
jentik-jentik
jerah-jerih
jolong-jolong
jongkar-jangkir
juak-juak
juang-juang
julung-julung
jurai-jurai
kabu-kabu
kacang-kacang
kacang-kacangan
kacau-balau
kadang-kadang
kail-kail
kait-kait
kakek-kakek
kalau-kalau
kaleng-kalengan
kalut-malut
kambing-kambing
kanak-kanak
kapa-kapa
kapan-kapan
kapu-kapu
karang-karangan
karang-mengarang
kareseh-peseh
karut-marut
katang-katang
kawa-kawa
kayu-kayuan
keabu-abuan
keasyik-asyikan
kebarat-baratan
kebasah-basahan
kebat-kebit
kebata-bataan
kebelanda-belandaan
kebiru-biruan
kebudak-budakan
kecil-kecilan
kecil-mengecil
kecuh-kecah
kedek-kedek
kegadis-gadisan
kegelap-gelapan
kegila-gilaan
kegirang-girangan
kehijau-hijauan
kehitam-hitaman
kejaga-jagaan
kejingga-jinggaan
kekabur-kaburan
kekanak-kanakan
kekoboi-koboian
kekuning-kuningan
kelak-kelik
kelak-keluk
kelaki-lakian
kelang-kelok
kelap-kelip
kelek-kelek
kelek-kelekan
kelik-kelik
kelip-kelip
kelusuh-kelasah
kelut-melut
kemak-kemik
kemalu-maluan
kemanja-manjaan
kemarah-marahan
kemasam-masaman
kemati-matian
kemerah-merahan
kempang-kempis
kempas-kempis
kemuda-mudaan
kena-mengena
kenal-mengenal
kenang-kenangan
kencang-kencung
kendang-kendang
kendang-kendangan
kentung-kentung
kenyat-kenyit
kepandir-pandiran
kepang-kepot
keperak-perakan
kepilu-piluan
kepura-puraan
keputih-putihan
kerah-kerahan
kerancak-rancakan
kerang-kerangan
kerang-keroh
kerang-kerung
kerap-kerap
keras-mengerasi
kercap-kercip
kercap-kercup
keriang-keriut
kernyat-kernyut
kerong-kerong
keropas-kerapis
kertak-kertuk
keruntang-pungkang
kesap-kesip
kesenak-senakan
kesewenang-wenangan
kesia-siaan
kesik-kesik
kesipu-sipuan
kesu-kesi
kesuh-kesih
kesuk-kesik
ketergesa-gesaan
keti-keti
ketidur-tiduran
ketiga-tiganya
ketua-tuaan
ketuan-tuanan
keungu-unguan
kia-kia
kiak-kiak
kial-kial
kiang-kiut
kibang-kibut
kicang-kecoh
kicang-kicu
kida-kida
kilau-mengilau
kili-kili
kira-kira
kira-kiraan
kisi-kisi
kocah-kacih
kodok-kodok
kolang-kaling
koleh-koleh
kolong-kolong
koma-koma
komat-kamit
kontal-kantil
kontang-kanting
kosak-kasik
kotak-katik
kotak-kotak
kuat-kuat
kucar-kacir
kucing-kucing
kucing-kucingan
kuda-kuda
kuda-kudaan
kudap-kudap
kulah-kulah
kulak-kulak
kulik-kulik
kulum-kulum
kumat-kamit
kunang-kunang
kupat-kapit
kupu-kupu
kura-kura
kurang-kurang
kusat-mesat
kutat-kutet
kuti-kuti
labi-labi
labu-labu
lagi-lagi
laguh-lagah
laki-laki
lalu-lalang
lama-kelamaan
lama-lama
lamat-lamat
lambat-lambat
lancar-lancar
langak-longok
langit-langit
lanja-lanjaan
lapat-lapat
large-scale
lari-lari
lauk-pauk
lawah-lawah
lawak-lawak
lawi-lawi
layang-layang
layu-layuan
lebih-lebih
legak-legok
lekak-lekuk
lekap-lekup
lekas-lekas
lekuh-lekih
lekup-lekap
lenggak-lenggok
lenggok-lenggok
lengket-lengket
lentam-lentum
lentang-lentok
lentang-lentung
lepa-lepa
lerang-lerang
lereng-lereng
letah-letai
letup-letup
liang-liuk
lidah-lidah
line-up
liuk-liuk
liung-liung
lobi-lobi
lock-up
lopak-lapik
lopak-lopak
lumba-lumba
lumi-lumi
luntang-lantung
lupa-lupa
lupa-lupaan
main-mainan
makan-makanan
make-up
malai-malai
malam-malam
malar-malar
mali-mali
malu-malu
mana-mana
manik-manik
manis-manisan
mark-up
masing-masing
mata-mata
mati-matian
maya-maya
megap-megap
megrek-megrek
melak-melak
melambai-lambai
melambai-lambaikan
melambat-lambatkan
melaun-laun
melawak-lawak
melayap-layap
melayap-layapkan
melebih-lebihi
melebih-lebihkan
melejang-lejangkan
melengah-lengah
melihat-lihat
melimpah-limpah
melincah-lincah
meloncat-loncat
melonco-lonco
melonjak-lonjak
memacak-macak
memaki-maki
memaksa-maksa
memandai-mandai
memanggil-manggil
memanis-manis
memanjut-manjut
memasak-masak
memata-matai
mematah-matah
mematut-matut
memayah-mayahkan
membagi-bagikan
membalik-balik
membangkit-bangkit
membayang-bayangi
membayang-bayangkan
membelai-belai
membenar-benar
membenar-benari
memberai-beraikan
membesar-besarkan
membolak-balikkan
membuang-buang
membuat-buat
membunga-bungai
memburu-buru
memburu-burukan
memburuk-burukkan
memencak-mencak
memencar-mencar
memetak-metak
memetang-metangkan
memetir-metir
memikir-mikirkan
memilih-milih
meminang-minang
meminta-minta
memisah-misahkan
memontang-mantingkan
memperamat-amat
memperamat-amatkan
memperbagai-bagaikan
memperganda-gandakan
memperganduh-ganduhkan
mempermacam-macamkan
memperolok-olokkan
mempersama-samakan
mempertubi-tubi
mempertubi-tubikan
memperturut-turutkan
memuja-muja
memukang-mukang
memulun-mulun
memundi-mundi
memundi-mundikan
memuyu-muyu
menagak-nagak
menakut-nakuti
menanjur-nanjur
menanti-nanti
menari-nari
mencabik-cabik
mencabik-cabikkan
mencaing-caing
mencak-mencak
mencakup-cakup
mencapak-capak
mencari-cari
mencarik-carik
mencarut-carut
mencengis-cengis
mencepak-cepak
mencepuk-cepuk
mencerai-beraikan
mencetai-cetai
menciap-ciap
menciar-ciar
mencita-citakan
menciut-ciut
mencoang-coang
mencubit-cubit
mencuri-curi
mendecap-decap
mendengking-dengking
menderak-derakkan
menderau-derau
menderu-deru
mendesas-desuskan
mendesus-desus
mendewa-dewakan
mendudu-dudu
menebu-nebu
menegur-neguri
mengabung-ngabung
mengaci-acikan
mengada-ada
mengaduk-aduk
mengagak-agak
mengagak-agihkan
mengagut-agut
mengais-ngais
mengali-ali
mengalur-alur
mengamang-amang
mengamat-amati
mengambai-ambaikan
mengambang-ambang
mengancak-ancak
mengangan-angankan
mengangguk-angguk
mengangin-anginkan
mengangkat-angkat
mengap-mengap
mengapa-apai
mengapi-apikan
mengarah-arahi
mengata-ngatai
mengaum-aumkan
mengejan-ejan
mengelai-ngelai
mengelepik-ngelepik
mengelus-elus
mengembut-embut
mengenap-enapkan
mengenjak-enjak
mengepak-ngepak
mengepak-ngepakkan
menggaba-gabai
menggalur-galur
menggamak-gamak
menggapai-gapai
menggapai-gapaikan
menggelepar-gelepar
menggelepar-geleparkan
menggemak-gemak
menggerecak-gerecak
menggesa-gesakan
menggili-gili
menggorek-gorek
menggosok-gosok
mengguit-guit
menghalai-balaikan
menghinap-hinap
mengiang-ngiang
mengibas-ngibas
mengidam-idamkan
mengilah-ngilahkan
mengilai-ilai
mengilat-ngilatkan
mengilik-ngilik
mengimak-imak
mengiming-iming
menginjak-injak
mengipas-ngipas
mengira-ngira
mengira-ngirakan
mengiras-iras
mengiras-irasi
mengitar-ngitar
mengitik-ngitik
mengogok-ogok
mengolak-alikkan
mengoleng-oleng
mengongkang-ongkang
mengongkok-ongkok
mengonyah-anyih
mengotak-ngatikkan
mengoyak-ngoyakkan
mengoyak-oyak
menguar-nguarkan
menguar-uarkan
menguber-uber
mengubit-ubit
mengubrak-abrik
mengucar-ngacirkan
mengucek-ngucek
menguik-uik
menguis-uis
mengulit-ulit
menguman-uman
mengumbang-ambingkan
mengumpak-umpak
mengungkat-ungkat
mengungkit-ungkit
mengurik-urik
mengutak-ngatikkan
mengutik-ngutik
menimang-nimang
meningkat-ningkat
meniru-niru
meniup-niup
menjadi-jadi
menjengek-jengek
menjengit-jengit
menjilat-jilat
mentah-mentah
mentang-mentang
menunda-nunda
menusuk-nusuk
menyama-nyama
menyambar-nyambar
menyanjung-nyanjung
menyapu-nyapu
menyarat-nyarat
menyendi-nyendi
menyeret-nyeret
menyeru-nyerukan
menyia-nyiakan
menyungguh-nyungguhi
meraba-raba
merangkak-rangkak
merasa-rasai
meraung-raung
meraung-raungkan
merayau-rayau
merayu-rayu
mereka-reka
merelap-relap
meremah-remah
meremeh-temehkan
merempah-rempahi
merengek-rengek
merenik-renik
merenta-renta
merenyai-renyai
merintang-rintang
merintik-rintik
merobek-robek
meronta-ronta
merungus-rungus
merungut-rungut
mewarna-warnikan
meyakin-yakini
miju-miju
minta-minta
moga-moga
morat-marit
muda-mudi
mudah-mudahan
muka-muka
mula-mula
muluk-muluk
naga-naga
nanti-nantian
nasi-nasi
nasib-nasiban
nenek-nenek
nyolong-nyolong
ogah-ogahan
ogak-ogak
olak-alik
olak-olak
olang-aling
olang-alingan
oleh-oleh
olok-olok
olok-olokan
olong-olong
on-screen
onde-onde
one-to-one
oneng-oneng
ongkang-ongkang
ongol-ongol
onyah-anyih
orak-arik
orang-aring
orang-orangan
orok-orok
orong-orong
otak-otak
otak-otakan
padi-padian
pagi-pagi
palas-palas
paling-paling
palu-memalu
panas-panas
pandang-memandang
panji-panji
para-para
paru-paru
pasang-memasang
pasu-pasu
paya-paya
pecah-pecah
pelan-pelan
pengundang-undang
perang-perangan
perintang-rintang
perlahan-lahan
perlip-perlipan
pertama-tama
perundang-undangan
pesan-pesan
piat-piut
pick-up
pijak-pijak
pijar-pijar
pijat-pijat
pina-pina
pisang-pisang
play-off
pohon-pohonan
pokrol-pokrolan
polang-paling
poma-poma
pontang-panting
porak-parik
porak-peranda
potong-memotong
puji-pujian
pukang-pukang
pukul-memukul
pulang-pergi
pulut-pulut
pundi-pundi
punggung-memunggung
pura-pura
pusar-pusar
push-up
pusing-pusing
putus-putus
rada-rada
radio-frequency
ragu-ragu
rama-rama
rambu-rambu
rango-rango
rasa-rasanya
rata-rata
real-time
rebah-rebah
rebah-rebahan
redam-redam
reka-reka
reka-rekaan
remah-remah
remang-remang
rembah-rembih
remeh-temeh
rempah-rempah
repuh-repuh
riang-riang
ribu-ribu
rigi-rigi
robak-rabik
robat-rabit
role-play
roll-on
rombang-rambing
ruak-ruak
ruku-ruku
rumah-rumah
rumah-rumahan
rumput-rumputan
runding-merunding
runggu-rangga
runner-up
rupa-rupa
rupa-rupanya
saban-saban
sabung-menyabung
saing-menyaing
salah-salah
sama-sama
samar-samar
sambar-menyambar
sambung-bersambung
sambung-menyambung
sambut-menyambut
sampai-sampai
sandar-menyandar
sangat-sangat
sangkut-menyangkut
sapa-menyapa
sapu-sapu
sarit-sarit
satu-satu
satu-satunya
sayup-menyayup
sayup-sayup
sayur-mayur
sayur-sayuran
sci-fi
seakal-akal
seakan-akan
sealak-alak
sebaik-baiknya
sebelah-menyebelah
sebentar-sebentar
seberang-menyeberang
seboleh-bolehnya
sedalam-dalamnya
sedang-menyedang
sedap-sedapan
sedapat-dapatnya
sedikit-dikitnya
sedikit-sedikit
sedikit-sedikitnya
seelok-eloknya
segala-galanya
segan-menyegan
segan-menyegani
segan-segan
sehari-hari
sehari-harian
sejadi-jadinya
sekali-kali
sekali-sekali
sekira-kira
sekonyong-konyong
sekuasa-kuasanya
sekurang-kurangnya
sela-menyela
sela-sela
selama-lamanya
selambat-lambatnya
selang-seli
selang-seling
selar-belar
selat-latnya
selekas-lekasnya
selepas-lepas
self-esteem
self-help
sema-sema
semah-semah
semak-semak
semalam-malaman
semasa-masa
semata-mata
sembunyi-sembunyi
sembunyi-sembunyian
semena-mena
semenda-menyemenda
semengga-mengga
sementang-mentang
semu-semu
semut-semutan
sengal-sengal
sengau-sengauan
seolah-olah
sepala-pala
sepandai-pandai
sepetang-petangan
sepoi-sepoi
sepuas-puasnya
serang-menyerang
seraya-menyeraya
serba-serbi
serbah-serbih
serembah-serembih
sering-sering
serta-menyertai
serta-serta
sesal-menyesali
sesudah-sudah
sesudah-sudahnya
sesuka-suka
setempat-setempat
setengah-setengah
setidak-tidaknya
seupaya-upaya
seupaya-upayanya
sewaktu-waktu
sewenang-wenang
short-term
sia-sia
siang-siang
siapa-siapa
sibar-sibar
sibur-sibur
sida-sida
siku-siku
silah-silah
silang-menyilang
silir-semilir
sinar-seminar
sindir-menyindir
singgah-menyinggah
sorak-sorai
stand-by
stand-up
sudu-sudu
sudung-sudung
suka-suka
sulang-menyulang
sulur-suluran
sumpah-sumpah
sumpit-sumpit
sungguh-sungguh
sungut-sungut
suram-suram
surat-menyurat
suruh-suruhan
tabar-tabar
tabir-mabir
tabrak-tubruk
tabuh-tabuhan
tahu-menahu
tahu-tahu
takang-takik
take-off
takut-takut
takut-takutan
tali-bertali
tali-tali
tampak-tampak
tanam-menanam
tanam-tanaman
tanda-tanda
tangan-menangan
tangan-tangan
tanggung-menanggung
tapa-tapa
tapak-tapak
tari-menari
tari-tarian
tarik-menarik
tatah-tatah
tawak-tawak
tawang-tawang
tawar-menawar
tawar-tawar
tayum-temayum
tebu-tebu
tegak-tegak
teka-teki
temas-temas
tembak-menembak
temut-temut
tenggang-menenggang
teraba-raba
terambang-ambang
terang-terang
terang-terangan
teranggar-anggar
terangguk-angguk
teranggul-anggul
terangin-angin
terangkup-angkup
teranja-anja
terapung-apung
terayan-rayan
terayap-rayap
terbada-bada
terbahak-bahak
terbata-bata
terbatuk-batuk
terbayang-bayang
terbengkil-bengkil
terbirit-birit
terbuai-buai
terbuang-buang
terburu-buru
tercangak-cangak
tercengang-cengang
tercilap-cilap
tercongget-congget
tercungap-cungap
terdangka-dangka
terdengih-dengih
terekeh-ekeh
terembut-embut
terembut-rembut
terengah-engah
teresak-esak
tergagap-gagap
tergagau-gagau
tergaguk-gaguk
tergapai-gapai
tergegap-gegap
tergegas-gegas
tergelung-gelung
tergerenyeng-gerenyeng
tergesa-gesa
tergila-gila
tergontai-gontai
tergudik-gudik
terguling-guling
tergulut-gulut
terharak-harak
terharap-harap
terhengit-hengit
terhinggut-hinggut
terigau-igau
terincut-incut
teringa-inga
teringat-ingat
terinjak-injak
terjembak-jembak
terjerit-jerit
terkadang-kadang
terkakah-kakah
terkakak-kakak
terkanjar-kanjar
terkapah-kapah
terkapai-kapai
terkapung-kapung
terkatah-katah
terkatung-katung
terkecap-kecap
terkedek-kedek
terkedip-kedip
terkejar-kejar
terkekau-kekau
terkekeh-kekeh
terkekek-kekek
terkelinjat-kelinjat
terkelip-kelip
terkempul-kempul
terkemut-kemut
terkencar-kencar
terkepak-kepak
terkesot-kesot
terkesut-kesut
terkial-kial
terkincak-kincak
terkindap-kindap
terkinja-kinja
terkirai-kirai
terkitar-kitar
terkocoh-kocoh
terkokol-kokol
terkosel-kosel
terkoteng-koteng
terkumpal-kumpal
terlara-lara
terlayang-layang
terlebih-lebih
terlincah-lincah
terliuk-liuk
terlolong-lolong
terlongong-longong
termangu-mangu
termanja-manja
termata-mata
termengah-mengah
termimpi-mimpi
ternanti-nanti
terngiang-ngiang
teroleng-oleng
terpandang-pandang
terpecah-pecah
terpekik-pekik
terpereh-pereh
terpikau-pikau
terpinga-pinga
terpingkal-pingkal
terpontang-panting
terpusing-pusing
terputus-putus
tersanga-sanga
tersaruk-saruk
tersedan-sedan
tersedih-sedih
tersedu-sedu
tersendat-sendat
tersendeng-sendeng
tersengal-sengal
tersengguk-sengguk
tersengut-sengut
tersera-sera
terserak-serak
tersetai-setai
tersia-sia
tersipu-sipu
tersoja-soja
tersungkuk-sungkuk
tertagak-tagak
tertahan-tahan
tertatih-tatih
tertegun-tegun
tertekan-tekan
terteleng-teleng
terumbang-ambing
terumbang-umbang
terungkap-ungkap
terus-menerus
terus-terusan
think-tank
tiap-tiap
tiba-tiba
tidak-tidak
tidur-tidur
tie-dye
tiga-tiganya
tikam-menikam
tilik-menilik
timah-timah
timang-timangan
timbang-menimbang
timu-timu
tindih-bertindih
tinjau-meninjau
tip-off
tiru-tiruan
tiup-tiup
tokak-takik
tokok-menokok
tolak-menolak
tolong-menolong
top-level
trade-in
tua-tua
tuan-tuan
tuang-tuang
tuban-tuban
tukang-menukang
tukar-menukar
tulang-tulangan
tuli-tuli
tulis-menulis
tumbuh-tumbuhan
tune-up
tunggang-tunggit
tupai-tupai
turun-temurun
turut-menurut
turut-turutan
two-tone
uar-uar
ubel-ubel
ubun-ubun
ubur-ubur
uci-uci
udap-udapan
ugal-ugalan
uir-uir
ujar-ujar
ukir-mengukir
ula-ula
ulak-ulak
ulang-alik
ulang-aling
ulang-ulang
ulap-ulap
ular-ular
ular-ularan
ulung-ulung
umang-umang
umbang-ambing
umbi-umbian
umbul-umbul
umbut-umbut
uncang-uncit
undak-undakan
undang-undang
unduk-unduk
undung-undung
undur-undur
unggat-unggit
ungkit-ungkit
unting-unting
untung-untung
untung-untungan
upside-down
ura-ura
uran-uran
urat-urat
uring-uringan
urup-urup
urup-urupan
urus-urus
user-user
user-useran
utar-utar
voice-over
walk-out
wangi-wangian
wanti-wanti
wara-wara
warna-warni
water-cooled
world-class
yang-yang
""".split()
)
| 27,445 | 13.118313 | 60 | py |
spaCy | spaCy-master/spacy/lang/ms/examples.py | """
Example sentences to test spaCy and its language models.
>>> from spacy.lang.ms.examples import sentences
>>> docs = nlp.pipe(sentences)
"""
sentences = [
"Malaysia ialah sebuah negara yang terletak di Asia Tenggara.",
"Berapa banyak pelajar yang akan menghadiri majlis perpisahan sekolah?",
"Pengeluaran makanan berasal dari beberapa lokasi termasuk Cameron Highlands, Johor Bahru, dan Kuching.",
"Syarikat XYZ telah menghasilkan 20,000 unit produk baharu dalam setahun terakhir",
"Kuala Lumpur merupakan ibu negara Malaysia." "Kau berada di mana semalam?",
"Siapa yang akan memimpin projek itu?",
"Siapa perdana menteri Malaysia sekarang?",
]
| 680 | 36.833333 | 109 | py |
spaCy | spaCy-master/spacy/lang/ms/lex_attrs.py | import unicodedata
from ...attrs import IS_CURRENCY, LIKE_NUM
from .punctuation import LIST_CURRENCY
_num_words = [
"kosong",
"satu",
"dua",
"tiga",
"empat",
"lima",
"enam",
"tujuh",
"lapan",
"sembilan",
"sepuluh",
"sebelas",
"belas",
"puluh",
"ratus",
"ribu",
"juta",
"billion",
"trillion",
"kuadrilion",
"kuintilion",
"sekstilion",
"septilion",
"oktilion",
"nonilion",
"desilion",
]
def like_num(text):
if text.startswith(("+", "-", "±", "~")):
text = text[1:]
text = text.replace(",", "").replace(".", "")
if text.isdigit():
return True
if text.count("/") == 1:
num, denom = text.split("/")
if num.isdigit() and denom.isdigit():
return True
if text.lower() in _num_words:
return True
if text.count("-") == 1:
_, num = text.split("-")
if num.isdigit() or num in _num_words:
return True
return False
def is_currency(text):
if text in LIST_CURRENCY:
return True
for char in text:
if unicodedata.category(char) != "Sc":
return False
return True
LEX_ATTRS = {IS_CURRENCY: is_currency, LIKE_NUM: like_num}
| 1,264 | 18.166667 | 58 | py |
spaCy | spaCy-master/spacy/lang/ms/punctuation.py | from ..char_classes import ALPHA, _currency, _units, merge_chars, split_chars
from ..punctuation import TOKENIZER_INFIXES, TOKENIZER_PREFIXES, TOKENIZER_SUFFIXES
_units = (
_units + "s bit Gbps Mbps mbps Kbps kbps ƒ ppi px "
"Hz kHz MHz GHz mAh "
"ratus rb ribu ribuan "
"juta jt jutaan mill?iar million bil[l]?iun bilyun billion "
)
_currency = _currency + r" USD RM MYR Rp IDR RMB SGD S\$"
_months = (
"Januari Februari Mac April Mei Jun Julai Ogos September "
"Oktober November Disember Januari Februari Mac Mei Jun "
"Julai Ogos Oktober Disember Jan Feb Mac Jun Julai Ogos Sept "
"Okt Nov Dis"
)
UNITS = merge_chars(_units)
CURRENCY = merge_chars(_currency)
HTML_PREFIX = r"<(b|strong|i|em|p|span|div|br)\s?/>|<a([^>]+)>"
HTML_SUFFIX = r"</(b|strong|i|em|p|span|div|a)>"
MONTHS = merge_chars(_months)
LIST_CURRENCY = split_chars(_currency)
_prefixes = list(TOKENIZER_PREFIXES)
_prefixes.remove("#") # hashtag
_prefixes = _prefixes + LIST_CURRENCY + [HTML_PREFIX] + ["/", "—"]
_suffixes = (
TOKENIZER_SUFFIXES
+ [r"\-[Nn]ya", "-[KkMm]u", "[—-]"]
+ [
# disabled: variable width currency variable
# r"(?<={c})(?:[0-9]+)".format(c=CURRENCY),
r"(?<=[0-9])(?:{u})".format(u=UNITS),
r"(?<=[0-9])%",
# disabled: variable width HTML_SUFFIX variable
# r"(?<=[0-9{a}]{h})(?:[\.,:-])".format(a=ALPHA, h=HTML_SUFFIX),
r"(?<=[0-9{a}])(?:{h})".format(a=ALPHA, h=HTML_SUFFIX),
]
)
_infixes = TOKENIZER_INFIXES + [
r"(?<=[0-9])[\\/](?=[0-9%-])",
r"(?<=[0-9])%(?=[{a}0-9/])".format(a=ALPHA),
# disabled: variable width units variable
# r"(?<={u})[\/-](?=[0-9])".format(u=UNITS),
# disabled: variable width months variable
# r"(?<={m})[\/-](?=[0-9])".format(m=MONTHS),
r'(?<=[0-9)][.,])"(?=[0-9])',
r'(?<=[{a})][.,\'])["—](?=[{a}])'.format(a=ALPHA),
r"(?<=[{a}])-(?=[0-9])".format(a=ALPHA),
r"(?<=[0-9])-(?=[{a}])".format(a=ALPHA),
r"(?<=[{a}])[\/-](?={c}|[{a}])".format(a=ALPHA, c=CURRENCY),
]
TOKENIZER_PREFIXES = _prefixes
TOKENIZER_SUFFIXES = _suffixes
TOKENIZER_INFIXES = _infixes
| 2,127 | 33.885246 | 83 | py |
spaCy | spaCy-master/spacy/lang/ms/stop_words.py | STOP_WORDS = set(
"""
ada adalah adanya adapun agak agaknya agar akan akankah akhir akhiri akhirnya
aku akulah amat amatlah anda andalah antar antara antaranya apa apaan apabila
apakah apalagi apatah artinya asal asalkan atas atau ataukah ataupun awal
awalnya
bagai bagaikan bagaimana bagaimanakah bagaimanapun bagi bagian bahkan bahwa
bahwasanya baik bakal bakalan balik banyak bapak baru bawah beberapa begini
beginian beginikah beginilah begitu begitukah begitulah begitupun bekerja
belakang belakangan belum belumlah benar benarkah benarlah berada berakhir
berakhirlah berakhirnya berapa berapakah berapalah berapapun berarti berawal
berbagai berdatangan beri berikan berikut berikutnya berjumlah berkali-kali
berkata berkehendak berkeinginan berkenaan berlainan berlalu berlangsung
berlebihan bermacam bermacam-macam bermaksud bermula bersama bersama-sama
bersiap bersiap-siap bertanya bertanya-tanya berturut berturut-turut bertutur
berujar berupa besar betul betulkah biasa biasanya bila bilakah bisa bisakah
boleh bolehkah bolehlah buat bukan bukankah bukanlah bukannya bulan bung
cara caranya cukup cukupkah cukuplah cuma
dahulu dalam dan dapat dari daripada datang dekat demi demikian demikianlah
dengan depan di dia diakhiri diakhirinya dialah diantara diantaranya diberi
diberikan diberikannya dibuat dibuatnya didapat didatangkan digunakan
diibaratkan diibaratkannya diingat diingatkan diinginkan dijawab dijelaskan
dijelaskannya dikarenakan dikatakan dikatakannya dikerjakan diketahui
diketahuinya dikira dilakukan dilalui dilihat dimaksud dimaksudkan
dimaksudkannya dimaksudnya diminta dimintai dimisalkan dimulai dimulailah
dimulainya dimungkinkan dini dipastikan diperbuat diperbuatnya dipergunakan
diperkirakan diperlihatkan diperlukan diperlukannya dipersoalkan dipertanyakan
dipunyai diri dirinya disampaikan disebut disebutkan disebutkannya disini
disinilah ditambahkan ditandaskan ditanya ditanyai ditanyakan ditegaskan
ditujukan ditunjuk ditunjuki ditunjukkan ditunjukkannya ditunjuknya dituturkan
dituturkannya diucapkan diucapkannya diungkapkan dong dua dulu
empat enggak enggaknya entah entahlah
guna gunakan
hal hampir hanya hanyalah hari harus haruslah harusnya hendak hendaklah
hendaknya hingga
ia ialah ibarat ibaratkan ibaratnya ibu ikut ingat ingat-ingat ingin inginkah
inginkan ini inikah inilah itu itukah itulah
jadi jadilah jadinya jangan jangankan janganlah jauh jawab jawaban jawabnya
jelas jelaskan jelaslah jelasnya jika jikalau juga jumlah jumlahnya justru
kala kalau kalaulah kalaupun kalian kami kamilah kamu kamulah kan kapan
kapankah kapanpun karena karenanya kasus kata katakan katakanlah katanya ke
keadaan kebetulan kecil kedua keduanya keinginan kelamaan kelihatan
kelihatannya kelima keluar kembali kemudian kemungkinan kemungkinannya kenapa
kepada kepadanya kesampaian keseluruhan keseluruhannya keterlaluan ketika
khususnya kini kinilah kira kira-kira kiranya kita kitalah kok kurang
lagi lagian lah lain lainnya lalu lama lamanya lanjut lanjutnya lebih lewat
lima luar
macam maka makanya makin malah malahan mampu mampukah mana manakala manalagi
masa masalah masalahnya masih masihkah masing masing-masing mau maupun
melainkan melakukan melalui melihat melihatnya memang memastikan memberi
memberikan membuat memerlukan memihak meminta memintakan memisalkan memperbuat
mempergunakan memperkirakan memperlihatkan mempersiapkan mempersoalkan
mempertanyakan mempunyai memulai memungkinkan menaiki menambahkan menandaskan
menanti menanti-nanti menantikan menanya menanyai menanyakan mendapat
mendapatkan mendatang mendatangi mendatangkan menegaskan mengakhiri mengapa
mengatakan mengatakannya mengenai mengerjakan mengetahui menggunakan
menghendaki mengibaratkan mengibaratkannya mengingat mengingatkan menginginkan
mengira mengucapkan mengucapkannya mengungkapkan menjadi menjawab menjelaskan
menuju menunjuk menunjuki menunjukkan menunjuknya menurut menuturkan
menyampaikan menyangkut menyatakan menyebutkan menyeluruh menyiapkan merasa
mereka merekalah merupakan meski meskipun meyakini meyakinkan minta mirip
misal misalkan misalnya mula mulai mulailah mulanya mungkin mungkinkah
nah naik namun nanti nantinya nyaris nyatanya
oleh olehnya
pada padahal padanya pak paling panjang pantas para pasti pastilah penting
pentingnya per percuma perlu perlukah perlunya pernah persoalan pertama
pertama-tama pertanyaan pertanyakan pihak pihaknya pukul pula pun punya
rasa rasanya rata rupanya
saat saatnya saja sajalah saling sama sama-sama sambil sampai sampai-sampai
sampaikan sana sangat sangatlah satu saya sayalah se sebab sebabnya sebagai
sebagaimana sebagainya sebagian sebaik sebaik-baiknya sebaiknya sebaliknya
sebanyak sebegini sebegitu sebelum sebelumnya sebenarnya seberapa sebesar
sebetulnya sebisanya sebuah sebut sebutlah sebutnya secara secukupnya sedang
sedangkan sedemikian sedikit sedikitnya seenaknya segala segalanya segera
seharusnya sehingga seingat sejak sejauh sejenak sejumlah sekadar sekadarnya
sekali sekali-kali sekalian sekaligus sekalipun sekarang sekarang sekecil
seketika sekiranya sekitar sekitarnya sekurang-kurangnya sekurangnya sela
selain selaku selalu selama selama-lamanya selamanya selanjutnya seluruh
seluruhnya semacam semakin semampu semampunya semasa semasih semata semata-mata
semaunya sementara semisal semisalnya sempat semua semuanya semula sendiri
sendirian sendirinya seolah seolah-olah seorang sepanjang sepantasnya
sepantasnyalah seperlunya seperti sepertinya sepihak sering seringnya serta
serupa sesaat sesama sesampai sesegera sesekali seseorang sesuatu sesuatunya
sesudah sesudahnya setelah setempat setengah seterusnya setiap setiba setibanya
setidak-tidaknya setidaknya setinggi seusai sewaktu siap siapa siapakah
siapapun sini sinilah soal soalnya suatu sudah sudahkah sudahlah supaya
tadi tadinya tahu tahun tak tambah tambahnya tampak tampaknya tandas tandasnya
tanpa tanya tanyakan tanyanya tapi tegas tegasnya telah tempat tengah tentang
tentu tentulah tentunya tepat terakhir terasa terbanyak terdahulu terdapat
terdiri terhadap terhadapnya teringat teringat-ingat terjadi terjadilah
terjadinya terkira terlalu terlebih terlihat termasuk ternyata tersampaikan
tersebut tersebutlah tertentu tertuju terus terutama tetap tetapi tiap tiba
tiba-tiba tidak tidakkah tidaklah tiga tinggi toh tunjuk turut tutur tuturnya
ucap ucapnya ujar ujarnya umum umumnya ungkap ungkapnya untuk usah usai
waduh wah wahai waktu waktunya walau walaupun wong
yaitu yakin yakni yang
""".split()
)
| 6,507 | 53.689076 | 79 | py |
spaCy | spaCy-master/spacy/lang/ms/syntax_iterators.py | from typing import Iterator, Tuple, Union
from ...errors import Errors
from ...symbols import NOUN, PRON, PROPN
from ...tokens import Doc, Span
def noun_chunks(doclike: Union[Doc, Span]) -> Iterator[Tuple[int, int, int]]:
"""
Detect base noun phrases from a dependency parse. Works on both Doc and Span.
"""
# fmt: off
labels = ["nsubj", "nsubj:pass", "obj", "iobj", "ROOT", "appos", "nmod", "nmod:poss"]
# fmt: on
doc = doclike.doc # Ensure works on both Doc and Span.
if not doc.has_annotation("DEP"):
raise ValueError(Errors.E029)
np_deps = [doc.vocab.strings[label] for label in labels]
conj = doc.vocab.strings.add("conj")
np_label = doc.vocab.strings.add("NP")
prev_end = -1
for i, word in enumerate(doclike):
if word.pos not in (NOUN, PROPN, PRON):
continue
# Prevent nested chunks from being produced
if word.left_edge.i <= prev_end:
continue
if word.dep in np_deps:
prev_end = word.right_edge.i
yield word.left_edge.i, word.right_edge.i + 1, np_label
elif word.dep == conj:
head = word.head
while head.dep == conj and head.head.i < head.i:
head = head.head
# If the head is an NP, and we're coordinated to it, we're an NP
if head.dep in np_deps:
prev_end = word.right_edge.i
yield word.left_edge.i, word.right_edge.i + 1, np_label
SYNTAX_ITERATORS = {"noun_chunks": noun_chunks}
| 1,538 | 35.642857 | 89 | py |
spaCy | spaCy-master/spacy/lang/ms/tokenizer_exceptions.py | from ...symbols import NORM, ORTH
from ...util import update_exc
from ..tokenizer_exceptions import BASE_EXCEPTIONS
from ._tokenizer_exceptions_list import MS_BASE_EXCEPTIONS
# Daftar singkatan dan Akronim dari:
# https://ms.wiktionary.org/wiki/Wiktionary:Senarai_akronim_dan_singkatan
_exc = {}
for orth in MS_BASE_EXCEPTIONS:
_exc[orth] = [{ORTH: orth}]
orth_title = orth.title()
_exc[orth_title] = [{ORTH: orth_title}]
orth_caps = orth.upper()
_exc[orth_caps] = [{ORTH: orth_caps}]
orth_lower = orth.lower()
_exc[orth_lower] = [{ORTH: orth_lower}]
orth_first_upper = orth[0].upper() + orth[1:]
_exc[orth_first_upper] = [{ORTH: orth_first_upper}]
if "-" in orth:
orth_title = "-".join([part.title() for part in orth.split("-")])
_exc[orth_title] = [{ORTH: orth_title}]
orth_caps = "-".join([part.upper() for part in orth.split("-")])
_exc[orth_caps] = [{ORTH: orth_caps}]
for exc_data in [
{ORTH: "Jan.", NORM: "Januari"},
{ORTH: "Feb.", NORM: "Februari"},
{ORTH: "Mac.", NORM: "Mac"},
{ORTH: "Apr.", NORM: "April"},
{ORTH: "Jun.", NORM: "Jun"},
{ORTH: "Jul.", NORM: "Julai"},
{ORTH: "Ogos.", NORM: "Ogos"},
{ORTH: "Sep.", NORM: "September"},
{ORTH: "Okt.", NORM: "Oktober"},
{ORTH: "Nov.", NORM: "November"},
{ORTH: "Dis.", NORM: "Disember"},
]:
_exc[exc_data[ORTH]] = [exc_data]
_other_exc = {
"do'a": [{ORTH: "do'a", NORM: "doa"}],
"jum'at": [{ORTH: "jum'at", NORM: "Jumat"}],
"Jum'at": [{ORTH: "Jum'at", NORM: "Jumat"}],
"la'nat": [{ORTH: "la'nat", NORM: "laknat"}],
"ma'af": [{ORTH: "ma'af", NORM: "maaf"}],
"mu'jizat": [{ORTH: "mu'jizat", NORM: "mukjizat"}],
"Mu'jizat": [{ORTH: "Mu'jizat", NORM: "mukjizat"}],
"ni'mat": [{ORTH: "ni'mat", NORM: "nikmat"}],
"raka'at": [{ORTH: "raka'at", NORM: "rakaat"}],
"ta'at": [{ORTH: "ta'at", NORM: "taat"}],
}
_exc.update(_other_exc)
for orth in [
"1 Kor.",
"1 Ptr.",
"1 Raj.",
"1 Sam.",
"1 Taw.",
"1 Tes.",
"1 Tim.",
"1 Yoh.",
"1Ch.",
"1Co.",
"1Jo.",
"1Ki.",
"1Pe.",
"1Sa.",
"1Th.",
"1Ti.",
"2 Kor.",
"2 Ptr.",
"2 Raj.",
"2 Sam.",
"2 Taw.",
"2 Tes.",
"2 Tim.",
"2 Yoh.",
"2Ch.",
"2Co.",
"2Jo.",
"2Ki.",
"2Pe.",
"2Sa.",
"2Th.",
"2Ti.",
"3 Yoh.",
"3D",
"3F",
"3Jo.",
"3M",
"8MP",
"AA",
"AAAAAA",
"AB",
"Abd.",
"ABC",
"ABIM",
"ABM",
"ABMI",
"ABS",
"AC",
"Ac",
"ACAPLPL",
"Act.",
"AD",
"AD LIB",
"ADAM",
"ADB",
"ADD",
"ADIL",
"ADN",
"ADR",
"ADRI",
"ADSL",
"ADUN",
"AFAS",
"AFTA",
"Ag",
"AGMARIS",
"AH",
"AI",
"AIA",
"AIDS",
"AIJV",
"AIM",
"a/k",
"ak",
"AKN",
"Al",
"a/l",
"AM",
"Am",
"Am.",
"AMN",
"Amo.",
"AMPS",
"Ams.",
"AMWA",
"AN",
"a.n.",
"ANGKASA",
"ANM",
"ANSI",
"Ant.",
"AOL",
"AP",
"a/p",
"APD",
"APEC",
"API",
"APIK",
"APM",
"APN",
"APP",
"Apr.",
"APRI",
"Ar",
"Ar.",
"ark.",
"A.S.",
"As",
"a.s.",
"ASA",
"ASAS 50",
"ASB",
"ASCII",
"ASEAN",
"ASEAN+3",
"ASEM",
"a.s.f.",
"ASN",
"a.s.o.",
"ASP",
"Ast.",
"A.T.",
"At",
"ATM",
"a.t.r.",
"ATUR",
"Au",
"AURI",
"Aug.",
"AWOL",
"Ayb.",
"B",
"BA",
"Ba",
"BAC",
"BAFIA",
"BAM",
"BANANA",
"BAPP",
"BASF",
"BATA",
"BB",
"BBC",
"BBE",
"BBS",
"BC",
"BCG",
"BCIC",
"b.d.",
"BDSSHAM",
"Be",
"BEER",
"BERNAMA",
"Bh",
"b.h.",
"Bhd.",
"Bi",
"BIDS",
"Bil.",
"bil.",
"BIMP-EAGA",
"Bio.",
"BIOS",
"BITMB",
"BJ",
"Bk",
"b.k.",
"BKAL",
"bkn.",
"BKP",
"BL",
"BLR",
"BM",
"BMI",
"BMW",
"BN",
"BNM",
"BO",
"BOJ",
"BOO",
"BOP",
"BOT",
"BP",
"b.p.",
"BPA",
"BPAs",
"bpd.",
"BPIMB",
"BPM",
"BPO",
"BPPH",
"Br",
"Br.",
"BSA",
"B.Sc.",
"B.Sh.",
"b.s.j.",
"BSN",
"Bt.",
"bt.",
"BWT",
"BYOB",
"C",
"C.",
"C/E",
"Ca",
"CAAM",
"CAD",
"CAM",
"CATV",
"CBS",
"CBT",
"CC",
"CCD",
"CCM",
"CCR",
"cct-km",
"CCTV",
"CCU",
"CD",
"Cd",
"CD-ROM",
"CD-RW",
"CDRC",
"Ce",
"CEO",
"CEPT",
"Cetak",
"Cf",
"CFO",
"CFTC",
"CGC",
"CGI",
"CH",
"CIA",
"CIAST",
"CID",
"CIDB",
"CIQ",
"CKD",
"CL",
"Cl",
"c.l.",
"CLI",
"CLOB",
"CM",
"Cm",
"cm.",
"CMAG",
"CMI",
"CMP",
"CNN",
"Co",
"COD",
"Col.",
"COLA",
"COMDEX",
"CP",
"CPI",
"CPO",
"CPR",
"CPU",
"Cr",
"CRDF",
"Cs",
"CST",
"CT",
"CTIP",
"CTRM",
"Cu",
"CUEPACS",
"D-8",
"d/a",
"DAGS",
"Dan.",
"DANCED",
"DAP",
"DARA",
"Db",
"DBKL",
"DBP",
"DBR",
"DC",
"DDA",
"DDT",
"DEB",
"Dec.",
"Deu.",
"DFIs",
"dgn.",
"DHL",
"DIBML",
"DIN",
"Dis.",
"DJ",
"d.l.l.",
"dlm.",
"dng.",
"DNS",
"DO",
"DOA",
"DOE",
"DOF",
"DOSH",
"doz.",
"DPPS",
"Dr.",
"dr.",
"drp.",
"drpd.",
"Ds",
"d.sb.",
"d.st.",
"DSTN2",
"Dt.",
"DTAs",
"DTMF",
"DTP",
"DTV",
"DUBES",
"DUNHILL",
"DV8",
"DVD",
"DVE",
"DVS",
"dw.t.",
"Dy",
"DYMM",
"E",
"E-Commerce",
"E-Dagang",
"E&E",
"E-Faraid",
"E-Government",
"E-Kerajaan",
"E-Mail",
"E-Services",
"E-Village",
"E-Zine",
"EALAF",
"EBI",
"EBP",
"EC",
"ECAFE",
"Ecc.",
"ECI",
"ECM",
"ECOSOC",
"ECP",
"ECR",
"EDI",
"EE",
"EEC",
"Ef.",
"EG",
"Eko.",
"EKS",
"ELWS",
"ELX",
"EMI",
"EMUs",
"En.",
"EP",
"EPF",
"Eph.",
"EPP",
"EPS",
"EPU",
"ER",
"Er",
"ERL",
"ERT",
"Es",
"ESCAP",
"ESOS",
"ESP",
"EST",
"Est.",
"ET",
"ETA",
"ETACS",
"ETC",
"ETD",
"EU",
"Eu",
"EVIAN",
"Exim Bank",
"Exo.",
"Eze.",
"Ezr.",
"F",
"FAM",
"FAMA",
"FAO",
"FAQ",
"FAX",
"FBI",
"FC",
"FCA",
"FCC",
"FDI",
"FE",
"Fe",
"f.e.",
"Feb.",
"FELCRA",
"FELDA",
"FI",
"FIA 1993",
"FIAT",
"FIC",
"FIDA",
"FIFA",
"FIMA",
"Fiz.",
"Flm.",
"Flp.",
"FM",
"Fm",
"FMUTM",
"FO",
"FOA",
"FOB",
"FOC",
"FOMCA",
"FORD",
"Fr",
"FRIM",
"FRTI",
"FSMP",
"FTA",
"FTE",
"FTP",
"G",
"g.",
"G15",
"G77",
"Ga",
"GAC",
"GACM",
"Gal.",
"GAPENA",
"GATS",
"GATT",
"GB",
"Gbps.",
"Gd",
"GDP",
"Ge",
"GEC",
"Gen.",
"Geo.",
"Geog.",
"Gerakan",
"GH",
"GIF",
"GII",
"GIS",
"GITIC",
"GITN",
"GJ",
"GLCs",
"GM",
"GMBH",
"GMI",
"GMT",
"GNP",
"GNS",
"GOLD",
"GP",
"GPC",
"GPIM",
"GPMS",
"GPO",
"GPP",
"GPS",
"GRO",
"GRS",
"GSMC",
"GST",
"GTZ",
"GUI",
"GWh.",
"H",
"Ha",
"Hab.",
"Hag.",
"Hak.",
"ham",
"hb.",
"HCI",
"HDTV",
"He",
"Heb.",
"Hf",
"Hg",
"HI-FI",
"HIS",
"HIV",
"Hj.",
"HMS",
"Ho",
"Hos.",
"HP",
"HRDC",
"HRDF",
"HRMIS",
"Hs",
"Hut.",
"I",
"I/O",
"IA",
"IAA",
"IADPs",
"IB",
"i.b.",
"IBA",
"IBFIM",
"IBG",
"Ibr.",
"IBRD",
"IBS",
"IC",
"ICA",
"ICBM",
"ICFM",
"ICI",
"ICM",
"ICOR",
"ICP",
"ICT",
"ICU",
"ID",
"Id.",
"IDB",
"IDFR",
"IE",
"i.e.",
"IFSB",
"IGAs",
"IGS",
"IHP",
"IHPG",
"IIM",
"IINA",
"IKKL",
"IKP",
"IKPH",
"IKS",
"Im.",
"IMD",
"IMF",
"IMP2",
"IMR",
"IMS-GT",
"IMT-GT",
"In",
"in.",
"INFRA",
"INSEP",
"INSPEN",
"INTAN",
"IOFC",
"IOU",
"IP",
"IPA",
"IPBA",
"IPCs",
"IPEBP",
"IPI",
"IPKIM",
"IPKPM",
"IPO",
"IPP",
"IPPM",
"IPPPM",
"i.pt.",
"IPTAR",
"IPTNM",
"IQR",
"Ir",
"IRA",
"IRPA",
"IRS",
"i.s.",
"ISA",
"Isa.",
"ISDN",
"ISMM",
"ISO",
"ISP",
"ist.",
"IT",
"i.t.",
"ITA",
"ITAF",
"ITEX",
"ITK",
"ITM",
"ITO",
"ITRCo",
"ITTA",
"ITU",
"JAK",
"JAKIM",
"Jam.",
"Jan.",
"Jb.",
"JBIC",
"JD",
"JDA",
"Jdg.",
"Jer.",
"Jh.",
"JICA",
"JJ",
"Jk.",
"JKKK",
"jkps.",
"JKR",
"JMTI",
"JOA",
"Joe.",
"Joh.",
"Jon.",
"Jos.",
"JP",
"JPA",
"JPEG",
"JPH",
"JPJ",
"JPSHK",
"JPS",
"JPT",
"JRDA",
"JSM",
"JT",
"Jud.",
"Jul.",
"Jun.",
"JVC",
"Jw.",
"K",
"K-Economy",
"KADA",
"KBE",
"KBIA",
"KBPA",
"KBSM",
"KD",
"Kd.",
"KDI",
"KDN",
"KDNK",
"KE",
"KEAP",
"Kej.",
"Kel.",
"KEM",
"KEMLU",
"kep.",
"Kg.",
"kg.",
"KGB",
"KGK",
"KH",
"ki.",
"Kid.",
"KIK",
"KIKMTT",
"KIM",
"Kim.",
"Kis.",
"KIX",
"KKGSK",
"KKK",
"KKPPA",
"KL",
"Kl.",
"KLCI",
"KLIA",
"KLIBOR",
"KLIM",
"KLM",
"KLSE",
"KM",
"KMM",
"KNK",
"KO",
"Kol.",
"Kom.",
"Komp.",
"KOMSAS",
"KPAI",
"KPB",
"KPBA",
"KPC",
"kpd.",
"KPE",
"KPIs",
"KPPL",
"KPPMS",
"KPWM",
"Kr",
"KRM",
"KSTI",
"KT",
"KTA",
"KTABKL",
"KTM",
"KTMB",
"kV",
"kW",
"kWh",
"kWj",
"KWSP",
"LA",
"La",
"LABOR",
"Lam.",
"LAN",
"LAPD",
"LASER",
"LAX",
"lb.",
"LC",
"LCD",
"LCHRF",
"LCLY",
"LED",
"Lev.",
"LFPR",
"LFS",
"LFX",
"LGM",
"Li",
"LID",
"Lin.",
"LKN",
"LKPM",
"LKPP",
"LKTP",
"LKWJ",
"LLB",
"LLC",
"LLN",
"LLS",
"LMSM",
"LNG",
"LOA",
"LOBATA",
"LOFSA",
"LPG",
"LPIP",
"LPKI",
"LPKLPL",
"LPKN",
"LPN",
"LPP",
"LPPK",
"LPPM",
"LPPP",
"LPPTP",
"Lr",
"LRs",
"LRT",
"LS",
"LTAKL",
"LTD",
"LTK",
"Lu",
"LUAS",
"Luk.",
"lw.",
"lwn.",
"M\n",
"m",
"M&A",
"MAB",
"MACRES",
"MAD",
"MADA",
"MAGERAN",
"MAHA",
"MAHSURI",
"Mal.",
"MALINDO",
"MAMPU",
"Mar.",
"MARA",
"MARC",
"MARDI",
"MARLBORO",
"MAS",
"MASSA",
"MASSCORP",
"Mat.",
"MATRADE",
"MAVCAP",
"MB",
"MBA",
"MBBS",
"MBM",
"MBO",
"MBS",
"MBTU",
"MC",
"MCA",
"MCB",
"MCSL",
"MCSv5",
"MD",
"Md",
"MDB",
"MDC",
"MDG",
"MDV",
"MEASAT",
"MEATJ",
"MECIB",
"MEMO",
"MENLU",
"MEPS",
"MES",
"MESDAQ",
"METEOR",
"MFI",
"MFIs",
"MG",
"Mg",
"MGM",
"MGR",
"MGS",
"MHA",
"Mi.",
"MIA",
"MIB",
"MIC",
"Mic.",
"MICE",
"MIDA",
"MIDF",
"MIDI",
"MIG",
"MIGHT",
"MII",
"MIMOS",
"MINDEF",
"MINT",
"mis.",
"MIT",
"MITC",
"MITI",
"Ml.",
"MLNG",
"mlpd.",
"MM",
"mm",
"MMN",
"mmscfd.",
"MMU",
"MMX",
"Mn",
"Mn.",
"MNA",
"MNCs",
"MO",
"Mo",
"MOA",
"MOD",
"MODEM",
"MOE",
"MOH",
"MOSTE",
"MOSTI",
"MOU",
"MP",
"MPB",
"MPEG",
"MPOB",
"MPP",
"mppa.",
"MPPJ",
"MPS",
"MPTM",
"MR",
"m.r.",
"MRB",
"MRELB",
"Mrk.",
"MRRDB",
"MS",
"MS-DOS",
"MSC",
"MSG",
"MSM",
"Mt",
"MTC",
"MTCP",
"MTD",
"MTDC",
"MTPB",
"MTV",
"Muz.",
"MV",
"MW",
"MY",
"MyKe",
"Mzm.",
"N",
"N/A",
"Na",
"NAB",
"NACIWID",
"Nah.",
"NAP",
"NASA",
"NATO",
"NAV",
"NB",
"Nb",
"NBA",
"NBC",
"NCR",
"Nd",
"NDP",
"Ne",
"NEAC",
"NEC",
"NEF",
"Neh.",
"NEP",
"NEqO",
"NERP",
"NF",
"NFPEs",
"NG",
"NGOs",
"NGV",
"NHEF",
"NHHES",
"NHK",
"Ni",
"NIDC",
"NIH",
"NIP",
"NIPA",
"NIS",
"NISIR",
"NITA",
"NITC",
"NITP",
"NIV",
"NLAC",
"NMPBSP",
"NMU",
"No",
"No.",
"no.",
"NOSS",
"Nov.",
"Np",
"NPC",
"NPCS",
"NPL",
"NRCC",
"NRW",
"NS",
"Ns",
"NSB",
"NTA",
"NTHRDC",
"NTMP",
"NTSC",
"Num.",
"NUTF",
"NVP",
"NVTC",
"NWRC",
"O",
"Ob.",
"Oba.",
"OC",
"OCPD",
"Oct.",
"OD",
"ODA",
"OECD",
"OEM",
"Ogo.",
"OHQs",
"OIC",
"Okt.",
"OPEC",
"OPP",
"OPP3",
"OPR",
"OS",
"Os",
"OSA",
"OT",
"OUG",
"oz.",
"P",
"P&P",
"PA",
"Pa",
"PABK",
"PABX",
"PAK",
"PAKSI",
"PAL",
"PALL MALL",
"PAS",
"PATA",
"PAWS",
"Pb",
"PBA",
"PBB",
"PBM",
"PBP",
"PBSM",
"PBT",
"PC",
"PC(s)",
"PCB",
"PCIRITA",
"PCM",
"PCMCIA",
"PCN",
"PD",
"Pd",
"pd.",
"PDS",
"PE",
"PEKEMAS",
"PEMADAM",
"PENA",
"PENIS",
"PERDANA",
"PERKESO",
"PERKIM",
"PERNAS",
"PERTAMA",
"PERTIWI",
"PESAKA",
"PETA",
"PETRONAS",
"PGU",
"Ph.",
"PHD",
"Phi.",
"Phm.",
"PIK",
"PIKOM",
"PIN",
"PINTAS",
"PIPM",
"PISK",
"PITA",
"PIXEL",
"PJ",
"PJK",
"PJKB",
"PJP",
"PKBM",
"PKBTA",
"PKEN",
"Pkh.",
"PKKM",
"PKLPA",
"PKM",
"PKNS",
"PKPIM",
"PKPM",
"PKR",
"PKS",
"Pl.",
"p.l.",
"PLA",
"PLC",
"PLCHP",
"PLCs",
"PLI",
"PLT",
"PLUS",
"PLWS",
"PM",
"Pm",
"PMM",
"PMP",
"PMR",
"PMS",
"Pn.",
"PNAT",
"PNS",
"PO",
"Po",
"POCPA",
"POKEMON",
"Pol.",
"POP",
"PORIM",
"PORLA",
"PORTAFOAM",
"PP",
"PPA",
"PPBE",
"PPBK",
"ppd.",
"PPGM",
"PPI",
"PPK",
"PPL",
"PPM",
"PPP",
"PPPB",
"PPPLM",
"PPPM",
"PPR",
"PPRT",
"PPS",
"PPTM",
"PPU",
"PR",
"Pr",
"Pr.",
"prb.",
"PRI",
"PRO",
"Pro.",
"Prof.",
"PROSPER",
"PROSTAR",
"PROTON",
"PS",
"PSA",
"Psa.",
"PSCs",
"PSDC",
"PSDH",
"Psi.",
"PSKE",
"PSRM",
"PST",
"PT",
"Pt",
"PTD",
"PTP",
"Pu",
"PUNB",
"QA",
"QC",
"QCC",
"R&D",
"RA",
"Ra",
"RAM",
"RAPP",
"Rat.",
"Rb",
"RCA",
"RDA",
"RDAs",
"RDCs",
"RE",
"Re",
"REHDA",
"Rev.",
"Rf",
"Rg",
"RGB",
"Rh",
"RI",
"RIDA",
"RIP",
"RISDA",
"r.l.",
"RM",
"Rm.",
"RMKe-8",
"Rn",
"ROC",
"ROM",
"Rom.",
"RPG",
"RPS",
"RRI",
"RRIM",
"RRJP",
"RRP",
"RSGC",
"RSS",
"RSVP",
"Rt.",
"RTA",
"RTM",
"Ru",
"Rut.",
"RWCR",
"RX",
"S",
"S/N",
"S&T",
"S-VHS",
"SA",
"SAC",
"SADCs",
"SAGA",
"SALCRA",
"SALM",
"SALT",
"SAM",
"SAP",
"SARS",
"Sas.",
"s.a.w.",
"SB",
"Sb",
"Sb.",
"SBA",
"SBB",
"sbg.",
"SBK",
"SC",
"Sc",
"SCA",
"SCADA",
"SCANS",
"SCSI",
"SCuM",
"SDCs",
"Sdn. Bhd.",
"sdr.",
"SDRC",
"Se",
"SEATO",
"SEB",
"SECAM",
"SEDCs",
"SEFF",
"Sej.",
"SEMS",
"Sep.",
"Sept.",
"SESB",
"SESCo",
"s.f.",
"Sg",
"SGPCA",
"SGPPI",
"SGPPKRM",
"SGX",
"Si",
"Si.",
"SIA 1983",
"SIC",
"SIM",
"SING",
"SIRIM",
"SITTDEC",
"sj.",
"SKDTP",
"SKM",
"SKSM",
"SL",
"Sl.",
"sl.",
"SLMCH",
"SLR",
"SM",
"Sm",
"SMART",
"SMEs",
"SMEt",
"SMIs",
"SMIDEC",
"SMIDP",
"SMJK",
"SMR",
"SMS",
"SMT",
"SMTP",
"SN",
"Sn",
"SOB",
"SOCSO",
"SOHO",
"Son.",
"SOS",
"Sos.",
"SP",
"SPA",
"SPAM",
"SPCA",
"SPKR",
"SPLAM",
"SPM",
"SPNB",
"SPSP",
"t.",
"Ta",
"Tadb.",
"TAF",
"TAF-W",
"Tani",
"TAP",
"TAR",
"TARBI",
"TB",
"Tb",
"TBA",
"TBTP",
"Tc",
"TCPD",
"TDCs",
"Te",
"TEKUN",
"TELCO",
"TELEX",
"TEUs",
"TFP",
"TGV",
"TH",
"Th",
"THIS",
"Ti",
"TICAD",
"Tit.",
"TKA",
"Tks.",
"Tl",
"TLDM",
"TM",
"Tm",
"TMB",
"TMK",
"TNB",
"TNSB",
"TNT",
"TOEFL",
"TP",
"TPIM",
"TPK",
"TPPP",
"TPPT",
"TPSM",
"TPUB",
"TQM",
"Tr.",
"TRIPs",
"tsb.",
"tscf.",
"t.sh.",
"t.s.t.",
"TT",
"t.t.",
"TUDM",
"TV",
"TVSMR",
"TWAIN",
"TX",
"TYPHIrapid",
"U",
"Ubat",
"UDA",
"Udg.",
"UFO",
"UH",
"UIA",
"UiTM",
"UK",
"UKM",
"UL",
"Ul.",
"ULC",
"UM",
"UMNO",
"UMS",
"UN",
"UN/OSCAL",
"UNCLE",
"UNCTAD",
"UNDP",
"UNESCO",
"UNFCCC",
"UNFPA",
"UNHCR",
"UNICEF",
"UNIMAS",
"UNTAET",
"UPE",
"UPM",
"UPS",
"UPSR",
"URL",
"US",
"USAINS",
"USD",
"USM",
"USNO",
"USS",
"USSR",
"UTC",
"UTF",
"utk.",
"UTM",
"V",
"VAT",
"VCC",
"VCD",
"VCR",
"VD",
"VDSC",
"VGA",
"VHF",
"VHS",
"VIP",
"VMS",
"VO",
"VOA",
"VoIP",
"VR",
"VSOP",
"VW",
"W",
"W/O",
"WAP",
"WAY",
"WC",
"WDDM",
"WDM",
"WHO",
"Why.",
"WIM",
"WPG",
"WTO",
"WWF",
"WWW",
"WYSIWYG",
"Xe",
"XO",
"XXL",
"Y",
"Y2K",
"YAB",
"Yak.",
"YAM",
"YAS",
"YB",
"Yb",
"Yeh.",
"Yer.",
"Yes.",
"yg.",
"Yl.",
"YM",
"YMCA",
"Yoh.",
"Yos.",
"Y.Th.",
"YTM",
"Yud.",
"Yun.",
"Za.",
"Zec.",
"Zef.",
"Zep.",
"ZIP",
"Zn",
"Zr",
]:
_exc[orth] = [{ORTH: orth}]
TOKENIZER_EXCEPTIONS = update_exc(BASE_EXCEPTIONS, _exc)
| 19,109 | 11.465753 | 73 | py |
spaCy | spaCy-master/spacy/lang/nb/__init__.py | from typing import Callable, Optional
from thinc.api import Model
from ...language import BaseDefaults, Language
from ...pipeline import Lemmatizer
from .punctuation import TOKENIZER_INFIXES, TOKENIZER_PREFIXES, TOKENIZER_SUFFIXES
from .stop_words import STOP_WORDS
from .syntax_iterators import SYNTAX_ITERATORS
from .tokenizer_exceptions import TOKENIZER_EXCEPTIONS
class NorwegianDefaults(BaseDefaults):
tokenizer_exceptions = TOKENIZER_EXCEPTIONS
prefixes = TOKENIZER_PREFIXES
infixes = TOKENIZER_INFIXES
suffixes = TOKENIZER_SUFFIXES
syntax_iterators = SYNTAX_ITERATORS
stop_words = STOP_WORDS
class Norwegian(Language):
lang = "nb"
Defaults = NorwegianDefaults
@Norwegian.factory(
"lemmatizer",
assigns=["token.lemma"],
default_config={
"model": None,
"mode": "rule",
"overwrite": False,
"scorer": {"@scorers": "spacy.lemmatizer_scorer.v1"},
},
default_score_weights={"lemma_acc": 1.0},
)
def make_lemmatizer(
nlp: Language,
model: Optional[Model],
name: str,
mode: str,
overwrite: bool,
scorer: Optional[Callable],
):
return Lemmatizer(
nlp.vocab, model, name, mode=mode, overwrite=overwrite, scorer=scorer
)
__all__ = ["Norwegian"]
| 1,274 | 23.519231 | 82 | py |
spaCy | spaCy-master/spacy/lang/nb/examples.py | """
Example sentences to test spaCy and its language models.
>>> from spacy.lang.nb.examples import sentences
>>> docs = nlp.pipe(sentences)
"""
sentences = [
"Apple vurderer å kjøpe britisk oppstartfirma for en milliard dollar.",
"Selvkjørende biler flytter forsikringsansvaret over på produsentene.",
"San Francisco vurderer å forby robotbud på fortauene.",
"London er en stor by i Storbritannia.",
]
| 422 | 27.2 | 75 | py |
spaCy | spaCy-master/spacy/lang/nb/punctuation.py | from ..char_classes import (
ALPHA,
ALPHA_LOWER,
ALPHA_UPPER,
CONCAT_QUOTES,
CURRENCY,
LIST_CURRENCY,
LIST_ELLIPSES,
LIST_ICONS,
LIST_PUNCT,
LIST_QUOTES,
PUNCT,
UNITS,
)
# Punctuation adapted from Danish
_quotes = CONCAT_QUOTES.replace("'", "")
_list_punct = [x for x in LIST_PUNCT if x != "#"]
_list_icons = [x for x in LIST_ICONS if x != "°"]
_list_icons = [x.replace("\\u00B0", "") for x in _list_icons]
_list_quotes = [x for x in LIST_QUOTES if x != "\\'"]
_prefixes = (
["§", "%", "=", "—", "–", r"\+(?![0-9])"]
+ _list_punct
+ LIST_ELLIPSES
+ LIST_QUOTES
+ LIST_CURRENCY
+ LIST_ICONS
)
_infixes = (
LIST_ELLIPSES
+ _list_icons
+ [
r"(?<=[{al}])\.(?=[{au}])".format(al=ALPHA_LOWER, au=ALPHA_UPPER),
r"(?<=[{a}])[,!?](?=[{a}])".format(a=ALPHA),
r"(?<=[{a}])[:<>=/](?=[{a}])".format(a=ALPHA),
r"(?<=[{a}]),(?=[{a}])".format(a=ALPHA),
r"(?<=[{a}])([{q}\)\]\(\[])(?=[{a}])".format(a=ALPHA, q=_quotes),
r"(?<=[{a}])--(?=[{a}])".format(a=ALPHA),
]
)
_suffixes = (
LIST_PUNCT
+ LIST_ELLIPSES
+ _list_quotes
+ _list_icons
+ ["—", "–"]
+ [
r"(?<=[0-9])\+",
r"(?<=°[FfCcKk])\.",
r"(?<=[0-9])(?:{c})".format(c=CURRENCY),
r"(?<=[0-9])(?:{u})".format(u=UNITS),
r"(?<=[{al}{e}{p}(?:{q})])\.".format(
al=ALPHA_LOWER, e=r"%²\-\+", q=_quotes, p=PUNCT
),
r"(?<=[{au}][{au}])\.".format(au=ALPHA_UPPER),
]
+ [r"(?<=[^sSxXzZ])'"]
)
TOKENIZER_PREFIXES = _prefixes
TOKENIZER_INFIXES = _infixes
TOKENIZER_SUFFIXES = _suffixes
| 1,651 | 22.6 | 74 | py |
spaCy | spaCy-master/spacy/lang/nb/stop_words.py | STOP_WORDS = set(
"""
alle allerede alt and andre annen annet at av
bak bare bedre beste blant ble bli blir blitt bris by både
da dag de del dem den denne der dermed det dette disse du
eller en enn er et ett etter
fem fikk fire fjor flere folk for fortsatt fra fram
funnet få får fått før først første
gang gi gikk gjennom gjorde gjort gjør gjøre god godt grunn gå går
ha hadde ham han hans har hele helt henne hennes her hun
i ifølge igjen ikke ingen inn
ja jeg
kamp kampen kan kl klart kom komme kommer kontakt kort kroner kunne kveld
la laget land landet langt leder ligger like litt løpet
man mange med meg mellom men mener mennesker mens mer mot mye må mål måtte
ned neste noe noen nok ny nye nå når
og også om opp opplyser oss over
personer plass poeng på
runde rundt
sa saken samme sammen samtidig satt se seg seks selv senere ser sett
siden sier sin sine siste sitt skal skriver skulle slik som sted stedet stor
store står svært så
ta tatt tid tidligere til tilbake tillegg tok tror
under ut uten utenfor
vant var ved veldig vi videre viktig vil ville viser vår være vært
å år
ønsker
""".split()
)
| 1,131 | 21.196078 | 76 | py |
spaCy | spaCy-master/spacy/lang/nb/syntax_iterators.py | from typing import Iterator, Tuple, Union
from ...errors import Errors
from ...symbols import NOUN, PRON, PROPN
from ...tokens import Doc, Span
def noun_chunks(doclike: Union[Doc, Span]) -> Iterator[Tuple[int, int, int]]:
"""Detect base noun phrases from a dependency parse. Works on Doc and Span."""
# fmt: off
labels = ["nsubj", "nsubj:pass", "obj", "iobj", "ROOT", "appos", "nmod", "nmod:poss"]
# fmt: on
doc = doclike.doc # Ensure works on both Doc and Span.
if not doc.has_annotation("DEP"):
raise ValueError(Errors.E029)
np_deps = [doc.vocab.strings[label] for label in labels]
conj = doc.vocab.strings.add("conj")
np_label = doc.vocab.strings.add("NP")
prev_end = -1
for i, word in enumerate(doclike):
if word.pos not in (NOUN, PROPN, PRON):
continue
# Prevent nested chunks from being produced
if word.left_edge.i <= prev_end:
continue
if word.dep in np_deps:
prev_end = word.right_edge.i
yield word.left_edge.i, word.right_edge.i + 1, np_label
elif word.dep == conj:
head = word.head
while head.dep == conj and head.head.i < head.i:
head = head.head
# If the head is an NP, and we're coordinated to it, we're an NP
if head.dep in np_deps:
prev_end = word.right_edge.i
yield word.left_edge.i, word.right_edge.i + 1, np_label
SYNTAX_ITERATORS = {"noun_chunks": noun_chunks}
| 1,523 | 37.1 | 89 | py |
spaCy | spaCy-master/spacy/lang/nb/tokenizer_exceptions.py | from ...symbols import NORM, ORTH
from ...util import update_exc
from ..tokenizer_exceptions import BASE_EXCEPTIONS
_exc = {}
for exc_data in [
{ORTH: "jan.", NORM: "januar"},
{ORTH: "feb.", NORM: "februar"},
{ORTH: "mar.", NORM: "mars"},
{ORTH: "apr.", NORM: "april"},
{ORTH: "jun.", NORM: "juni"},
{ORTH: "jul.", NORM: "juli"},
{ORTH: "aug.", NORM: "august"},
{ORTH: "sep.", NORM: "september"},
{ORTH: "okt.", NORM: "oktober"},
{ORTH: "nov.", NORM: "november"},
{ORTH: "des.", NORM: "desember"},
]:
_exc[exc_data[ORTH]] = [exc_data]
for orth in [
"Ap.",
"Aq.",
"Ca.",
"Chr.",
"Co.",
"Co.",
"Dr.",
"F.eks.",
"Fr.p.",
"Frp.",
"Grl.",
"Kr.",
"Kr.F.",
"Kr.F.s",
"Mr.",
"Mrs.",
"Pb.",
"Pr.",
"Sp.",
"Sp.",
"St.",
"a.m.",
"ad.",
"adm.dir.",
"andelsnr",
"b.c.",
"bl.a.",
"bla.",
"bm.",
"bnr.",
"bto.",
"c.c.",
"ca.",
"cand.mag.",
"co.",
"d.d.",
"d.m.",
"d.y.",
"dept.",
"dr.",
"dr.med.",
"dr.philos.",
"dr.psychol.",
"dvs.",
"e.Kr.",
"e.l.",
"eg.",
"ekskl.",
"el.",
"et.",
"etc.",
"etg.",
"ev.",
"evt.",
"f.",
"f.Kr.",
"f.eks.",
"f.o.m.",
"fhv.",
"fk.",
"foreg.",
"fork.",
"fv.",
"fvt.",
"g.",
"gl.",
"gno.",
"gnr.",
"grl.",
"gt.",
"h.r.adv.",
"hhv.",
"hoh.",
"hr.",
"ifb.",
"ifm.",
"iht.",
"inkl.",
"istf.",
"jf.",
"jr.",
"jun.",
"juris.",
"kfr.",
"kgl.",
"kgl.res.",
"kl.",
"komm.",
"kr.",
"kst.",
"lat.",
"lø.",
"m.a.o.",
"m.fl.",
"m.m.",
"m.v.",
"ma.",
"mag.art.",
"md.",
"mfl.",
"mht.",
"mill.",
"min.",
"mnd.",
"moh.",
"mrd.",
"muh.",
"mv.",
"mva.",
"n.å.",
"ndf.",
"no.",
"nov.",
"nr.",
"nto.",
"nyno.",
"o.a.",
"o.l.",
"off.",
"ofl.",
"okt.",
"on.",
"op.",
"org.",
"osv.",
"ovf.",
"p.",
"p.a.",
"p.g.a.",
"p.m.",
"p.t.",
"pga.",
"ph.d.",
"pkt.",
"pr.",
"pst.",
"pt.",
"red.anm.",
"ref.",
"res.",
"res.kap.",
"resp.",
"rv.",
"s.",
"s.d.",
"s.k.",
"s.k.",
"s.u.",
"s.å.",
"sen.",
"sep.",
"siviling.",
"sms.",
"snr.",
"spm.",
"sr.",
"sst.",
"st.",
"st.meld.",
"st.prp.",
"stip.",
"stk.",
"stud.",
"sv.",
"såk.",
"sø.",
"t.h.",
"t.o.m.",
"t.v.",
"temp.",
"ti.",
"tils.",
"tilsv.",
"tl;dr",
"tlf.",
"to.",
"ult.",
"utg.",
"v.",
"vedk.",
"vedr.",
"vg.",
"vgs.",
"vha.",
"vit.ass.",
"vn.",
"vol.",
"vs.",
"vsa.",
"©NTB",
"årg.",
"årh.",
"§§",
]:
_exc[orth] = [{ORTH: orth}]
TOKENIZER_EXCEPTIONS = update_exc(BASE_EXCEPTIONS, _exc)
| 3,058 | 12.717489 | 56 | py |
spaCy | spaCy-master/spacy/lang/ne/__init__.py | from ...language import BaseDefaults, Language
from .lex_attrs import LEX_ATTRS
from .stop_words import STOP_WORDS
class NepaliDefaults(BaseDefaults):
stop_words = STOP_WORDS
lex_attr_getters = LEX_ATTRS
class Nepali(Language):
lang = "ne"
Defaults = NepaliDefaults
__all__ = ["Nepali"]
| 309 | 17.235294 | 46 | py |
spaCy | spaCy-master/spacy/lang/ne/examples.py | """
Example sentences to test spaCy and its language models.
>>> from spacy.lang.ne.examples import sentences
>>> docs = nlp.pipe(sentences)
"""
sentences = [
"एप्पलले अमेरिकी स्टार्टअप १ अर्ब डलरमा किन्ने सोच्दै छ",
"स्वायत्त कारहरूले बीमा दायित्व निर्माताहरु तिर बदल्छन्",
"स्यान फ्रांसिस्कोले फुटपाथ वितरण रोबोटहरु प्रतिबंध गर्ने विचार गर्दै छ",
"लन्डन यूनाइटेड किंगडमको एक ठूलो शहर हो।",
"तिमी कहाँ छौ?",
"फ्रान्स को राष्ट्रपति को हो?",
"संयुक्त राज्यको राजधानी के हो?",
"बराक ओबामा कहिले कहिले जन्मेका हुन्?",
]
| 552 | 28.105263 | 77 | py |
spaCy | spaCy-master/spacy/lang/ne/lex_attrs.py | from ...attrs import LIKE_NUM, NORM
from ..norm_exceptions import BASE_NORMS
# fmt: off
_stem_suffixes = [
["ा", "ि", "ी", "ु", "ू", "ृ", "े", "ै", "ो", "ौ"],
["ँ", "ं", "्", "ः"],
["लाई", "ले", "बाट", "को", "मा", "हरू"],
["हरूलाई", "हरूले", "हरूबाट", "हरूको", "हरूमा"],
["इलो", "िलो", "नु", "ाउनु", "ई", "इन", "इन्", "इनन्"],
["एँ", "इँन्", "इस्", "इनस्", "यो", "एन", "यौं", "एनौं", "ए", "एनन्"],
["छु", "छौँ", "छस्", "छौ", "छ", "छन्", "छेस्", "छे", "छ्यौ", "छिन्", "हुन्छ"],
["दै", "दिन", "दिँन", "दैनस्", "दैन", "दैनौँ", "दैनौं", "दैनन्"],
["हुन्न", "न्न", "न्न्स्", "न्नौं", "न्नौ", "न्न्न्", "िई"],
["अ", "ओ", "ऊ", "अरी", "साथ", "वित्तिकै", "पूर्वक"],
["याइ", "ाइ", "बार", "वार", "चाँहि"],
["ने", "ेको", "ेकी", "ेका", "ेर", "दै", "तै", "िकन", "उ", "न", "नन्"]
]
# fmt: on
# reference 1: https://en.wikipedia.org/wiki/Numbers_in_Nepali_language
# reference 2: https://www.imnepal.com/nepali-numbers/
_num_words = [
"शुन्य",
"एक",
"दुई",
"तीन",
"चार",
"पाँच",
"छ",
"सात",
"आठ",
"नौ",
"दश",
"एघार",
"बाह्र",
"तेह्र",
"चौध",
"पन्ध्र",
"सोह्र",
"सोह्र",
"सत्र",
"अठार",
"उन्नाइस",
"बीस",
"तीस",
"चालीस",
"पचास",
"साठी",
"सत्तरी",
"असी",
"नब्बे",
"सय",
"हजार",
"लाख",
"करोड",
"अर्ब",
"खर्ब",
]
def norm(string):
# normalise base exceptions, e.g. punctuation or currency symbols
if string in BASE_NORMS:
return BASE_NORMS[string]
# set stem word as norm, if available, adapted from:
# https://github.com/explosion/spaCy/blob/master/spacy/lang/hi/lex_attrs.py
# https://www.researchgate.net/publication/237261579_Structure_of_Nepali_Grammar
for suffix_group in reversed(_stem_suffixes):
length = len(suffix_group[0])
if len(string) <= length:
break
for suffix in suffix_group:
if string.endswith(suffix):
return string[:-length]
return string
def like_num(text):
if text.startswith(("+", "-", "±", "~")):
text = text[1:]
text = text.replace(", ", "").replace(".", "")
if text.isdigit():
return True
if text.count("/") == 1:
num, denom = text.split("/")
if num.isdigit() and denom.isdigit():
return True
if text.lower() in _num_words:
return True
return False
LEX_ATTRS = {NORM: norm, LIKE_NUM: like_num}
| 2,476 | 25.073684 | 84 | py |
spaCy | spaCy-master/spacy/lang/ne/stop_words.py | # Source: https://github.com/sanjaalcorps/NepaliStopWords/blob/master/NepaliStopWords.txt
STOP_WORDS = set(
"""
अक्सर
अगाडि
अगाडी
अघि
अझै
अठार
अथवा
अनि
अनुसार
अन्तर्गत
अन्य
अन्यत्र
अन्यथा
अब
अरु
अरुलाई
अरू
अर्को
अर्थात
अर्थात्
अलग
अलि
अवस्था
अहिले
आए
आएका
आएको
आज
आजको
आठ
आत्म
आदि
आदिलाई
आफनो
आफू
आफूलाई
आफै
आफैँ
आफ्नै
आफ्नो
आयो
उ
उक्त
उदाहरण
उनको
उनलाई
उनले
उनि
उनी
उनीहरुको
उन्नाइस
उप
उसको
उसलाई
उसले
उहालाई
ऊ
एउटा
एउटै
एक
एकदम
एघार
ओठ
औ
औं
कता
कति
कतै
कम
कमसेकम
कसरि
कसरी
कसै
कसैको
कसैलाई
कसैले
कसैसँग
कस्तो
कहाँबाट
कहिलेकाहीं
का
काम
कारण
कि
किन
किनभने
कुन
कुनै
कुन्नी
कुरा
कृपया
के
केहि
केही
को
कोहि
कोहिपनि
कोही
कोहीपनि
क्रमशः
गए
गएको
गएर
गयौ
गरि
गरी
गरे
गरेका
गरेको
गरेर
गरौं
गर्छ
गर्छन्
गर्छु
गर्दा
गर्दै
गर्न
गर्नु
गर्नुपर्छ
गर्ने
गैर
घर
चार
चाले
चाहनुहुन्छ
चाहन्छु
चाहिं
चाहिए
चाहिंले
चाहीं
चाहेको
चाहेर
चोटी
चौथो
चौध
छ
छन
छन्
छु
छू
छैन
छैनन्
छौ
छौं
जता
जताततै
जना
जनाको
जनालाई
जनाले
जब
जबकि
जबकी
जसको
जसबाट
जसमा
जसरी
जसलाई
जसले
जस्ता
जस्तै
जस्तो
जस्तोसुकै
जहाँ
जान
जाने
जाहिर
जुन
जुनै
जे
जो
जोपनि
जोपनी
झैं
ठाउँमा
ठीक
ठूलो
त
तता
तत्काल
तथा
तथापि
तथापी
तदनुसार
तपाइ
तपाई
तपाईको
तब
तर
तर्फ
तल
तसरी
तापनि
तापनी
तिन
तिनि
तिनिहरुलाई
तिनी
तिनीहरु
तिनीहरुको
तिनीहरू
तिनीहरूको
तिनै
तिमी
तिर
तिरको
ती
तीन
तुरन्त
तुरुन्त
तुरुन्तै
तेश्रो
तेस्कारण
तेस्रो
तेह्र
तैपनि
तैपनी
त्यत्तिकै
त्यत्तिकैमा
त्यस
त्यसकारण
त्यसको
त्यसले
त्यसैले
त्यसो
त्यस्तै
त्यस्तो
त्यहाँ
त्यहिँ
त्यही
त्यहीँ
त्यहीं
त्यो
त्सपछि
त्सैले
थप
थरि
थरी
थाहा
थिए
थिएँ
थिएन
थियो
दर्ता
दश
दिए
दिएको
दिन
दिनुभएको
दिनुहुन्छ
दुइ
दुइवटा
दुई
देखि
देखिन्छ
देखियो
देखे
देखेको
देखेर
दोश्री
दोश्रो
दोस्रो
द्वारा
धन्न
धेरै
धौ
न
नगर्नु
नगर्नू
नजिकै
नत्र
नत्रभने
नभई
नभएको
नभनेर
नयाँ
नि
निकै
निम्ति
निम्न
निम्नानुसार
निर्दिष्ट
नै
नौ
पक्का
पक्कै
पछाडि
पछाडी
पछि
पछिल्लो
पछी
पटक
पनि
पन्ध्र
पर्छ
पर्थ्यो
पर्दैन
पर्ने
पर्नेमा
पर्याप्त
पहिले
पहिलो
पहिल्यै
पाँच
पांच
पाचौँ
पाँचौं
पिच्छे
पूर्व
पो
प्रति
प्रतेक
प्रत्यक
प्राय
प्लस
फरक
फेरि
फेरी
बढी
बताए
बने
बरु
बाट
बारे
बाहिर
बाहेक
बाह्र
बिच
बिचमा
बिरुद्ध
बिशेष
बिस
बीच
बीचमा
बीस
भए
भएँ
भएका
भएकालाई
भएको
भएन
भएर
भन
भने
भनेको
भनेर
भन्
भन्छन्
भन्छु
भन्दा
भन्दै
भन्नुभयो
भन्ने
भन्या
भयेन
भयो
भर
भरि
भरी
भा
भित्र
भित्री
भीत्र
म
मध्य
मध्ये
मलाई
मा
मात्र
मात्रै
माथि
माथी
मुख्य
मुनि
मुन्तिर
मेरो
मैले
यति
यथोचित
यदि
यद्ध्यपि
यद्यपि
यस
यसका
यसको
यसपछि
यसबाहेक
यसमा
यसरी
यसले
यसो
यस्तै
यस्तो
यहाँ
यहाँसम्म
यही
या
यी
यो
र
रही
रहेका
रहेको
रहेछ
राखे
राख्छ
राम्रो
रुपमा
रूप
रे
लगभग
लगायत
लाई
लाख
लागि
लागेको
ले
वटा
वरीपरी
वा
वाट
वापत
वास्तवमा
शायद
सक्छ
सक्ने
सँग
संग
सँगको
सँगसँगै
सँगै
संगै
सङ्ग
सङ्गको
सट्टा
सत्र
सधै
सबै
सबैको
सबैलाई
समय
समेत
सम्भव
सम्म
सय
सरह
सहित
सहितै
सही
साँच्चै
सात
साथ
साथै
सायद
सारा
सुनेको
सुनेर
सुरु
सुरुको
सुरुमै
सो
सोचेको
सोचेर
सोही
सोह्र
स्थित
स्पष्ट
हजार
हरे
हरेक
हामी
हामीले
हाम्रा
हाम्रो
हुँदैन
हुन
हुनत
हुनु
हुने
हुनेछ
हुन्
हुन्छ
हुन्थ्यो
हैन
हो
होइन
होकि
होला
""".split()
)
| 2,791 | 4.640404 | 89 | py |
spaCy | spaCy-master/spacy/lang/nl/__init__.py | from typing import Callable, Optional
from thinc.api import Model
from ...language import BaseDefaults, Language
from .lemmatizer import DutchLemmatizer
from .lex_attrs import LEX_ATTRS
from .punctuation import TOKENIZER_INFIXES, TOKENIZER_PREFIXES, TOKENIZER_SUFFIXES
from .stop_words import STOP_WORDS
from .syntax_iterators import SYNTAX_ITERATORS
from .tokenizer_exceptions import TOKENIZER_EXCEPTIONS
class DutchDefaults(BaseDefaults):
tokenizer_exceptions = TOKENIZER_EXCEPTIONS
prefixes = TOKENIZER_PREFIXES
infixes = TOKENIZER_INFIXES
suffixes = TOKENIZER_SUFFIXES
lex_attr_getters = LEX_ATTRS
syntax_iterators = SYNTAX_ITERATORS
stop_words = STOP_WORDS
class Dutch(Language):
lang = "nl"
Defaults = DutchDefaults
@Dutch.factory(
"lemmatizer",
assigns=["token.lemma"],
default_config={
"model": None,
"mode": "rule",
"overwrite": False,
"scorer": {"@scorers": "spacy.lemmatizer_scorer.v1"},
},
default_score_weights={"lemma_acc": 1.0},
)
def make_lemmatizer(
nlp: Language,
model: Optional[Model],
name: str,
mode: str,
overwrite: bool,
scorer: Optional[Callable],
):
return DutchLemmatizer(
nlp.vocab, model, name, mode=mode, overwrite=overwrite, scorer=scorer
)
__all__ = ["Dutch"]
| 1,330 | 23.648148 | 82 | py |
spaCy | spaCy-master/spacy/lang/nl/examples.py | """
Example sentences to test spaCy and its language models.
>>> from spacy.lang.nl.examples import sentences
>>> docs = nlp.pipe(sentences)
"""
sentences = [
"Apple overweegt om voor 1 miljard een U.K. startup te kopen",
"Autonome auto's verschuiven de verzekeringverantwoordelijkheid naar producenten",
"San Francisco overweegt robots op voetpaden te verbieden",
"Londen is een grote stad in het Verenigd Koninkrijk",
]
| 441 | 28.466667 | 86 | py |
spaCy | spaCy-master/spacy/lang/nl/lemmatizer.py | from typing import List, Tuple
from ...pipeline import Lemmatizer
from ...tokens import Token
class DutchLemmatizer(Lemmatizer):
@classmethod
def get_lookups_config(cls, mode: str) -> Tuple[List[str], List[str]]:
if mode == "rule":
required = ["lemma_lookup", "lemma_rules", "lemma_exc", "lemma_index"]
return (required, [])
else:
return super().get_lookups_config(mode)
def lookup_lemmatize(self, token: Token) -> List[str]:
"""Overrides parent method so that a lowercased version of the string
is used to search the lookup table. This is necessary because our
lookup table consists entirely of lowercase keys."""
lookup_table = self.lookups.get_table("lemma_lookup", {})
string = token.text.lower()
return [lookup_table.get(string, string)]
# Note: CGN does not distinguish AUX verbs, so we treat AUX as VERB.
def rule_lemmatize(self, token: Token) -> List[str]:
# Difference 1: self.rules is assumed to be non-None, so no
# 'is None' check required.
# String lowercased from the get-go. All lemmatization results in
# lowercased strings. For most applications, this shouldn't pose
# any problems, and it keeps the exceptions indexes small. If this
# creates problems for proper nouns, we can introduce a check for
# univ_pos == "PROPN".
cache_key = (token.lower, token.pos)
if cache_key in self.cache:
return self.cache[cache_key]
string = token.text
univ_pos = token.pos_.lower()
if univ_pos in ("", "eol", "space"):
forms = [string.lower()]
self.cache[cache_key] = forms
return forms
index_table = self.lookups.get_table("lemma_index", {})
exc_table = self.lookups.get_table("lemma_exc", {})
rules_table = self.lookups.get_table("lemma_rules", {})
index = index_table.get(univ_pos, {})
exceptions = exc_table.get(univ_pos, {})
rules = rules_table.get(univ_pos, {})
string = string.lower()
if univ_pos not in (
"noun",
"verb",
"aux",
"adj",
"adv",
"pron",
"det",
"adp",
"num",
):
forms = [string]
self.cache[cache_key] = forms
return forms
lemma_index = index_table.get(univ_pos, {})
# string is already lemma
if string in lemma_index:
forms = [string]
self.cache[cache_key] = forms
return forms
exc_table = self.lookups.get_table("lemma_exc", {})
exceptions = exc_table.get(univ_pos, {})
# string is irregular token contained in exceptions index.
try:
forms = [exceptions[string][0]]
self.cache[cache_key] = forms
return forms
except KeyError:
pass
# string corresponds to key in lookup table
lookup_table = self.lookups.get_table("lemma_lookup", {})
looked_up_lemma = lookup_table.get(string)
if looked_up_lemma and looked_up_lemma in lemma_index:
forms = [looked_up_lemma]
self.cache[cache_key] = forms
return forms
rules_table = self.lookups.get_table("lemma_rules", {})
oov_forms = []
for old, new in rules:
if string.endswith(old):
form = string[: len(string) - len(old)] + new
if not form:
pass
elif form in index:
forms = [form]
self.cache[cache_key] = forms
return forms
else:
oov_forms.append(form)
forms = list(dict.fromkeys(oov_forms))
# Back-off through remaining return value candidates.
if forms:
for form in forms:
if form in exceptions:
forms = [form]
self.cache[cache_key] = forms
return forms
if looked_up_lemma:
forms = [looked_up_lemma]
self.cache[cache_key] = forms
return forms
else:
self.cache[cache_key] = forms
return forms
elif looked_up_lemma:
forms = [looked_up_lemma]
self.cache[cache_key] = forms
return forms
else:
forms = [string]
self.cache[cache_key] = forms
return forms
| 4,618 | 36.552846 | 82 | py |
spaCy | spaCy-master/spacy/lang/nl/lex_attrs.py | from ...attrs import LIKE_NUM
_num_words = set(
"""
nul een één twee drie vier vijf zes zeven acht negen tien elf twaalf dertien
veertien twintig dertig veertig vijftig zestig zeventig tachtig negentig honderd
duizend miljoen miljard biljoen biljard triljoen triljard
""".split()
)
_ordinal_words = set(
"""
eerste tweede derde vierde vijfde zesde zevende achtste negende tiende elfde
twaalfde dertiende veertiende twintigste dertigste veertigste vijftigste
zestigste zeventigste tachtigste negentigste honderdste duizendste miljoenste
miljardste biljoenste biljardste triljoenste triljardste
""".split()
)
def like_num(text):
# This only does the most basic check for whether a token is a digit
# or matches one of the number words. In order to handle numbers like
# "drieëntwintig", more work is required.
# See this discussion: https://github.com/explosion/spaCy/pull/1177
text = text.replace(",", "").replace(".", "")
if text.isdigit():
return True
if text.count("/") == 1:
num, denom = text.split("/")
if num.isdigit() and denom.isdigit():
return True
if text.lower() in _num_words:
return True
if text.lower() in _ordinal_words:
return True
return False
LEX_ATTRS = {LIKE_NUM: like_num}
| 1,299 | 30.707317 | 80 | py |
spaCy | spaCy-master/spacy/lang/nl/punctuation.py | from ..char_classes import (
ALPHA,
ALPHA_LOWER,
ALPHA_UPPER,
CONCAT_QUOTES,
CURRENCY,
LIST_ELLIPSES,
LIST_ICONS,
LIST_PUNCT,
LIST_QUOTES,
LIST_UNITS,
PUNCT,
merge_chars,
)
from ..punctuation import TOKENIZER_PREFIXES as BASE_TOKENIZER_PREFIXES
_prefixes = [",,"] + BASE_TOKENIZER_PREFIXES
# Copied from `de` package. Main purpose is to ensure that hyphens are not
# split on.
_quotes = CONCAT_QUOTES.replace("'", "")
_infixes = (
LIST_ELLIPSES
+ LIST_ICONS
+ [
r"(?<=[{}])\.(?=[{}])".format(ALPHA_LOWER, ALPHA_UPPER),
r"(?<=[{a}])[,!?](?=[{a}])".format(a=ALPHA),
r'(?<=[{a}"])[:<>=](?=[{a}])'.format(a=ALPHA),
r"(?<=[{a}]),(?=[{a}])".format(a=ALPHA),
r"(?<=[{a}])([{q}\)\]\(\[])(?=[{a}])".format(a=ALPHA, q=_quotes),
r"(?<=[{a}])--(?=[{a}])".format(a=ALPHA),
]
)
_list_units = [u for u in LIST_UNITS if u != "%"]
_units = merge_chars(" ".join(_list_units))
_suffixes = (
["''"]
+ LIST_PUNCT
+ LIST_ELLIPSES
+ LIST_QUOTES
+ LIST_ICONS
+ ["—", "–"]
+ [
r"(?<=[0-9])\+",
r"(?<=°[FfCcKk])\.",
r"(?<=[0-9])(?:{c})".format(c=CURRENCY),
r"(?<=[0-9])(?:{u})".format(u=_units),
r"(?<=[0-9{al}{e}{p}(?:{q})])\.".format(
al=ALPHA_LOWER, e=r"%²\-\+", q=CONCAT_QUOTES, p=PUNCT
),
r"(?<=[{au}][{au}])\.".format(au=ALPHA_UPPER),
]
)
TOKENIZER_PREFIXES = _prefixes
TOKENIZER_INFIXES = _infixes
TOKENIZER_SUFFIXES = _suffixes
| 1,532 | 22.584615 | 74 | py |
spaCy | spaCy-master/spacy/lang/nl/stop_words.py | # The original stop words list (added in f46ffe3) was taken from
# http://www.damienvanholten.com/downloads/dutch-stop-words.txt
# and consisted of about 100 tokens.
# In order to achieve parity with some of the better-supported
# languages, e.g., English, French, and German, this original list has been
# extended with 200 additional tokens. The main source of inspiration was
# https://raw.githubusercontent.com/stopwords-iso/stopwords-nl/master/stopwords-nl.txt.
# However, quite a bit of manual editing has taken place as well.
# Tokens whose status as a stop word is not entirely clear were admitted or
# rejected by deferring to their counterparts in the stop words lists for English
# and French. Similarly, those lists were used to identify and fill in gaps so
# that -- in principle -- each token contained in the English stop words list
# should have a Dutch counterpart here.
STOP_WORDS = set(
"""
aan af al alle alles allebei alleen allen als altijd ander anders andere anderen aangaande aangezien achter achterna
afgelopen aldus alhoewel anderzijds
ben bij bijna bijvoorbeeld behalve beide beiden beneden bent bepaald beter betere betreffende binnen binnenin boven
bovenal bovendien bovenstaand buiten
daar dan dat de der den deze die dit doch doen door dus daarheen daarin daarna daarnet daarom daarop des dezelfde dezen
dien dikwijls doet doorgaand doorgaans
een eens en er echter enige eerder eerst eerste eersten effe eigen elk elke enkel enkele enz erdoor etc even eveneens
evenwel
ff
ge geen geweest gauw gedurende gegeven gehad geheel gekund geleden gelijk gemogen geven geweest gewoon gewoonweg
geworden gij
haar had heb hebben heeft hem het hier hij hoe hun hadden hare hebt hele hen hierbeneden hierboven hierin hoewel hun
iemand iets ik in is idd ieder ikke ikzelf indien inmiddels inz inzake
ja je jou jouw jullie jezelf jij jijzelf jouwe juist
kan kon kunnen klaar konden krachtens kunnen kunt
lang later liet liever
maar me meer men met mij mijn moet mag mede meer meesten mezelf mijzelf min minder misschien mocht mochten moest moesten
moet moeten mogelijk mogen
na naar niet niets nog nu nabij nadat net nogal nooit nr nu
of om omdat ons ook op over omhoog omlaag omstreeks omtrent omver onder ondertussen ongeveer onszelf onze ooit opdat
opnieuw opzij over overigens
pas pp precies prof publ
reeds rond rondom
sedert sinds sindsdien slechts sommige spoedig steeds
‘t 't te tegen toch toen tot tamelijk ten tenzij ter terwijl thans tijdens toe totdat tussen
u uit uw uitgezonderd uwe uwen
van veel voor vaak vanaf vandaan vanuit vanwege veeleer verder verre vervolgens vgl volgens vooraf vooral vooralsnog
voorbij voordat voordien voorheen voorop voort voorts vooruit vrij vroeg
want waren was wat we wel werd wezen wie wij wil worden waar waarom wanneer want weer weg wegens weinig weinige weldra
welk welke welken werd werden wiens wier wilde wordt
zal ze zei zelf zich zij zijn zo zonder zou zeer zeker zekere zelfde zelfs zichzelf zijnde zijne zo’n zoals zodra zouden
zoveel zowat zulk zulke zulks zullen zult
""".split()
)
| 3,086 | 41.287671 | 120 | py |
spaCy | spaCy-master/spacy/lang/nl/syntax_iterators.py | from typing import Iterator, Tuple, Union
from ...errors import Errors
from ...symbols import NOUN, PRON
from ...tokens import Doc, Span
def noun_chunks(doclike: Union[Doc, Span]) -> Iterator[Tuple[int, int, int]]:
"""
Detect base noun phrases from a dependency parse. Works on Doc and Span.
The definition is inspired by https://www.nltk.org/book/ch07.html
Consider : [Noun + determinant / adjective] and also [Pronoun]
"""
# fmt: off
# labels = ["nsubj", "nsubj:pass", "obj", "iobj", "ROOT", "appos", "nmod", "nmod:poss"]
# fmt: on
doc = doclike.doc # Ensure works on both Doc and Span.
# Check for dependencies: POS, DEP
if not doc.has_annotation("POS"):
raise ValueError(Errors.E1019)
if not doc.has_annotation("DEP"):
raise ValueError(Errors.E029)
# See UD tags: https://universaldependencies.org/u/dep/index.html
# amod = adjectival modifier
# nmod:poss = possessive nominal modifier
# nummod = numeric modifier
# det = determiner
# det:poss = possessive determiner
noun_deps = [
doc.vocab.strings[label] for label in ["amod", "nmod:poss", "det", "det:poss"]
]
# nsubj = nominal subject
# nsubj:pass = passive nominal subject
pronoun_deps = [doc.vocab.strings[label] for label in ["nsubj", "nsubj:pass"]]
# Label NP for the Span to identify it as Noun-Phrase
span_label = doc.vocab.strings.add("NP")
# Only NOUNS and PRONOUNS matter
end_span = -1
for i, word in enumerate(filter(lambda x: x.pos in [PRON, NOUN], doclike)):
# For NOUNS
# Pick children from syntactic parse (only those with certain dependencies)
if word.pos == NOUN:
# Some debugging. It happens that VERBS are POS-TAGGED as NOUNS
# We check if the word has a "nsubj", if it's the case, we eliminate it
nsubjs = filter(
lambda x: x.dep == doc.vocab.strings["nsubj"], word.children
)
next_word = next(nsubjs, None)
if next_word is not None:
# We found some nsubj, so we skip this word. Otherwise, consider it a normal NOUN
continue
children = filter(lambda x: x.dep in noun_deps, word.children)
children_i = [c.i for c in children] + [word.i]
start_span = min(children_i)
if start_span >= end_span:
end_span = max(children_i) + 1
yield start_span, end_span, span_label
# PRONOUNS only if it is the subject of a verb
elif word.pos == PRON:
if word.dep in pronoun_deps:
start_span = word.i
if start_span >= end_span:
end_span = word.i + 1
yield start_span, end_span, span_label
SYNTAX_ITERATORS = {"noun_chunks": noun_chunks}
| 2,868 | 36.75 | 97 | py |
spaCy | spaCy-master/spacy/lang/nl/tokenizer_exceptions.py | from ...symbols import ORTH
from ...util import update_exc
from ..tokenizer_exceptions import BASE_EXCEPTIONS
# Extensive list of both common and uncommon dutch abbreviations copied from
# github.com/diasks2/pragmatic_segmenter, a Ruby library for rule-based
# sentence boundary detection (MIT, Copyright 2015 Kevin S. Dias).
# Source file: https://github.com/diasks2/pragmatic_segmenter/blob/master/lib/pragmatic_segmenter/languages/dutch.rb
# (Last commit: 4d1477b)
# Main purpose of such an extensive list: considerably improved sentence
# segmentation.
# Note: This list has been copied over largely as-is. Some of the abbreviations
# are extremely domain-specific. Tokenizer performance may benefit from some
# slight pruning, although no performance regression has been observed so far.
abbrevs = [
"a.2d.",
"a.a.",
"a.a.j.b.",
"a.f.t.",
"a.g.j.b.",
"a.h.v.",
"a.h.w.",
"a.hosp.",
"a.i.",
"a.j.b.",
"a.j.t.",
"a.m.",
"a.m.r.",
"a.p.m.",
"a.p.r.",
"a.p.t.",
"a.s.",
"a.t.d.f.",
"a.u.b.",
"a.v.a.",
"a.w.",
"aanbev.",
"aanbev.comm.",
"aant.",
"aanv.st.",
"aanw.",
"vnw.",
"aanw.vnw.",
"abd.",
"abm.",
"abs.",
"acc.act.",
"acc.bedr.m.",
"acc.bedr.t.",
"achterv.",
"act.dr.",
"act.dr.fam.",
"act.fisc.",
"act.soc.",
"adm.akk.",
"adm.besl.",
"adm.lex.",
"adm.onderr.",
"adm.ov.",
"adv.",
"adv.",
"gen.",
"adv.bl.",
"afd.",
"afl.",
"aggl.verord.",
"agr.",
"al.",
"alg.",
"alg.richts.",
"amén.",
"ann.dr.",
"ann.dr.lg.",
"ann.dr.sc.pol.",
"ann.ét.eur.",
"ann.fac.dr.lg.",
"ann.jur.créd.",
"ann.jur.créd.règl.coll.",
"ann.not.",
"ann.parl.",
"ann.prat.comm.",
"app.",
"arb.",
"aud.",
"arbbl.",
"arbh.",
"arbit.besl.",
"arbrb.",
"arr.",
"arr.cass.",
"arr.r.v.st.",
"arr.verbr.",
"arrondrb.",
"art.",
"artw.",
"aud.",
"b.",
"b.",
"b.&w.",
"b.a.",
"b.a.s.",
"b.b.o.",
"b.best.dep.",
"b.br.ex.",
"b.coll.fr.gem.comm.",
"b.coll.vl.gem.comm.",
"b.d.cult.r.",
"b.d.gem.ex.",
"b.d.gem.reg.",
"b.dep.",
"b.e.b.",
"b.f.r.",
"b.fr.gem.ex.",
"b.fr.gem.reg.",
"b.i.h.",
"b.inl.j.d.",
"b.inl.s.reg.",
"b.j.",
"b.l.",
"b.o.z.",
"b.prov.r.",
"b.r.h.",
"b.s.",
"b.sr.",
"b.stb.",
"b.t.i.r.",
"b.t.s.z.",
"b.t.w.rev.",
"b.v.",
"b.ver.coll.gem.gem.comm.",
"b.verg.r.b.",
"b.versl.",
"b.vl.ex.",
"b.voorl.reg.",
"b.w.",
"b.w.gew.ex.",
"b.z.d.g.",
"b.z.v.",
"bab.",
"bedr.org.",
"begins.",
"beheersov.",
"bekendm.comm.",
"bel.",
"bel.besch.",
"bel.w.p.",
"beleidsov.",
"belg.",
"grondw.",
"ber.",
"ber.w.",
"besch.",
"besl.",
"beslagr.",
"bestuurswet.",
"bet.",
"betr.",
"betr.",
"vnw.",
"bevest.",
"bew.",
"bijbl.",
"ind.",
"eig.",
"bijbl.n.bijdr.",
"bijl.",
"bijv.",
"bijw.",
"bijz.decr.",
"bin.b.",
"bkh.",
"bl.",
"blz.",
"bm.",
"bn.",
"rh.",
"bnw.",
"bouwr.",
"br.parl.",
"bs.",
"bull.",
"bull.adm.pénit.",
"bull.ass.",
"bull.b.m.m.",
"bull.bel.",
"bull.best.strafinr.",
"bull.bmm.",
"bull.c.b.n.",
"bull.c.n.c.",
"bull.cbn.",
"bull.centr.arb.",
"bull.cnc.",
"bull.contr.",
"bull.doc.min.fin.",
"bull.f.e.b.",
"bull.feb.",
"bull.fisc.fin.r.",
"bull.i.u.m.",
"bull.inf.ass.secr.soc.",
"bull.inf.i.e.c.",
"bull.inf.i.n.a.m.i.",
"bull.inf.i.r.e.",
"bull.inf.iec.",
"bull.inf.inami.",
"bull.inf.ire.",
"bull.inst.arb.",
"bull.ium.",
"bull.jur.imm.",
"bull.lég.b.",
"bull.off.",
"bull.trim.b.dr.comp.",
"bull.us.",
"bull.v.b.o.",
"bull.vbo.",
"bv.",
"bw.",
"bxh.",
"byz.",
"c.",
"c.a.",
"c.a.-a.",
"c.a.b.g.",
"c.c.",
"c.c.i.",
"c.c.s.",
"c.conc.jur.",
"c.d.e.",
"c.d.p.k.",
"c.e.",
"c.ex.",
"c.f.",
"c.h.a.",
"c.i.f.",
"c.i.f.i.c.",
"c.j.",
"c.l.",
"c.n.",
"c.o.d.",
"c.p.",
"c.pr.civ.",
"c.q.",
"c.r.",
"c.r.a.",
"c.s.",
"c.s.a.",
"c.s.q.n.",
"c.v.",
"c.v.a.",
"c.v.o.",
"ca.",
"cadeaust.",
"cah.const.",
"cah.dr.europ.",
"cah.dr.immo.",
"cah.dr.jud.",
"cal.",
"2d.",
"cal.",
"3e.",
"cal.",
"rprt.",
"cap.",
"carg.",
"cass.",
"cass.",
"verw.",
"cert.",
"cf.",
"ch.",
"chron.",
"chron.d.s.",
"chron.dr.not.",
"cie.",
"cie.",
"verz.schr.",
"cir.",
"circ.",
"circ.z.",
"cit.",
"cit.loc.",
"civ.",
"cl.et.b.",
"cmt.",
"co.",
"cognoss.v.",
"coll.",
"v.",
"b.",
"colp.w.",
"com.",
"com.",
"cas.",
"com.v.min.",
"comm.",
"comm.",
"v.",
"comm.bijz.ov.",
"comm.erf.",
"comm.fin.",
"comm.ger.",
"comm.handel.",
"comm.pers.",
"comm.pub.",
"comm.straf.",
"comm.v.",
"comm.venn.",
"comm.verz.",
"comm.voor.",
"comp.",
"compt.w.",
"computerr.",
"con.m.",
"concl.",
"concr.",
"conf.",
"confl.w.",
"confl.w.huwbetr.",
"cons.",
"conv.",
"coöp.",
"ver.",
"corr.",
"corr.bl.",
"cour.fisc.",
"cour.immo.",
"cridon.",
"crim.",
"cur.",
"cur.",
"crt.",
"curs.",
"d.",
"d.-g.",
"d.a.",
"d.a.v.",
"d.b.f.",
"d.c.",
"d.c.c.r.",
"d.d.",
"d.d.p.",
"d.e.t.",
"d.gem.r.",
"d.h.",
"d.h.z.",
"d.i.",
"d.i.t.",
"d.j.",
"d.l.r.",
"d.m.",
"d.m.v.",
"d.o.v.",
"d.parl.",
"d.w.z.",
"dact.",
"dat.",
"dbesch.",
"dbesl.",
"dec.",
"decr.",
"decr.d.",
"decr.fr.",
"decr.vl.",
"decr.w.",
"def.",
"dep.opv.",
"dep.rtl.",
"derg.",
"desp.",
"det.mag.",
"deurw.regl.",
"dez.",
"dgl.",
"dhr.",
"disp.",
"diss.",
"div.",
"div.act.",
"div.bel.",
"dl.",
"dln.",
"dnotz.",
"doc.",
"hist.",
"doc.jur.b.",
"doc.min.fin.",
"doc.parl.",
"doctr.",
"dpl.",
"dpl.besl.",
"dr.",
"dr.banc.fin.",
"dr.circ.",
"dr.inform.",
"dr.mr.",
"dr.pén.entr.",
"dr.q.m.",
"drs.",
"ds.",
"dtp.",
"dwz.",
"dyn.",
"e.",
"e.a.",
"e.b.",
"tek.mod.",
"e.c.",
"e.c.a.",
"e.d.",
"e.e.",
"e.e.a.",
"e.e.g.",
"e.g.",
"e.g.a.",
"e.h.a.",
"e.i.",
"e.j.",
"e.m.a.",
"e.n.a.c.",
"e.o.",
"e.p.c.",
"e.r.c.",
"e.r.f.",
"e.r.h.",
"e.r.o.",
"e.r.p.",
"e.r.v.",
"e.s.r.a.",
"e.s.t.",
"e.v.",
"e.v.a.",
"e.w.",
"e&o.e.",
"ec.pol.r.",
"econ.",
"ed.",
"ed(s).",
"eff.",
"eig.",
"eig.mag.",
"eil.",
"elektr.",
"enmb.",
"enz.",
"err.",
"etc.",
"etq.",
"eur.",
"parl.",
"eur.t.s.",
"ev.",
"evt.",
"ex.",
"ex.crim.",
"exec.",
"f.",
"f.a.o.",
"f.a.q.",
"f.a.s.",
"f.i.b.",
"f.j.f.",
"f.o.b.",
"f.o.r.",
"f.o.s.",
"f.o.t.",
"f.r.",
"f.supp.",
"f.suppl.",
"fa.",
"facs.",
"fasc.",
"fg.",
"fid.ber.",
"fig.",
"fin.verh.w.",
"fisc.",
"fisc.",
"tijdschr.",
"fisc.act.",
"fisc.koer.",
"fl.",
"form.",
"foro.",
"it.",
"fr.",
"fr.cult.r.",
"fr.gem.r.",
"fr.parl.",
"fra.",
"ft.",
"g.",
"g.a.",
"g.a.v.",
"g.a.w.v.",
"g.g.d.",
"g.m.t.",
"g.o.",
"g.omt.e.",
"g.p.",
"g.s.",
"g.v.",
"g.w.w.",
"geb.",
"gebr.",
"gebrs.",
"gec.",
"gec.decr.",
"ged.",
"ged.st.",
"gedipl.",
"gedr.st.",
"geh.",
"gem.",
"gem.",
"gem.",
"gem.gem.comm.",
"gem.st.",
"gem.stem.",
"gem.w.",
"gemeensch.optr.",
"gemeensch.standp.",
"gemeensch.strat.",
"gemeent.",
"gemeent.b.",
"gemeent.regl.",
"gemeent.verord.",
"geol.",
"geopp.",
"gepubl.",
"ger.deurw.",
"ger.w.",
"gerekw.",
"gereq.",
"gesch.",
"get.",
"getr.",
"gev.m.",
"gev.maatr.",
"gew.",
"ghert.",
"gir.eff.verk.",
"gk.",
"gr.",
"gramm.",
"grat.w.",
"grootb.w.",
"grs.",
"grvm.",
"grw.",
"gst.",
"gw.",
"h.a.",
"h.a.v.o.",
"h.b.o.",
"h.e.a.o.",
"h.e.g.a.",
"h.e.geb.",
"h.e.gestr.",
"h.l.",
"h.m.",
"h.o.",
"h.r.",
"h.t.l.",
"h.t.m.",
"h.w.geb.",
"hand.",
"handelsn.w.",
"handelspr.",
"handelsr.w.",
"handelsreg.w.",
"handv.",
"harv.l.rev.",
"hc.",
"herald.",
"hert.",
"herz.",
"hfdst.",
"hfst.",
"hgrw.",
"hhr.",
"hist.",
"hooggel.",
"hoogl.",
"hosp.",
"hpw.",
"hr.",
"hr.",
"ms.",
"hr.ms.",
"hregw.",
"hrg.",
"hst.",
"huis.just.",
"huisv.w.",
"huurbl.",
"hv.vn.",
"hw.",
"hyp.w.",
"i.b.s.",
"i.c.",
"i.c.m.h.",
"i.e.",
"i.f.",
"i.f.p.",
"i.g.v.",
"i.h.",
"i.h.a.",
"i.h.b.",
"i.l.pr.",
"i.o.",
"i.p.o.",
"i.p.r.",
"i.p.v.",
"i.pl.v.",
"i.r.d.i.",
"i.s.m.",
"i.t.t.",
"i.v.",
"i.v.m.",
"i.v.s.",
"i.w.tr.",
"i.z.",
"ib.",
"ibid.",
"icip-ing.cons.",
"iem.",
"inc.",
"indic.soc.",
"indiv.",
"inf.",
"inf.i.d.a.c.",
"inf.idac.",
"inf.r.i.z.i.v.",
"inf.riziv.",
"inf.soc.secr.",
"ing.",
"ing.",
"cons.",
"ing.cons.",
"inst.",
"int.",
"int.",
"rechtsh.",
"strafz.",
"interm.",
"intern.fisc.act.",
"intern.vervoerr.",
"inv.",
"inv.",
"f.",
"inv.w.",
"inv.wet.",
"invord.w.",
"inz.",
"ir.",
"irspr.",
"iwtr.",
"j.",
"j.-cl.",
"j.c.b.",
"j.c.e.",
"j.c.fl.",
"j.c.j.",
"j.c.p.",
"j.d.e.",
"j.d.f.",
"j.d.s.c.",
"j.dr.jeun.",
"j.j.d.",
"j.j.p.",
"j.j.pol.",
"j.l.",
"j.l.m.b.",
"j.l.o.",
"j.p.a.",
"j.r.s.",
"j.t.",
"j.t.d.e.",
"j.t.dr.eur.",
"j.t.o.",
"j.t.t.",
"jaarl.",
"jb.hand.",
"jb.kred.",
"jb.kred.c.s.",
"jb.l.r.b.",
"jb.lrb.",
"jb.markt.",
"jb.mens.",
"jb.t.r.d.",
"jb.trd.",
"jeugdrb.",
"jeugdwerkg.w.",
"jhr.",
"jg.",
"jis.",
"jl.",
"journ.jur.",
"journ.prat.dr.fisc.fin.",
"journ.proc.",
"jr.",
"jrg.",
"jur.",
"jur.comm.fl.",
"jur.dr.soc.b.l.n.",
"jur.f.p.e.",
"jur.fpe.",
"jur.niv.",
"jur.trav.brux.",
"jurambt.",
"jv.cass.",
"jv.h.r.j.",
"jv.hrj.",
"jw.",
"k.",
"k.",
"k.b.",
"k.g.",
"k.k.",
"k.m.b.o.",
"k.o.o.",
"k.v.k.",
"k.v.v.v.",
"kadasterw.",
"kaderb.",
"kador.",
"kbo-nr.",
"kg.",
"kh.",
"kiesw.",
"kind.bes.v.",
"kkr.",
"kon.",
"koopv.",
"kr.",
"krankz.w.",
"ksbel.",
"kt.",
"ktg.",
"ktr.",
"kvdm.",
"kw.r.",
"kymr.",
"kzr.",
"kzw.",
"l.",
"l.b.",
"l.b.o.",
"l.bas.",
"l.c.",
"l.gew.",
"l.j.",
"l.k.",
"l.l.",
"l.o.",
"l.p.",
"l.r.b.",
"l.u.v.i.",
"l.v.r.",
"l.v.w.",
"l.w.",
"l'exp.-compt.b..",
"l’exp.-compt.b.",
"landinr.w.",
"landscrt.",
"lat.",
"law.ed.",
"lett.",
"levensverz.",
"lgrs.",
"lidw.",
"limb.rechtsl.",
"lit.",
"litt.",
"liw.",
"liwet.",
"lk.",
"ll.",
"ll.(l.)l.r.",
"loonw.",
"losbl.",
"ltd.",
"luchtv.",
"luchtv.w.",
"m.",
"m.",
"not.",
"m.a.v.o.",
"m.a.w.",
"m.b.",
"m.b.o.",
"m.b.r.",
"m.b.t.",
"m.d.g.o.",
"m.e.a.o.",
"m.e.r.",
"m.h.",
"m.h.d.",
"m.i.v.",
"m.j.t.",
"m.k.",
"m.m.",
"m.m.a.",
"m.m.h.h.",
"m.m.v.",
"m.n.",
"m.not.fisc.",
"m.nt.",
"m.o.",
"m.r.",
"m.s.a.",
"m.u.p.",
"m.v.a.",
"m.v.h.n.",
"m.v.t.",
"m.z.",
"maatr.teboekgest.luchtv.",
"maced.",
"mand.",
"max.",
"mbl.not.",
"me.",
"med.",
"med.",
"v.b.o.",
"med.b.u.f.r.",
"med.bufr.",
"med.vbo.",
"meerv.",
"meetbr.w.",
"mej.",
"mevr.",
"mém.adm.",
"mgr.",
"mgrs.",
"mhd.",
"mi.verantw.",
"mil.",
"mil.bed.",
"mil.ger.",
"min.",
"min.",
"aanbev.",
"min.",
"circ.",
"min.",
"fin.",
"min.j.omz.",
"min.just.circ.",
"mitt.",
"mln.",
"mnd.",
"mod.",
"mon.",
"mouv.comm.",
"mr.",
"ms.",
"muz.",
"mv.",
"n.",
"chr.",
"n.a.",
"n.a.g.",
"n.a.v.",
"n.b.",
"n.c.",
"n.chr.",
"n.d.",
"n.d.r.",
"n.e.a.",
"n.g.",
"n.h.b.c.",
"n.j.",
"n.j.b.",
"n.j.w.",
"n.l.",
"n.m.",
"n.m.m.",
"n.n.",
"n.n.b.",
"n.n.g.",
"n.n.k.",
"n.o.m.",
"n.o.t.k.",
"n.rapp.",
"n.tijd.pol.",
"n.v.",
"n.v.d.r.",
"n.v.d.v.",
"n.v.o.b.",
"n.v.t.",
"nat.besch.w.",
"nat.omb.",
"nat.pers.",
"ned.",
"ned.cult.r.",
"neg.verkl.",
"nhd.",
"wisk.",
"njcm-bull.",
"nl.",
"nnd.",
"no.",
"not.fisc.m.",
"not.w.",
"not.wet.",
"nr.",
"nrs.",
"nste.",
"nt.",
"numism.",
"o.",
"o.a.",
"o.b.",
"o.c.",
"o.g.",
"o.g.v.",
"o.i.",
"o.i.d.",
"o.m.",
"o.o.",
"o.o.d.",
"o.o.v.",
"o.p.",
"o.r.",
"o.regl.",
"o.s.",
"o.t.s.",
"o.t.t.",
"o.t.t.t.",
"o.t.t.z.",
"o.tk.t.",
"o.v.t.",
"o.v.t.t.",
"o.v.tk.t.",
"o.v.v.",
"ob.",
"obsv.",
"octr.",
"octr.gem.regl.",
"octr.regl.",
"oe.",
"off.pol.",
"ofra.",
"ohd.",
"omb.",
"omnil.",
"omz.",
"on.ww.",
"onderr.",
"onfrank.",
"onteig.w.",
"ontw.",
"b.w.",
"onuitg.",
"onz.",
"oorl.w.",
"op.cit.",
"opin.pa.",
"opm.",
"or.",
"ord.br.",
"ord.gem.",
"ors.",
"orth.",
"os.",
"osm.",
"ov.",
"ov.w.i.",
"ov.w.ii.",
"ov.ww.",
"overg.w.",
"overw.",
"ovkst.",
"oz.",
"p.",
"p.a.",
"p.a.o.",
"p.b.o.",
"p.e.",
"p.g.",
"p.j.",
"p.m.",
"p.m.a.",
"p.o.",
"p.o.j.t.",
"p.p.",
"p.v.",
"p.v.s.",
"pachtw.",
"pag.",
"pan.",
"pand.b.",
"pand.pér.",
"parl.gesch.",
"parl.gesch.",
"inv.",
"parl.st.",
"part.arb.",
"pas.",
"pasin.",
"pat.",
"pb.c.",
"pb.l.",
"pct.",
"pens.",
"pensioenverz.",
"per.ber.i.b.r.",
"per.ber.ibr.",
"pers.",
"st.",
"pft.",
"pk.",
"pktg.",
"plv.",
"po.",
"pol.",
"pol.off.",
"pol.r.",
"pol.w.",
"postbankw.",
"postw.",
"pp.",
"pr.",
"preadv.",
"pres.",
"prf.",
"prft.",
"prg.",
"prijz.w.",
"proc.",
"procesregl.",
"prof.",
"prot.",
"prov.",
"prov.b.",
"prov.instr.h.m.g.",
"prov.regl.",
"prov.verord.",
"prov.w.",
"publ.",
"pun.",
"pw.",
"q.b.d.",
"q.e.d.",
"q.q.",
"q.r.",
"r.",
"r.a.b.g.",
"r.a.c.e.",
"r.a.j.b.",
"r.b.d.c.",
"r.b.d.i.",
"r.b.s.s.",
"r.c.",
"r.c.b.",
"r.c.d.c.",
"r.c.j.b.",
"r.c.s.j.",
"r.cass.",
"r.d.c.",
"r.d.i.",
"r.d.i.d.c.",
"r.d.j.b.",
"r.d.j.p.",
"r.d.p.c.",
"r.d.s.",
"r.d.t.i.",
"r.e.",
"r.f.s.v.p.",
"r.g.a.r.",
"r.g.c.f.",
"r.g.d.c.",
"r.g.f.",
"r.g.z.",
"r.h.a.",
"r.i.c.",
"r.i.d.a.",
"r.i.e.j.",
"r.i.n.",
"r.i.s.a.",
"r.j.d.a.",
"r.j.i.",
"r.k.",
"r.l.",
"r.l.g.b.",
"r.med.",
"r.med.rechtspr.",
"r.n.b.",
"r.o.",
"r.ov.",
"r.p.",
"r.p.d.b.",
"r.p.o.t.",
"r.p.r.j.",
"r.p.s.",
"r.r.d.",
"r.r.s.",
"r.s.",
"r.s.v.p.",
"r.stvb.",
"r.t.d.f.",
"r.t.d.h.",
"r.t.l.",
"r.trim.dr.eur.",
"r.v.a.",
"r.verkb.",
"r.w.",
"r.w.d.",
"rap.ann.c.a.",
"rap.ann.c.c.",
"rap.ann.c.e.",
"rap.ann.c.s.j.",
"rap.ann.ca.",
"rap.ann.cass.",
"rap.ann.cc.",
"rap.ann.ce.",
"rap.ann.csj.",
"rapp.",
"rb.",
"rb.kh.",
"rdn.",
"rdnr.",
"re.pers.",
"rec.",
"rec.c.i.j.",
"rec.c.j.c.e.",
"rec.cij.",
"rec.cjce.",
"rec.gén.enr.not.",
"rechtsk.t.",
"rechtspl.zeem.",
"rechtspr.arb.br.",
"rechtspr.b.f.e.",
"rechtspr.bfe.",
"rechtspr.soc.r.b.l.n.",
"recl.reg.",
"rect.",
"red.",
"reg.",
"reg.huiz.bew.",
"reg.w.",
"registr.w.",
"regl.",
"regl.",
"r.v.k.",
"regl.besl.",
"regl.onderr.",
"regl.r.t.",
"rep.",
"rép.fisc.",
"rép.not.",
"rep.r.j.",
"rep.rj.",
"req.",
"res.",
"resp.",
"rev.",
"rev.",
"comp.",
"rev.",
"trim.",
"civ.",
"rev.",
"trim.",
"comm.",
"rev.acc.trav.",
"rev.adm.",
"rev.b.compt.",
"rev.b.dr.const.",
"rev.b.dr.intern.",
"rev.b.séc.soc.",
"rev.banc.fin.",
"rev.comm.",
"rev.cons.prud.",
"rev.dr.b.",
"rev.dr.commun.",
"rev.dr.étr.",
"rev.dr.fam.",
"rev.dr.intern.comp.",
"rev.dr.mil.",
"rev.dr.min.",
"rev.dr.pén.",
"rev.dr.pén.mil.",
"rev.dr.rur.",
"rev.dr.u.l.b.",
"rev.dr.ulb.",
"rev.exp.",
"rev.faill.",
"rev.fisc.",
"rev.gd.",
"rev.hist.dr.",
"rev.i.p.c.",
"rev.ipc.",
"rev.not.b.",
"rev.prat.dr.comm.",
"rev.prat.not.b.",
"rev.prat.soc.",
"rev.rec.",
"rev.rw.",
"rev.trav.",
"rev.trim.d.h.",
"rev.trim.dr.fam.",
"rev.urb.",
"richtl.",
"riv.dir.int.",
"riv.dir.int.priv.proc.",
"rk.",
"rln.",
"roln.",
"rom.",
"rondz.",
"rov.",
"rtl.",
"rubr.",
"ruilv.wet.",
"rv.verdr.",
"rvkb.",
"s.",
"s.",
"s.a.",
"s.b.n.",
"s.ct.",
"s.d.",
"s.e.c.",
"s.e.et.o.",
"s.e.w.",
"s.exec.rept.",
"s.hrg.",
"s.j.b.",
"s.l.",
"s.l.e.a.",
"s.l.n.d.",
"s.p.a.",
"s.s.",
"s.t.",
"s.t.b.",
"s.v.",
"s.v.p.",
"samenw.",
"sc.",
"sch.",
"scheidsr.uitspr.",
"schepel.besl.",
"sec.",
"secr.comm.",
"secr.gen.",
"sect.soc.",
"sess.",
"cas.",
"sir.",
"soc.",
"best.",
"soc.",
"handv.",
"soc.",
"verz.",
"soc.act.",
"soc.best.",
"soc.kron.",
"soc.r.",
"soc.sw.",
"soc.weg.",
"sofi-nr.",
"somm.",
"somm.ann.",
"sp.c.c.",
"sr.",
"ss.",
"st.doc.b.c.n.a.r.",
"st.doc.bcnar.",
"st.vw.",
"stagever.",
"stas.",
"stat.",
"stb.",
"stbl.",
"stcrt.",
"stud.dipl.",
"su.",
"subs.",
"subst.",
"succ.w.",
"suppl.",
"sv.",
"sw.",
"t.",
"t.a.",
"t.a.a.",
"t.a.n.",
"t.a.p.",
"t.a.s.n.",
"t.a.v.",
"t.a.v.w.",
"t.aann.",
"t.acc.",
"t.agr.r.",
"t.app.",
"t.b.b.r.",
"t.b.h.",
"t.b.m.",
"t.b.o.",
"t.b.p.",
"t.b.r.",
"t.b.s.",
"t.b.v.",
"t.bankw.",
"t.belg.not.",
"t.desk.",
"t.e.m.",
"t.e.p.",
"t.f.r.",
"t.fam.",
"t.fin.r.",
"t.g.r.",
"t.g.t.",
"t.g.v.",
"t.gem.",
"t.gez.",
"t.huur.",
"t.i.n.",
"t.j.k.",
"t.l.l.",
"t.l.v.",
"t.m.",
"t.m.r.",
"t.m.w.",
"t.mil.r.",
"t.mil.strafr.",
"t.not.",
"t.o.",
"t.o.r.b.",
"t.o.v.",
"t.ontv.",
"t.p.r.",
"t.pol.",
"t.r.",
"t.r.g.",
"t.r.o.s.",
"t.r.v.",
"t.s.r.",
"t.strafr.",
"t.t.",
"t.u.",
"t.v.c.",
"t.v.g.",
"t.v.m.r.",
"t.v.o.",
"t.v.v.",
"t.v.v.d.b.",
"t.v.w.",
"t.verz.",
"t.vred.",
"t.vreemd.",
"t.w.",
"t.w.k.",
"t.w.v.",
"t.w.v.r.",
"t.wrr.",
"t.z.",
"t.z.t.",
"t.z.v.",
"taalk.",
"tar.burg.z.",
"td.",
"techn.",
"telecomm.",
"th.",
"toel.",
"toel.st.v.w.",
"toep.",
"toep.regl.",
"tom.",
"top.",
"trans.b.",
"transp.r.",
"trb.",
"trib.",
"trib.civ.",
"trib.gr.inst.",
"ts.",
"ts.",
"best.",
"ts.",
"verv.",
"turnh.rechtsl.",
"tvpol.",
"tvpr.",
"tvrechtsgesch.",
"tw.",
"u.",
"u.a.",
"u.a.r.",
"u.a.v.",
"u.c.",
"u.c.c.",
"u.g.",
"u.p.",
"u.s.",
"u.s.d.c.",
"uitdr.",
"uitl.w.",
"uitv.besch.div.b.",
"uitv.besl.",
"uitv.besl.",
"succ.w.",
"uitv.besl.bel.rv.",
"uitv.besl.l.b.",
"uitv.reg.",
"inv.w.",
"uitv.reg.bel.d.",
"uitv.reg.afd.verm.",
"uitv.reg.lb.",
"uitv.reg.succ.w.",
"univ.",
"univ.verkl.",
"v.",
"v.",
"chr.",
"v.a.",
"v.a.v.",
"v.c.",
"v.C.",
"v.Chr.",
"v.chr.",
"v.d.",
"v.h.",
"v.huw.verm.",
"v.i.",
"v.i.o.",
"v.j.",
"v.k.a.",
"v.m.",
"v.o.f.",
"v.o.n.",
"v.onderh.verpl.",
"v.p.",
"v.r.",
"v.s.o.",
"v.t.t.",
"v.t.t.t.",
"v.tk.t.",
"v.toep.r.vert.",
"v.v.b.",
"v.v.g.",
"v.v.t.",
"v.v.t.t.",
"v.v.tk.t.",
"v.w.b.",
"v.z.m.",
"vb.",
"vb.bo.",
"vbb.",
"vc.",
"vd.",
"veldw.",
"ver.k.",
"ver.verg.gem.",
"gem.comm.",
"verbr.",
"verd.",
"verdr.",
"verdr.v.",
"tek.mod.",
"verenw.",
"verg.",
"verg.fr.gem.",
"comm.",
"verkl.",
"verkl.herz.gw.",
"verl.",
"deelw.",
"vern.",
"verord.",
"vers.r.",
"versch.",
"versl.c.s.w.",
"versl.csw.",
"vert.",
"verw.",
"verz.",
"verz.w.",
"verz.wett.besl.",
"verz.wett.decr.besl.",
"vgl.",
"vid.",
"viss.w.",
"vl.parl.",
"vl.r.",
"vl.t.gez.",
"vl.w.reg.",
"vl.w.succ.",
"vlg.",
"vn.",
"vnl.",
"vnw.",
"vo.",
"vo.bl.",
"voegw.",
"vol.",
"volg.",
"volt.",
"deelw.",
"voorl.",
"voorz.",
"vord.w.",
"vorst.d.",
"vr.",
"vred.",
"vrg.",
"vnw.",
"vrijgrs.",
"vs.",
"vt.",
"vw.",
"vz.",
"vzngr.",
"vzr.",
"w.",
"w.a.",
"w.b.r.",
"w.c.h.",
"w.conf.huw.",
"w.conf.huwelijksb.",
"w.consum.kr.",
"w.f.r.",
"w.g.",
"w.gew.r.",
"w.ident.pl.",
"w.just.doc.",
"w.kh.",
"w.l.r.",
"w.l.v.",
"w.mil.straf.spr.",
"w.n.",
"w.not.ambt.",
"w.o.",
"w.o.d.huurcomm.",
"w.o.d.k.",
"w.openb.manif.",
"w.parl.",
"w.r.",
"w.reg.",
"w.succ.",
"w.u.b.",
"w.uitv.pl.verord.",
"w.v.",
"w.v.k.",
"w.v.m.s.",
"w.v.r.",
"w.v.w.",
"w.venn.",
"wac.",
"wd.",
"wetb.",
"n.v.h.",
"wgb.",
"winkelt.w.",
"wisk.",
"wka-verkl.",
"wnd.",
"won.w.",
"woningw.",
"woonr.w.",
"wrr.",
"wrr.ber.",
"wrsch.",
"ws.",
"wsch.",
"wsr.",
"wtvb.",
"ww.",
"x.d.",
"z.a.",
"z.g.",
"z.i.",
"z.j.",
"z.o.z.",
"z.p.",
"z.s.m.",
"zg.",
"zgn.",
"zn.",
"znw.",
"zr.",
"zr.",
"ms.",
"zr.ms.",
"'m",
"'n",
"'ns",
"'s",
"'t",
]
_exc = {}
for orth in abbrevs:
_exc[orth] = [{ORTH: orth}]
uppered = orth.upper()
capsed = orth.capitalize()
for i in [uppered, capsed]:
_exc[i] = [{ORTH: i}]
TOKENIZER_EXCEPTIONS = update_exc(BASE_EXCEPTIONS, _exc)
| 24,278 | 14.098881 | 116 | py |
spaCy | spaCy-master/spacy/lang/pl/__init__.py | from typing import Callable, Optional
from thinc.api import Model
from ...language import BaseDefaults, Language
from ..tokenizer_exceptions import BASE_EXCEPTIONS
from .lemmatizer import PolishLemmatizer
from .lex_attrs import LEX_ATTRS
from .punctuation import TOKENIZER_INFIXES, TOKENIZER_PREFIXES, TOKENIZER_SUFFIXES
from .stop_words import STOP_WORDS
TOKENIZER_EXCEPTIONS = {
exc: val for exc, val in BASE_EXCEPTIONS.items() if not exc.endswith(".")
}
class PolishDefaults(BaseDefaults):
tokenizer_exceptions = TOKENIZER_EXCEPTIONS
prefixes = TOKENIZER_PREFIXES
infixes = TOKENIZER_INFIXES
suffixes = TOKENIZER_SUFFIXES
lex_attr_getters = LEX_ATTRS
stop_words = STOP_WORDS
class Polish(Language):
lang = "pl"
Defaults = PolishDefaults
@Polish.factory(
"lemmatizer",
assigns=["token.lemma"],
default_config={
"model": None,
"mode": "pos_lookup",
"overwrite": False,
"scorer": {"@scorers": "spacy.lemmatizer_scorer.v1"},
},
default_score_weights={"lemma_acc": 1.0},
)
def make_lemmatizer(
nlp: Language,
model: Optional[Model],
name: str,
mode: str,
overwrite: bool,
scorer: Optional[Callable],
):
return PolishLemmatizer(
nlp.vocab, model, name, mode=mode, overwrite=overwrite, scorer=scorer
)
__all__ = ["Polish"]
| 1,358 | 23.267857 | 82 | py |
spaCy | spaCy-master/spacy/lang/pl/examples.py | """
Example sentences to test spaCy and its language models.
>>> from spacy.lang.pl.examples import sentences
>>> docs = nlp.pipe(sentences)
"""
sentences = [
"Poczuł przyjemną woń mocnej kawy.",
"Istnieje wiele dróg oddziaływania substancji psychoaktywnej na układ nerwowy.",
"Powitał mnie biało-czarny kot, płosząc siedzące na płocie trzy dorodne dudki.",
"Nowy abonament pod lupą Komisji Europejskiej",
"Czy w ciągu ostatnich 48 godzin spożyłeś leki zawierające paracetamol?",
"Kto ma ochotę zapoznać się z innymi niż w książkach przygodami Muminków i ich przyjaciół, temu polecam komiks Tove Jansson „Muminki i morze”.",
]
| 654 | 37.529412 | 148 | py |
spaCy | spaCy-master/spacy/lang/pl/lemmatizer.py | from typing import Dict, List, Tuple
from ...pipeline import Lemmatizer
from ...tokens import Token
class PolishLemmatizer(Lemmatizer):
# This lemmatizer implements lookup lemmatization based on the Morfeusz
# dictionary (morfeusz.sgjp.pl/en) by Institute of Computer Science PAS.
# It utilizes some prefix based improvements for verb and adjectives
# lemmatization, as well as case-sensitive lemmatization for nouns.
@classmethod
def get_lookups_config(cls, mode: str) -> Tuple[List[str], List[str]]:
if mode == "pos_lookup":
# fmt: off
required = [
"lemma_lookup_adj", "lemma_lookup_adp", "lemma_lookup_adv",
"lemma_lookup_aux", "lemma_lookup_noun", "lemma_lookup_num",
"lemma_lookup_part", "lemma_lookup_pron", "lemma_lookup_verb"
]
# fmt: on
return (required, [])
else:
return super().get_lookups_config(mode)
def pos_lookup_lemmatize(self, token: Token) -> List[str]:
string = token.text
univ_pos = token.pos_
morphology = token.morph.to_dict()
lookup_pos = univ_pos.lower()
if univ_pos == "PROPN":
lookup_pos = "noun"
lookup_table = self.lookups.get_table("lemma_lookup_" + lookup_pos, {})
if univ_pos == "NOUN":
return self.lemmatize_noun(string, morphology, lookup_table)
if univ_pos != "PROPN":
string = string.lower()
if univ_pos == "ADJ":
return self.lemmatize_adj(string, morphology, lookup_table)
elif univ_pos == "VERB":
return self.lemmatize_verb(string, morphology, lookup_table)
return [lookup_table.get(string, string.lower())]
def lemmatize_adj(
self, string: str, morphology: dict, lookup_table: Dict[str, str]
) -> List[str]:
# this method utilizes different procedures for adjectives
# with 'nie' and 'naj' prefixes
if string[:3] == "nie":
search_string = string[3:]
if search_string[:3] == "naj":
naj_search_string = search_string[3:]
if naj_search_string in lookup_table:
return [lookup_table[naj_search_string]]
if search_string in lookup_table:
return [lookup_table[search_string]]
if string[:3] == "naj":
naj_search_string = string[3:]
if naj_search_string in lookup_table:
return [lookup_table[naj_search_string]]
return [lookup_table.get(string, string)]
def lemmatize_verb(
self, string: str, morphology: dict, lookup_table: Dict[str, str]
) -> List[str]:
# this method utilizes a different procedure for verbs
# with 'nie' prefix
if string[:3] == "nie":
search_string = string[3:]
if search_string in lookup_table:
return [lookup_table[search_string]]
return [lookup_table.get(string, string)]
def lemmatize_noun(
self, string: str, morphology: dict, lookup_table: Dict[str, str]
) -> List[str]:
# this method is case-sensitive, in order to work
# for incorrectly tagged proper names
if string != string.lower():
if string.lower() in lookup_table:
return [lookup_table[string.lower()]]
elif string in lookup_table:
return [lookup_table[string]]
return [string.lower()]
return [lookup_table.get(string, string)]
| 3,566 | 40 | 79 | py |
spaCy | spaCy-master/spacy/lang/pl/lex_attrs.py | from ...attrs import LIKE_NUM
_num_words = [
"zero",
"jeden",
"dwa",
"trzy",
"cztery",
"pięć",
"sześć",
"siedem",
"osiem",
"dziewięć",
"dziesięć",
"jedenaście",
"dwanaście",
"trzynaście",
"czternaście",
"pietnaście",
"szesnaście",
"siedemnaście",
"osiemnaście",
"dziewiętnaście",
"dwadzieścia",
"trzydzieści",
"czterdzieści",
"pięćdziesiąt",
"szcześćdziesiąt",
"siedemdziesiąt",
"osiemdziesiąt",
"dziewięćdziesiąt",
"sto",
"dwieście",
"trzysta",
"czterysta",
"pięćset",
"sześćset",
"siedemset",
"osiemset",
"dziewięćset",
"tysiąc",
"milion",
"miliard",
"bilion",
"biliard",
"trylion",
"tryliard",
"kwadrylion",
]
def like_num(text):
text = text.replace(",", "").replace(".", "")
if text.isdigit():
return True
if text.count("/") == 1:
num, denom = text.split("/")
if num.isdigit() and denom.isdigit():
return True
if text.lower() in _num_words:
return True
return False
LEX_ATTRS = {LIKE_NUM: like_num}
| 1,152 | 16.469697 | 49 | py |
spaCy | spaCy-master/spacy/lang/pl/punctuation.py | from ..char_classes import (
ALPHA,
ALPHA_LOWER,
ALPHA_UPPER,
CONCAT_QUOTES,
CURRENCY,
LIST_ELLIPSES,
LIST_HYPHENS,
LIST_ICONS,
LIST_PUNCT,
LIST_QUOTES,
PUNCT,
UNITS,
)
from ..punctuation import TOKENIZER_PREFIXES as BASE_TOKENIZER_PREFIXES
_quotes = CONCAT_QUOTES.replace("'", "")
_prefixes = _prefixes = [
r"(długo|krótko|jedno|dwu|trzy|cztero)-"
] + BASE_TOKENIZER_PREFIXES
_infixes = (
LIST_ELLIPSES
+ LIST_ICONS
+ LIST_HYPHENS
+ [
r"(?<=[0-9{al}])\.(?=[0-9{au}])".format(al=ALPHA, au=ALPHA_UPPER),
r"(?<=[{a}])[,!?](?=[{a}])".format(a=ALPHA),
r"(?<=[{a}])[:<>=\/](?=[{a}])".format(a=ALPHA),
r"(?<=[{a}]),(?=[{a}])".format(a=ALPHA),
r"(?<=[{a}])([{q}\)\]\(\[])(?=[\-{a}])".format(a=ALPHA, q=_quotes),
]
)
_suffixes = (
["''", "’’", r"\.", "…"]
+ LIST_PUNCT
+ LIST_QUOTES
+ LIST_ICONS
+ [
r"(?<=[0-9])\+",
r"(?<=°[FfCcKk])\.",
r"(?<=[0-9])(?:{c})".format(c=CURRENCY),
r"(?<=[0-9])(?:{u})".format(u=UNITS),
r"(?<=[0-9{al}{e}{p}(?:{q})])\.".format(
al=ALPHA_LOWER, e=r"%²\-\+", q=CONCAT_QUOTES, p=PUNCT
),
r"(?<=[{au}])\.".format(au=ALPHA_UPPER),
]
)
TOKENIZER_PREFIXES = _prefixes
TOKENIZER_INFIXES = _infixes
TOKENIZER_SUFFIXES = _suffixes
| 1,353 | 22.754386 | 75 | py |
spaCy | spaCy-master/spacy/lang/pl/stop_words.py | # sources: https://github.com/bieli/stopwords/blob/master/polish.stopwords.txt and https://github.com/stopwords-iso/stopwords-pl
STOP_WORDS = set(
"""
a aby ach acz aczkolwiek aj albo ale alez
ależ ani az aż
bardziej bardzo beda bede bedzie bez bo bowiem by
byc byl byla byli bylo byly bym bynajmniej być był
była było były będzie będą będę
cala cali caly cała cały chce choć ci cie
ciebie cię co cokolwiek coraz cos coś czasami czasem czemu
czy czyli często
daleko dla dlaczego dlatego do dobrze dokad dokąd
dosc dość duzo dużo dwa dwaj dwie dwoje dzis
dzisiaj dziś
gdy gdyby gdyz gdyż gdzie gdziekolwiek gdzies gdzieś go
godz
i ich ile im inna inne inny
innych iv ix iz iż
ja jak jakas jakaś jakby jaki jakichs jakichś jakie
jakis jakiz jakiś jakiż jakkolwiek jako jakos jakoś je jeden
jedna jednak jednakze jednakże jedno jednym jedynie jego jej jemu
jesli jest jestem jeszcze jezeli jeśli jeżeli juz już ją
kazdy każdy kiedy kierunku kilka kilku kims kimś kto
ktokolwiek ktora ktore ktorego ktorej ktory ktorych ktorym ktorzy ktos
ktoś która które którego której który których którym którzy ku
lecz lub
ma mają mam mamy mało mi miał miedzy
mimo między mna mnie mną moga mogą moi moim moj
moja moje moze mozliwe mozna może możliwe można mu musi
my mój
na nad nam nami nas nasi nasz nasza nasze
naszego naszych natomiast natychmiast nawet nia nic nich nie niech
niego niej niemu nigdy nim nimi niz nią niż no
o obok od ok około on ona one
oni ono oraz oto owszem
pan pana pani po pod podczas pomimo ponad
poniewaz ponieważ powinien powinna powinni powinno poza prawie przeciez
przecież przed przede przedtem przez przy
raz razie roku rowniez również
sam sama sie się skad skąd soba sobie sobą
sposob sposób swoje są
ta tak taka taki takich takie takze także tam
te tego tej tel temu ten teraz też to toba
tobie tobą totez toteż totobą trzeba tu tutaj twoi twoim
twoj twoja twoje twym twój ty tych tylko tym tys
tzw tę
u
vi vii viii
w wam wami was wasi wasz wasza wasze we
według wie wiele wielu więc więcej wlasnie wszyscy wszystkich wszystkie
wszystkim wszystko wtedy wy właśnie wśród
xi xii xiii xiv xv
z za zaden zadna zadne zadnych zapewne zawsze zaś
ze zeby znow znowu znów zostal został
żaden żadna żadne żadnych że żeby""".split()
)
| 2,268 | 27.721519 | 128 | py |
spaCy | spaCy-master/spacy/lang/pt/__init__.py | from ...language import BaseDefaults, Language
from .lex_attrs import LEX_ATTRS
from .punctuation import TOKENIZER_INFIXES, TOKENIZER_PREFIXES
from .stop_words import STOP_WORDS
from .syntax_iterators import SYNTAX_ITERATORS
from .tokenizer_exceptions import TOKENIZER_EXCEPTIONS
class PortugueseDefaults(BaseDefaults):
tokenizer_exceptions = TOKENIZER_EXCEPTIONS
infixes = TOKENIZER_INFIXES
prefixes = TOKENIZER_PREFIXES
lex_attr_getters = LEX_ATTRS
syntax_iterators = SYNTAX_ITERATORS
stop_words = STOP_WORDS
class Portuguese(Language):
lang = "pt"
Defaults = PortugueseDefaults
__all__ = ["Portuguese"]
| 644 | 25.875 | 62 | py |
spaCy | spaCy-master/spacy/lang/pt/examples.py | """
Example sentences to test spaCy and its language models.
>>> from spacy.lang.pt.examples import sentences
>>> docs = nlp.pipe(sentences)
"""
sentences = [
"Apple está querendo comprar uma startup do Reino Unido por 100 milhões de dólares",
"Carros autônomos empurram a responsabilidade do seguro para os fabricantes."
"São Francisco considera banir os robôs de entrega que andam pelas calçadas",
"Londres é a maior cidade do Reino Unido",
]
| 464 | 30 | 88 | py |
spaCy | spaCy-master/spacy/lang/pt/lex_attrs.py | from ...attrs import LIKE_NUM
_num_words = [
"zero",
"um",
"dois",
"três",
"tres",
"quatro",
"cinco",
"seis",
"sete",
"oito",
"nove",
"dez",
"onze",
"doze",
"dúzia",
"dúzias",
"duzia",
"duzias",
"treze",
"catorze",
"quinze",
"dezasseis",
"dezassete",
"dezoito",
"dezanove",
"vinte",
"trinta",
"quarenta",
"cinquenta",
"sessenta",
"setenta",
"oitenta",
"noventa",
"cem",
"cento",
"duzentos",
"trezentos",
"quatrocentos",
"quinhentos",
"seicentos",
"setecentos",
"oitocentos",
"novecentos",
"mil",
"milhão",
"milhao",
"milhões",
"milhoes",
"bilhão",
"bilhao",
"bilhões",
"bilhoes",
"trilhão",
"trilhao",
"trilhões",
"trilhoes",
"quadrilhão",
"quadrilhao",
"quadrilhões",
"quadrilhoes",
]
_ordinal_words = [
"primeiro",
"segundo",
"terceiro",
"quarto",
"quinto",
"sexto",
"sétimo",
"oitavo",
"nono",
"décimo",
"vigésimo",
"trigésimo",
"quadragésimo",
"quinquagésimo",
"sexagésimo",
"septuagésimo",
"octogésimo",
"nonagésimo",
"centésimo",
"ducentésimo",
"trecentésimo",
"quadringentésimo",
"quingentésimo",
"sexcentésimo",
"septingentésimo",
"octingentésimo",
"nongentésimo",
"milésimo",
"milionésimo",
"bilionésimo",
]
def like_num(text):
if text.startswith(("+", "-", "±", "~")):
text = text[1:]
text = text.replace(",", "").replace(".", "").replace("º", "").replace("ª", "")
if text.isdigit():
return True
if text.count("/") == 1:
num, denom = text.split("/")
if num.isdigit() and denom.isdigit():
return True
if text.lower() in _num_words:
return True
if text.lower() in _ordinal_words:
return True
return False
LEX_ATTRS = {LIKE_NUM: like_num}
| 2,001 | 15.823529 | 83 | py |
spaCy | spaCy-master/spacy/lang/pt/punctuation.py | from ..punctuation import TOKENIZER_INFIXES as BASE_TOKENIZER_INFIXES
from ..punctuation import TOKENIZER_PREFIXES as BASE_TOKENIZER_PREFIXES
from ..punctuation import TOKENIZER_SUFFIXES as BASE_TOKENIZER_SUFFIXES
_prefixes = [r"\w{1,3}\$"] + BASE_TOKENIZER_PREFIXES
_suffixes = BASE_TOKENIZER_SUFFIXES
_infixes = [r"(\w+-\w+(-\w+)*)"] + BASE_TOKENIZER_INFIXES
TOKENIZER_PREFIXES = _prefixes
TOKENIZER_SUFFIXES = _suffixes
TOKENIZER_INFIXES = _infixes
| 456 | 31.642857 | 71 | py |
spaCy | spaCy-master/spacy/lang/pt/stop_words.py | STOP_WORDS = set(
"""
a à às área acerca ademais adeus agora ainda algo algumas alguns ali além ambas ambos antes
ao aos apenas apoia apoio apontar após aquela aquelas aquele aqueles aqui aquilo
as assim através atrás até aí
baixo bastante bem boa bom breve
cada caminho catorze cedo cento certamente certeza cima cinco coisa com como
comprida comprido conhecida conhecido conselho contra contudo corrente cuja
cujo custa cá
da daquela daquele dar das de debaixo demais dentro depois des desde dessa desse
desta deste deve devem deverá dez dezanove dezasseis dezassete dezoito diante
direita disso diz dizem dizer do dois dos doze duas dá dão
e é és ela elas ele eles em embora enquanto entre então era essa essas esse esses esta
estado estar estará estas estava este estes esteve estive estivemos estiveram
estiveste estivestes estou está estás estão eu eventual exemplo
falta fará favor faz fazeis fazem fazemos fazer fazes fazia faço fez fim final
foi fomos for fora foram forma foste fostes fui
geral grande grandes grupo
inclusive iniciar inicio ir irá isso isto
já
lado lhe ligado local logo longe lugar lá
maior maioria maiorias mais mal mas me meio menor menos meses mesmo meu meus mil
minha minhas momento muito muitos máximo mês
na nada naquela naquele nas nem nenhuma nessa nesse nesta neste no nos nossa
nossas nosso nossos nova novas nove novo novos num numa nunca nuns não nível nós
número números
o obrigada obrigado oitava oitavo oito onde ontem onze ora os ou outra outras outros
para parece parte partir pegar pela pelas pelo pelos perto pode podem poder poderá
podia pois ponto pontos por porquanto porque porquê portanto porém posição
possivelmente posso possível pouca pouco povo primeira primeiro próprio próxima
próximo puderam pôde põe põem
quais qual qualquer quando quanto quarta quarto quatro que quem quer querem quero
questão quieta quieto quinta quinto quinze quê
relação
sabe saber se segunda segundo sei seis sem sempre ser seria sete seu seus sexta
sexto sim sistema sob sobre sois somente somos sou sua suas são sétima sétimo só
tais tal talvez também tanta tanto tarde te tem temos tempo tendes tenho tens
tentar tentaram tente tentei ter terceira terceiro teu teus teve tipo tive
tivemos tiveram tiveste tivestes toda todas todo todos treze três tu tua tuas
tudo tão têm
um uma umas uns usa usar último
vai vais valor veja vem vens ver vez vezes vinda vindo vinte você vocês vos vossa
vossas vosso vossos vários vão vêm vós
zero
""".split()
)
| 2,503 | 36.373134 | 91 | py |
spaCy | spaCy-master/spacy/lang/pt/syntax_iterators.py | from typing import Iterator, Tuple, Union
from ...errors import Errors
from ...symbols import NOUN, PRON, PROPN
from ...tokens import Doc, Span
def noun_chunks(doclike: Union[Doc, Span]) -> Iterator[Tuple[int, int, int]]:
"""
Detect base noun phrases from a dependency parse. Works on both Doc and Span.
"""
labels = [
"nsubj",
"nsubj:pass",
"obj",
"obl",
"obl:agent",
"nmod",
"pcomp",
"appos",
"ROOT",
]
post_modifiers = ["flat", "flat:name", "fixed", "compound"]
doc = doclike.doc # Ensure works on both Doc and Span.
if not doc.has_annotation("DEP"):
raise ValueError(Errors.E029)
np_deps = {doc.vocab.strings.add(label) for label in labels}
np_modifs = {doc.vocab.strings.add(modifier) for modifier in post_modifiers}
np_label = doc.vocab.strings.add("NP")
adj_label = doc.vocab.strings.add("amod")
det_label = doc.vocab.strings.add("det")
det_pos = doc.vocab.strings.add("DET")
adp_label = doc.vocab.strings.add("ADP")
conj = doc.vocab.strings.add("conj")
conj_pos = doc.vocab.strings.add("CCONJ")
prev_end = -1
for i, word in enumerate(doclike):
if word.pos not in (NOUN, PROPN, PRON):
continue
# Prevent nested chunks from being produced
if word.left_edge.i <= prev_end:
continue
if word.dep in np_deps:
right_childs = list(word.rights)
right_child = right_childs[0] if right_childs else None
if right_child:
if (
right_child.dep == adj_label
): # allow chain of adjectives by expanding to right
right_end = right_child.right_edge
elif (
right_child.dep == det_label and right_child.pos == det_pos
): # cut relative pronouns here
right_end = right_child
elif right_child.dep in np_modifs: # Check if we can expand to right
right_end = word.right_edge
else:
right_end = word
else:
right_end = word
prev_end = right_end.i
left_index = word.left_edge.i
left_index = (
left_index + 1 if word.left_edge.pos == adp_label else left_index
)
yield left_index, right_end.i + 1, np_label
elif word.dep == conj:
head = word.head
while head.dep == conj and head.head.i < head.i:
head = head.head
# If the head is an NP, and we're coordinated to it, we're an NP
if head.dep in np_deps:
prev_end = word.i
left_index = word.left_edge.i # eliminate left attached conjunction
left_index = (
left_index + 1 if word.left_edge.pos == conj_pos else left_index
)
yield left_index, word.i + 1, np_label
SYNTAX_ITERATORS = {"noun_chunks": noun_chunks}
| 3,088 | 34.918605 | 85 | py |
spaCy | spaCy-master/spacy/lang/pt/tokenizer_exceptions.py | from ...symbols import ORTH
from ...util import update_exc
from ..tokenizer_exceptions import BASE_EXCEPTIONS
_exc = {}
for orth in [
"Adm.",
"Art.",
"art.",
"Av.",
"av.",
"Cia.",
"dom.",
"Dr.",
"dr.",
"e.g.",
"E.g.",
"E.G.",
"e/ou",
"ed.",
"eng.",
"etc.",
"Fund.",
"Gen.",
"Gov.",
"i.e.",
"I.e.",
"I.E.",
"Inc.",
"Jr.",
"km/h",
"Ltd.",
"Mr.",
"p.m.",
"Ph.D.",
"Rep.",
"Rev.",
"S/A",
"Sen.",
"Sr.",
"sr.",
"Sra.",
"sra.",
"vs.",
"tel.",
"pág.",
"pag.",
]:
_exc[orth] = [{ORTH: orth}]
TOKENIZER_EXCEPTIONS = update_exc(BASE_EXCEPTIONS, _exc)
| 714 | 12 | 56 | py |
spaCy | spaCy-master/spacy/lang/ro/__init__.py | from ...language import BaseDefaults, Language
from .lex_attrs import LEX_ATTRS
from .punctuation import TOKENIZER_INFIXES, TOKENIZER_PREFIXES, TOKENIZER_SUFFIXES
from .stop_words import STOP_WORDS
from .tokenizer_exceptions import TOKENIZER_EXCEPTIONS
# Lemma data note:
# Original pairs downloaded from http://www.lexiconista.com/datasets/lemmatization/
# Replaced characters using cedillas with the correct ones (ș and ț)
class RomanianDefaults(BaseDefaults):
tokenizer_exceptions = TOKENIZER_EXCEPTIONS
prefixes = TOKENIZER_PREFIXES
suffixes = TOKENIZER_SUFFIXES
infixes = TOKENIZER_INFIXES
lex_attr_getters = LEX_ATTRS
stop_words = STOP_WORDS
class Romanian(Language):
lang = "ro"
Defaults = RomanianDefaults
__all__ = ["Romanian"]
| 776 | 27.777778 | 83 | py |
spaCy | spaCy-master/spacy/lang/ro/examples.py | """
Example sentences to test spaCy and its language models.
>>> from spacy.lang.ro import Romanian
>>> from spacy.lang.ro.examples import sentences
>>> nlp = Romanian()
>>> docs = nlp.pipe(sentences)
"""
sentences = [
"Apple plănuiește să cumpere o companie britanică pentru un miliard de dolari",
"Municipalitatea din San Francisco ia în calcul interzicerea roboților curieri pe trotuar",
"Londra este un oraș mare în Regatul Unit",
"Unde ești?",
"Cine este președintele Franței?",
"Care este capitala Statelor Unite?",
"Când s-a născut Barack Obama?",
]
| 588 | 28.45 | 95 | py |
spaCy | spaCy-master/spacy/lang/ro/lex_attrs.py | from ...attrs import LIKE_NUM
_num_words = set(
"""
zero unu doi două trei patru cinci șase șapte opt nouă zece
unsprezece doisprezece douăsprezece treisprezece patrusprezece cincisprezece șaisprezece șaptesprezece optsprezece nouăsprezece
douăzeci treizeci patruzeci cincizeci șaizeci șaptezeci optzeci nouăzeci
sută mie milion miliard bilion trilion cvadrilion catralion cvintilion sextilion septilion enșpemii
""".split()
)
_ordinal_words = set(
"""
primul doilea treilea patrulea cincilea șaselea șaptelea optulea nouălea zecelea
prima doua treia patra cincia șasea șaptea opta noua zecea
unsprezecelea doisprezecelea treisprezecelea patrusprezecelea cincisprezecelea șaisprezecelea șaptesprezecelea optsprezecelea nouăsprezecelea
unsprezecea douăsprezecea treisprezecea patrusprezecea cincisprezecea șaisprezecea șaptesprezecea optsprezecea nouăsprezecea
douăzecilea treizecilea patruzecilea cincizecilea șaizecilea șaptezecilea optzecilea nouăzecilea sutălea
douăzecea treizecea patruzecea cincizecea șaizecea șaptezecea optzecea nouăzecea suta
miilea mielea mia milionulea milioana miliardulea miliardelea miliarda enșpemia
""".split()
)
def like_num(text):
if text.startswith(("+", "-", "±", "~")):
text = text[1:]
text = text.replace(",", "").replace(".", "")
if text.isdigit():
return True
if text.count("/") == 1:
num, denom = text.split("/")
if num.isdigit() and denom.isdigit():
return True
if text.lower() in _num_words:
return True
if text.lower() in _ordinal_words:
return True
return False
LEX_ATTRS = {LIKE_NUM: like_num}
| 1,642 | 37.209302 | 141 | py |
spaCy | spaCy-master/spacy/lang/ro/punctuation.py | import itertools
from ..char_classes import (
ALPHA,
ALPHA_LOWER,
ALPHA_UPPER,
CONCAT_QUOTES,
CURRENCY,
LIST_CURRENCY,
LIST_ELLIPSES,
LIST_ICONS,
LIST_PUNCT,
LIST_QUOTES,
PUNCT,
)
_list_icons = [x for x in LIST_ICONS if x != "°"]
_list_icons = [x.replace("\\u00B0", "") for x in _list_icons]
_ro_variants = {
"Ă": ["Ă", "A"],
"Â": ["Â", "A"],
"Î": ["Î", "I"],
"Ș": ["Ș", "Ş", "S"],
"Ț": ["Ț", "Ţ", "T"],
}
def _make_ro_variants(tokens):
variants = []
for token in tokens:
upper_token = token.upper()
upper_char_variants = [_ro_variants.get(c, [c]) for c in upper_token]
upper_variants = ["".join(x) for x in itertools.product(*upper_char_variants)]
for variant in upper_variants:
variants.extend([variant, variant.lower(), variant.title()])
return sorted(list(set(variants)))
# UD_Romanian-RRT closed class prefixes
# POS: ADP|AUX|CCONJ|DET|NUM|PART|PRON|SCONJ
_ud_rrt_prefixes = [
"a-",
"c-",
"ce-",
"cu-",
"d-",
"de-",
"dintr-",
"e-",
"făr-",
"i-",
"l-",
"le-",
"m-",
"mi-",
"n-",
"ne-",
"p-",
"pe-",
"prim-",
"printr-",
"s-",
"se-",
"te-",
"v-",
"într-",
"ș-",
"și-",
"ți-",
]
_ud_rrt_prefix_variants = _make_ro_variants(_ud_rrt_prefixes)
# UD_Romanian-RRT closed class suffixes without NUM
# POS: ADP|AUX|CCONJ|DET|PART|PRON|SCONJ
_ud_rrt_suffixes = [
"-a",
"-aceasta",
"-ai",
"-al",
"-ale",
"-alta",
"-am",
"-ar",
"-astea",
"-atâta",
"-au",
"-aș",
"-ați",
"-i",
"-ilor",
"-l",
"-le",
"-lea",
"-mea",
"-meu",
"-mi",
"-mă",
"-n",
"-ndărătul",
"-ne",
"-o",
"-oi",
"-or",
"-s",
"-se",
"-si",
"-te",
"-ul",
"-ului",
"-un",
"-uri",
"-urile",
"-urilor",
"-veți",
"-vă",
"-ăștia",
"-și",
"-ți",
]
_ud_rrt_suffix_variants = _make_ro_variants(_ud_rrt_suffixes)
_prefixes = (
["§", "%", "=", "—", "–", r"\+(?![0-9])"]
+ _ud_rrt_prefix_variants
+ LIST_PUNCT
+ LIST_ELLIPSES
+ LIST_QUOTES
+ LIST_CURRENCY
+ LIST_ICONS
)
_suffixes = (
_ud_rrt_suffix_variants
+ LIST_PUNCT
+ LIST_ELLIPSES
+ LIST_QUOTES
+ _list_icons
+ ["—", "–"]
+ [
r"(?<=[0-9])\+",
r"(?<=°[FfCcKk])\.",
r"(?<=[0-9])(?:{c})".format(c=CURRENCY),
r"(?<=[0-9{al}{e}{p}(?:{q})])\.".format(
al=ALPHA_LOWER, e=r"%²\-\+", q=CONCAT_QUOTES, p=PUNCT
),
r"(?<=[{au}][{au}])\.".format(au=ALPHA_UPPER),
]
)
_infixes = (
LIST_ELLIPSES
+ _list_icons
+ [
r"(?<=[0-9])[+\*^](?=[0-9-])",
r"(?<=[{al}{q}])\.(?=[{au}{q}])".format(
al=ALPHA_LOWER, au=ALPHA_UPPER, q=CONCAT_QUOTES
),
r"(?<=[{a}]),(?=[{a}])".format(a=ALPHA),
r"(?<=[{a}0-9])[:<>=](?=[{a}])".format(a=ALPHA),
]
)
TOKENIZER_PREFIXES = _prefixes
TOKENIZER_SUFFIXES = _suffixes
TOKENIZER_INFIXES = _infixes
| 3,113 | 17.210526 | 86 | py |
spaCy | spaCy-master/spacy/lang/ro/stop_words.py | # Source: https://github.com/stopwords-iso/stopwords-ro
STOP_WORDS = set(
"""
a
abia
acea
aceasta
această
aceea
aceeasi
aceeași
acei
aceia
acel
acela
acelasi
același
acele
acelea
acest
acesta
aceste
acestea
acestei
acestia
acestui
aceşti
aceştia
acolo
acord
acum
adica
adică
ai
aia
aibă
aici
aiurea
al
ala
alaturi
ale
alea
alt
alta
altceva
altcineva
alte
altfel
alti
altii
altul
alături
am
anume
apoi
apai
apăi
ar
are
as
asa
asemenea
asta
astazi
astea
astfel
astăzi
asupra
atare
atat
atata
atatea
atatia
ati
atit
atita
atitea
atitia
atunci
au
avea
avem
aveţi
aveți
avut
azi
aş
aşadar
aţi
aș
așadar
ați
b
ba
bine
bucur
bună
c
ca
cam
cand
capat
care
careia
carora
caruia
cat
catre
caut
ce
cea
ceea
cei
ceilalti
cel
cele
celor
ceva
chiar
ci
cinci
cind
cine
cineva
cit
cita
cite
citeva
citi
citiva
conform
contra
cu
cui
cum
cumva
curând
curînd
când
cât
câte
câtva
câţi
câți
cînd
cît
cîte
cîtva
cîţi
cîți
că
căci
cărei
căror
cărora
cărui
căruia
către
d
da
daca
dacă
dar
dat
datorită
dată
dau
de
deasupra
deci
decit
degraba
deja
deoarece
departe
desi
despre
deşi
deși
din
dinaintea
dincolo
dincoace
dintr
dintr-
dintre
doar
doi
doilea
două
drept
dupa
după
dă
deunaseara
deunăseară
deunazi
deunăzi
e
ea
ei
el
ele
era
eram
este
eu
exact
eşti
ești
f
face
fara
fata
fel
fi
fie
fiecare
fii
fim
fiu
fiţi
fiți
foarte
fost
frumos
fără
g
geaba
graţie
grație
h
i
ia
iar
ieri
ii
il
imi
in
inainte
inapoi
inca
incotro
incit
insa
intr
intre
isi
iti
j
k
l
la
le
li
lor
lui
lângă
lîngă
m
ma
mai
mare
macar
măcar
mata
matale
mea
mei
mele
mereu
meu
mi
mie
mine
mod
mult
multa
multe
multi
multă
mulţi
mulţumesc
mulți
mulțumesc
mâine
mîine
mă
n
na
ne
neincetat
neîncetat
nevoie
ni
nici
nicidecum
nicidecat
nicidecât
niciodata
niciodată
nicăieri
nimeni
nimeri
nimic
niste
nişte
niște
noastre
noastră
noi
noroc
nostri
nostru
nou
noua
nouă
noştri
noștri
nu
numai
o
odata
odată
odinioara
odinioară
opt
or
ori
oricare
orice
oricine
oricum
oricând
oricât
oricînd
oricît
oriunde
p
pai
păi
parca
parcă
patra
patru
patrulea
pe
pentru
peste
pic
pina
plus
poate
pot
prea
prima
primul
prin
printr-
printre
putini
puţin
puţina
puţină
până
pînă
r
rog
s
sa
sa-mi
sa-ti
sai
sale
sau
se
si
sint
sintem
spate
spre
sub
sunt
suntem
sunteţi
sunteți
sus
sută
sînt
sîntem
sînteţi
sînteți
să
săi
său
t
ta
tale
te
ti
timp
tine
toata
toate
toată
tocmai
tot
toti
totul
totusi
totuşi
totuși
toţi
toți
trei
treia
treilea
tu
tuturor
tăi
tău
u
ul
ului
un
una
unde
undeva
unei
uneia
unele
uneori
unii
unor
unora
unu
unui
unuia
unul
v
va
vai
vi
voastre
voastră
voi
vom
vor
vostru
vouă
voştri
voștri
vreme
vreo
vreun
vă
x
z
zece
zero
zi
zice
îi
îl
îmi
împotriva
în
înainte
înaintea
încotro
încât
încît
între
întrucât
întrucît
îţi
îți
ăla
ălea
ăsta
ăstea
ăştia
ăștia
şapte
şase
şi
ştiu
ţi
ţie
șapte
șase
și
știu
ți
ție
""".split()
)
| 2,777 | 4.556 | 55 | py |
spaCy | spaCy-master/spacy/lang/ro/tokenizer_exceptions.py | from ...symbols import ORTH
from ...util import update_exc
from ..tokenizer_exceptions import BASE_EXCEPTIONS
from .punctuation import _make_ro_variants
_exc = {}
# Source: https://en.wiktionary.org/wiki/Category:Romanian_abbreviations
for orth in [
"1-a",
"2-a",
"3-a",
"4-a",
"5-a",
"6-a",
"7-a",
"8-a",
"9-a",
"10-a",
"11-a",
"12-a",
"1-ul",
"2-lea",
"3-lea",
"4-lea",
"5-lea",
"6-lea",
"7-lea",
"8-lea",
"9-lea",
"10-lea",
"11-lea",
"12-lea",
"d-voastră",
"dvs.",
"ing.",
"dr.",
"Rom.",
"str.",
"nr.",
"etc.",
"d.p.d.v.",
"dpdv",
"șamd.",
"ș.a.m.d.",
# below: from UD_Romanian-RRT:
"A.c.",
"A.f.",
"A.r.",
"Al.",
"Art.",
"Aug.",
"Bd.",
"Dem.",
"Dr.",
"Fig.",
"Fr.",
"Gh.",
"Gr.",
"Lt.",
"Nr.",
"Obs.",
"Prof.",
"Sf.",
"a.m.",
"a.r.",
"alin.",
"art.",
"d-l",
"d-lui",
"d-nei",
"ex.",
"fig.",
"ian.",
"lit.",
"lt.",
"p.a.",
"p.m.",
"pct.",
"prep.",
"sf.",
"tel.",
"univ.",
"îngr.",
"într-adevăr",
"Șt.",
"ș.a.",
]:
# note: does not distinguish capitalized-only exceptions from others
for variant in _make_ro_variants([orth]):
_exc[variant] = [{ORTH: variant}]
TOKENIZER_EXCEPTIONS = update_exc(BASE_EXCEPTIONS, _exc)
| 1,452 | 14.135417 | 72 | py |
spaCy | spaCy-master/spacy/lang/ru/__init__.py | from typing import Callable, Optional
from thinc.api import Model
from ...language import BaseDefaults, Language
from ..punctuation import (
COMBINING_DIACRITICS_TOKENIZER_INFIXES,
COMBINING_DIACRITICS_TOKENIZER_SUFFIXES,
)
from .lemmatizer import RussianLemmatizer
from .lex_attrs import LEX_ATTRS
from .stop_words import STOP_WORDS
from .tokenizer_exceptions import TOKENIZER_EXCEPTIONS
class RussianDefaults(BaseDefaults):
tokenizer_exceptions = TOKENIZER_EXCEPTIONS
lex_attr_getters = LEX_ATTRS
stop_words = STOP_WORDS
suffixes = COMBINING_DIACRITICS_TOKENIZER_SUFFIXES
infixes = COMBINING_DIACRITICS_TOKENIZER_INFIXES
class Russian(Language):
lang = "ru"
Defaults = RussianDefaults
@Russian.factory(
"lemmatizer",
assigns=["token.lemma"],
default_config={
"model": None,
"mode": "pymorphy3",
"overwrite": False,
"scorer": {"@scorers": "spacy.lemmatizer_scorer.v1"},
},
default_score_weights={"lemma_acc": 1.0},
)
def make_lemmatizer(
nlp: Language,
model: Optional[Model],
name: str,
mode: str,
overwrite: bool,
scorer: Optional[Callable],
):
return RussianLemmatizer(
nlp.vocab, model, name, mode=mode, overwrite=overwrite, scorer=scorer
)
__all__ = ["Russian"]
| 1,306 | 23.203704 | 77 | py |
spaCy | spaCy-master/spacy/lang/ru/examples.py | """
Example sentences to test spaCy and its language models.
>>> from spacy.lang.ru.examples import sentences
>>> docs = nlp.pipe(sentences)
"""
sentences = [
# Translations from English:
"Apple рассматривает возможность покупки стартапа из Соединённого Королевства за $1 млрд",
"Беспилотные автомобили перекладывают страховую ответственность на производителя",
"В Сан-Франциско рассматривается возможность запрета роботов-курьеров, которые перемещаются по тротуару",
"Лондон — это большой город в Соединённом Королевстве",
# Native Russian sentences:
# Colloquial:
"Да, нет, наверное!", # Typical polite refusal
"Обратите внимание на необыкновенную красоту этого города-героя Москвы, столицы нашей Родины!", # From a tour guide speech
# Examples of Bookish Russian:
# Quote from "The Golden Calf"
"Рио-де-Жанейро — это моя мечта, и не смейте касаться её своими грязными лапами!",
# Quotes from "Ivan Vasilievich changes his occupation"
"Ты пошто боярыню обидел, смерд?!!",
"Оставь меня, старушка, я в печали!",
# Quotes from Dostoevsky:
"Уж коли я, такой же, как и ты, человек грешный, над тобой умилился и пожалел тебя, кольми паче бог",
"В мечтах я нередко, говорит, доходил до страстных помыслов о служении человечеству и может быть действительно пошел бы на крест за людей, если б это вдруг как-нибудь потребовалось, а между тем я двух дней не в состоянии прожить ни с кем в одной комнате, о чем знаю из опыта",
"Зато всегда так происходило, что чем более я ненавидел людей в частности, тем пламеннее становилась любовь моя к человечеству вообще",
# Quotes from Chekhov:
"Ненужные дела и разговоры всё об одном отхватывают на свою долю лучшую часть времени, лучшие силы, и в конце концов остается какая-то куцая, бескрылая жизнь, какая-то чепуха, и уйти и бежать нельзя, точно сидишь в сумасшедшем доме или в арестантских ротах!",
# Quotes from Turgenev:
"Нравится тебе женщина, старайся добиться толку; а нельзя — ну, не надо, отвернись — земля не клином сошлась",
"Узенькое местечко, которое я занимаю, до того крохотно в сравнении с остальным пространством, где меня нет и где дела до меня нет; и часть времени, которую мне удастся прожить, так ничтожна перед вечностью, где меня не было и не будет...",
# Quotes from newspapers:
# Komsomolskaya Pravda:
"На заседании президиума правительства Москвы принято решение присвоить статус инвестиционного приоритетного проекта города Москвы киностудии Союзмультфильм",
"Глава Минобороны Сергей Шойгу заявил, что обстановка на этом стратегическом направлении требует непрерывного совершенствования боевого состава войск",
# Argumenty i Facty:
"На реплику лже-Говина — дескать, он (Волков) будет лучшим революционером — Стамп с энтузиазмом ответил: Непременно!",
]
| 2,840 | 68.292683 | 280 | py |
spaCy | spaCy-master/spacy/lang/ru/lemmatizer.py | from typing import Callable, Dict, List, Optional, Tuple
from thinc.api import Model
from ...pipeline import Lemmatizer
from ...pipeline.lemmatizer import lemmatizer_score
from ...symbols import POS
from ...tokens import Token
from ...vocab import Vocab
PUNCT_RULES = {"«": '"', "»": '"'}
class RussianLemmatizer(Lemmatizer):
def __init__(
self,
vocab: Vocab,
model: Optional[Model],
name: str = "lemmatizer",
*,
mode: str = "pymorphy3",
overwrite: bool = False,
scorer: Optional[Callable] = lemmatizer_score,
) -> None:
if mode in {"pymorphy2", "pymorphy2_lookup"}:
try:
from pymorphy2 import MorphAnalyzer
except ImportError:
raise ImportError(
"The lemmatizer mode 'pymorphy2' requires the "
"pymorphy2 library and dictionaries. Install them with: "
"pip install pymorphy2"
"# for Ukrainian dictionaries:"
"pip install pymorphy2-dicts-uk"
) from None
if getattr(self, "_morph", None) is None:
self._morph = MorphAnalyzer(lang="ru")
elif mode in {"pymorphy3", "pymorphy3_lookup"}:
try:
from pymorphy3 import MorphAnalyzer
except ImportError:
raise ImportError(
"The lemmatizer mode 'pymorphy3' requires the "
"pymorphy3 library and dictionaries. Install them with: "
"pip install pymorphy3"
"# for Ukrainian dictionaries:"
"pip install pymorphy3-dicts-uk"
) from None
if getattr(self, "_morph", None) is None:
self._morph = MorphAnalyzer(lang="ru")
super().__init__(
vocab, model, name, mode=mode, overwrite=overwrite, scorer=scorer
)
def _pymorphy_lemmatize(self, token: Token) -> List[str]:
string = token.text
univ_pos = token.pos_
morphology = token.morph.to_dict()
if univ_pos == "PUNCT":
return [PUNCT_RULES.get(string, string)]
if univ_pos not in ("ADJ", "DET", "NOUN", "NUM", "PRON", "PROPN", "VERB"):
return self._pymorphy_lookup_lemmatize(token)
analyses = self._morph.parse(string)
filtered_analyses = []
for analysis in analyses:
if not analysis.is_known:
# Skip suggested parse variant for unknown word for pymorphy
continue
analysis_pos, _ = oc2ud(str(analysis.tag))
if (
analysis_pos == univ_pos
or (analysis_pos in ("NOUN", "PROPN") and univ_pos in ("NOUN", "PROPN"))
or ((analysis_pos == "PRON") and (univ_pos == "DET"))
):
filtered_analyses.append(analysis)
if not len(filtered_analyses):
return [string.lower()]
if morphology is None or (len(morphology) == 1 and POS in morphology):
return list(
dict.fromkeys([analysis.normal_form for analysis in filtered_analyses])
)
if univ_pos in ("ADJ", "DET", "NOUN", "PROPN"):
features_to_compare = ["Case", "Number", "Gender"]
elif univ_pos == "NUM":
features_to_compare = ["Case", "Gender"]
elif univ_pos == "PRON":
features_to_compare = ["Case", "Number", "Gender", "Person"]
else: # VERB
features_to_compare = [
"Aspect",
"Gender",
"Mood",
"Number",
"Tense",
"VerbForm",
"Voice",
]
analyses, filtered_analyses = filtered_analyses, []
for analysis in analyses:
_, analysis_morph = oc2ud(str(analysis.tag))
for feature in features_to_compare:
if (
feature in morphology
and feature in analysis_morph
and morphology[feature].lower() != analysis_morph[feature].lower()
):
break
else:
filtered_analyses.append(analysis)
if not len(filtered_analyses):
return [string.lower()]
return list(
dict.fromkeys([analysis.normal_form for analysis in filtered_analyses])
)
def _pymorphy_lookup_lemmatize(self, token: Token) -> List[str]:
string = token.text
analyses = self._morph.parse(string)
# often multiple forms would derive from the same normal form
# thus check _unique_ normal forms
normal_forms = set([an.normal_form for an in analyses])
if len(normal_forms) == 1:
return [next(iter(normal_forms))]
return [string]
def pymorphy2_lemmatize(self, token: Token) -> List[str]:
return self._pymorphy_lemmatize(token)
def pymorphy2_lookup_lemmatize(self, token: Token) -> List[str]:
return self._pymorphy_lookup_lemmatize(token)
def pymorphy3_lemmatize(self, token: Token) -> List[str]:
return self._pymorphy_lemmatize(token)
def pymorphy3_lookup_lemmatize(self, token: Token) -> List[str]:
return self._pymorphy_lookup_lemmatize(token)
def oc2ud(oc_tag: str) -> Tuple[str, Dict[str, str]]:
gram_map = {
"_POS": {
"ADJF": "ADJ",
"ADJS": "ADJ",
"ADVB": "ADV",
"Apro": "DET",
"COMP": "ADJ", # Can also be an ADV - unchangeable
"CONJ": "CCONJ", # Can also be a SCONJ - both unchangeable ones
"GRND": "VERB",
"INFN": "VERB",
"INTJ": "INTJ",
"NOUN": "NOUN",
"NPRO": "PRON",
"NUMR": "NUM",
"NUMB": "NUM",
"PNCT": "PUNCT",
"PRCL": "PART",
"PREP": "ADP",
"PRTF": "VERB",
"PRTS": "VERB",
"VERB": "VERB",
},
"Animacy": {"anim": "Anim", "inan": "Inan"},
"Aspect": {"impf": "Imp", "perf": "Perf"},
"Case": {
"ablt": "Ins",
"accs": "Acc",
"datv": "Dat",
"gen1": "Gen",
"gen2": "Gen",
"gent": "Gen",
"loc2": "Loc",
"loct": "Loc",
"nomn": "Nom",
"voct": "Voc",
},
"Degree": {"COMP": "Cmp", "Supr": "Sup"},
"Gender": {"femn": "Fem", "masc": "Masc", "neut": "Neut"},
"Mood": {"impr": "Imp", "indc": "Ind"},
"Number": {"plur": "Plur", "sing": "Sing"},
"NumForm": {"NUMB": "Digit"},
"Person": {"1per": "1", "2per": "2", "3per": "3", "excl": "2", "incl": "1"},
"Tense": {"futr": "Fut", "past": "Past", "pres": "Pres"},
"Variant": {"ADJS": "Brev", "PRTS": "Brev"},
"VerbForm": {
"GRND": "Conv",
"INFN": "Inf",
"PRTF": "Part",
"PRTS": "Part",
"VERB": "Fin",
},
"Voice": {"actv": "Act", "pssv": "Pass"},
"Abbr": {"Abbr": "Yes"},
}
pos = "X"
morphology = dict()
unmatched = set()
grams = oc_tag.replace(" ", ",").split(",")
for gram in grams:
match = False
for categ, gmap in sorted(gram_map.items()):
if gram in gmap:
match = True
if categ == "_POS":
pos = gmap[gram]
else:
morphology[categ] = gmap[gram]
if not match:
unmatched.add(gram)
while len(unmatched) > 0:
gram = unmatched.pop()
if gram in ("Name", "Patr", "Surn", "Geox", "Orgn"):
pos = "PROPN"
elif gram == "Auxt":
pos = "AUX"
elif gram == "Pltm":
morphology["Number"] = "Ptan"
return pos, morphology
| 7,973 | 35.577982 | 88 | py |
spaCy | spaCy-master/spacy/lang/ru/lex_attrs.py | from ...attrs import LIKE_NUM
_num_words = list(
set(
"""
ноль ноля нолю нолём ноле нулевой нулевого нулевому нулевым нулевом нулевая нулевую нулевое нулевые нулевых нулевыми
четверть четверти четвертью четвертей четвертям четвертями четвертях
треть трети третью третей третям третями третях
половина половины половине половину половиной половин половинам половинами половинах половиною
один одного одному одним одном
первой первого первому первом первый первым первых
во-первых
единица единицы единице единицу единицей единиц единицам единицами единицах единицею
два двумя двум двух двоих двое две
второго второму второй втором вторым вторых
двойка двойки двойке двойку двойкой двоек двойкам двойками двойках двойкою
во-вторых
оба обе обеим обеими обеих обоим обоими обоих
полтора полторы полутора
три третьего третьему третьем третьим третий тремя трем трех трое троих трёх
тройка тройки тройке тройку тройкою троек тройкам тройками тройках тройкой
троечка троечки троечке троечку троечкой троечек троечкам троечками троечках троечкой
трешка трешки трешке трешку трешкой трешек трешкам трешками трешках трешкою
трёшка трёшки трёшке трёшку трёшкой трёшек трёшкам трёшками трёшках трёшкою
трояк трояка трояку трояком трояке трояки трояков троякам трояками трояках
треха треху трехой
трёха трёху трёхой
втроем втроём
четыре четвертого четвертому четвертом четвертый четвертым четверка четырьмя четырем четырех четверо четырёх четверым
четверых
вчетвером
пять пятого пятому пятом пятый пятым пятью пяти пятеро пятерых пятерыми
впятером
пятерочка пятерочки пятерочке пятерочками пятерочкой пятерочку пятерочкой пятерочками
пятёрочка пятёрочки пятёрочке пятёрочками пятёрочкой пятёрочку пятёрочкой пятёрочками
пятерка пятерки пятерке пятерками пятеркой пятерку пятерками
пятёрка пятёрки пятёрке пятёрками пятёркой пятёрку пятёрками
пятёра пятёры пятёре пятёрами пятёрой пятёру пятёрами
пятера пятеры пятере пятерами пятерой пятеру пятерами
пятак пятаки пятаке пятаками пятаком пятаку пятаками
шесть шестерка шестого шестому шестой шестом шестым шестью шести шестеро шестерых
вшестером
семь семерка седьмого седьмому седьмой седьмом седьмым семью семи семеро седьмых
всемером
восемь восьмерка восьмого восьмому восемью восьмой восьмом восьмым восеми восьмером восьми восьмью
восьмерых
ввосьмером
девять девятого девятому девятка девятом девятый девятым девятью девяти девятером вдевятером девятерых
вдевятером
десять десятого десятому десятка десятом десятый десятым десятью десяти десятером десятых
вдесятером
одиннадцать одиннадцатого одиннадцатому одиннадцатом одиннадцатый одиннадцатым одиннадцатью одиннадцати
одиннадцатых
двенадцать двенадцатого двенадцатому двенадцатом двенадцатый двенадцатым двенадцатью двенадцати
двенадцатых
тринадцать тринадцатого тринадцатому тринадцатом тринадцатый тринадцатым тринадцатью тринадцати
тринадцатых
четырнадцать четырнадцатого четырнадцатому четырнадцатом четырнадцатый четырнадцатым четырнадцатью четырнадцати
четырнадцатых
пятнадцать пятнадцатого пятнадцатому пятнадцатом пятнадцатый пятнадцатым пятнадцатью пятнадцати
пятнадцатых
пятнарик пятнарику пятнариком пятнарики
шестнадцать шестнадцатого шестнадцатому шестнадцатом шестнадцатый шестнадцатым шестнадцатью шестнадцати
шестнадцатых
семнадцать семнадцатого семнадцатому семнадцатом семнадцатый семнадцатым семнадцатью семнадцати семнадцатых
восемнадцать восемнадцатого восемнадцатому восемнадцатом восемнадцатый восемнадцатым восемнадцатью восемнадцати
восемнадцатых
девятнадцать девятнадцатого девятнадцатому девятнадцатом девятнадцатый девятнадцатым девятнадцатью девятнадцати
девятнадцатых
двадцать двадцатого двадцатому двадцатом двадцатый двадцатым двадцатью двадцати двадцатых
четвертак четвертака четвертаке четвертаку четвертаки четвертаком четвертаками
тридцать тридцатого тридцатому тридцатом тридцатый тридцатым тридцатью тридцати тридцатых
тридцадка тридцадку тридцадке тридцадки тридцадкой тридцадкою тридцадками
тридевять тридевяти тридевятью
сорок сорокового сороковому сороковом сороковым сороковой сороковых
сорокет сорокета сорокету сорокете сорокеты сорокетом сорокетами сорокетам
пятьдесят пятьдесятого пятьдесятому пятьюдесятью пятьдесятом пятьдесятый пятьдесятым пятидесяти пятьдесятых
полтинник полтинника полтиннике полтиннику полтинники полтинником полтинниками полтинникам полтинниках
пятидесятка пятидесятке пятидесятку пятидесятки пятидесяткой пятидесятками пятидесяткам пятидесятках
полтос полтоса полтосе полтосу полтосы полтосом полтосами полтосам полтосах
шестьдесят шестьдесятого шестьдесятому шестьюдесятью шестьдесятом шестьдесятый шестьдесятым шестидесятые шестидесяти
шестьдесятых
семьдесят семьдесятого семьдесятому семьюдесятью семьдесятом семьдесятый семьдесятым семидесяти семьдесятых
восемьдесят восемьдесятого восемьдесятому восемьюдесятью восемьдесятом восемьдесятый восемьдесятым восемидесяти
восьмидесяти восьмидесятых
девяносто девяностого девяностому девяностом девяностый девяностым девяноста девяностых
сто сотого сотому сотом сотен сотый сотым ста
стольник стольника стольнику стольнике стольники стольником стольниками
сотка сотки сотке соткой сотками соткам сотках
сотня сотни сотне сотней сотнями сотням сотнях
двести двумястами двухсотого двухсотому двухсотом двухсотый двухсотым двумстам двухстах двухсот
триста тремястами трехсотого трехсотому трехсотом трехсотый трехсотым тремстам трехстах трехсот
четыреста четырехсотого четырехсотому четырьмястами четырехсотом четырехсотый четырехсотым четыремстам четырехстах
четырехсот
пятьсот пятисотого пятисотому пятьюстами пятисотом пятисотый пятисотым пятистам пятистах пятисот
пятисотка пятисотки пятисотке пятисоткой пятисотками пятисоткам пятисоткою пятисотках
пятихатка пятихатки пятихатке пятихаткой пятихатками пятихаткам пятихаткою пятихатках
пятифан пятифаны пятифане пятифаном пятифанами пятифанах
шестьсот шестисотого шестисотому шестьюстами шестисотом шестисотый шестисотым шестистам шестистах шестисот
семьсот семисотого семисотому семьюстами семисотом семисотый семисотым семистам семистах семисот
восемьсот восемисотого восемисотому восемисотом восемисотый восемисотым восьмистами восьмистам восьмистах восьмисот
девятьсот девятисотого девятисотому девятьюстами девятисотом девятисотый девятисотым девятистам девятистах девятисот
тысяча тысячного тысячному тысячном тысячный тысячным тысячам тысячах тысячей тысяч тысячи тыс
косарь косаря косару косарем косарями косарях косарям косарей
десятитысячный десятитысячного десятитысячному десятитысячным десятитысячном десятитысячная десятитысячной
десятитысячную десятитысячною десятитысячное десятитысячные десятитысячных десятитысячными
двадцатитысячный двадцатитысячного двадцатитысячному двадцатитысячным двадцатитысячном двадцатитысячная
двадцатитысячной двадцатитысячную двадцатитысячною двадцатитысячное двадцатитысячные двадцатитысячных
двадцатитысячными
тридцатитысячный тридцатитысячного тридцатитысячному тридцатитысячным тридцатитысячном тридцатитысячная
тридцатитысячной тридцатитысячную тридцатитысячною тридцатитысячное тридцатитысячные тридцатитысячных
тридцатитысячными
сорокатысячный сорокатысячного сорокатысячному сорокатысячным сорокатысячном сорокатысячная
сорокатысячной сорокатысячную сорокатысячною сорокатысячное сорокатысячные сорокатысячных
сорокатысячными
пятидесятитысячный пятидесятитысячного пятидесятитысячному пятидесятитысячным пятидесятитысячном пятидесятитысячная
пятидесятитысячной пятидесятитысячную пятидесятитысячною пятидесятитысячное пятидесятитысячные пятидесятитысячных
пятидесятитысячными
шестидесятитысячный шестидесятитысячного шестидесятитысячному шестидесятитысячным шестидесятитысячном шестидесятитысячная
шестидесятитысячной шестидесятитысячную шестидесятитысячною шестидесятитысячное шестидесятитысячные шестидесятитысячных
шестидесятитысячными
семидесятитысячный семидесятитысячного семидесятитысячному семидесятитысячным семидесятитысячном семидесятитысячная
семидесятитысячной семидесятитысячную семидесятитысячною семидесятитысячное семидесятитысячные семидесятитысячных
семидесятитысячными
восьмидесятитысячный восьмидесятитысячного восьмидесятитысячному восьмидесятитысячным восьмидесятитысячном восьмидесятитысячная
восьмидесятитысячной восьмидесятитысячную восьмидесятитысячною восьмидесятитысячное восьмидесятитысячные восьмидесятитысячных
восьмидесятитысячными
стотысячный стотысячного стотысячному стотысячным стотысячном стотысячная стотысячной стотысячную стотысячное
стотысячные стотысячных стотысячными стотысячною
миллион миллионного миллионов миллионному миллионном миллионный миллионным миллионом миллиона миллионе миллиону
миллионов
лям ляма лямы лямом лямами лямах лямов
млн
десятимиллионная десятимиллионной десятимиллионными десятимиллионный десятимиллионным десятимиллионному
десятимиллионными десятимиллионную десятимиллионное десятимиллионные десятимиллионных десятимиллионною
миллиард миллиардного миллиардному миллиардном миллиардный миллиардным миллиардом миллиарда миллиарде миллиарду
миллиардов
лярд лярда лярды лярдом лярдами лярдах лярдов
млрд
триллион триллионного триллионному триллионном триллионный триллионным триллионом триллиона триллионе триллиону
триллионов трлн
квадриллион квадриллионного квадриллионному квадриллионный квадриллионным квадриллионом квадриллиона квадриллионе
квадриллиону квадриллионов квадрлн
квинтиллион квинтиллионного квинтиллионному квинтиллионный квинтиллионным квинтиллионом квинтиллиона квинтиллионе
квинтиллиону квинтиллионов квинтлн
i ii iii iv v vi vii viii ix x xi xii xiii xiv xv xvi xvii xviii xix xx xxi xxii xxiii xxiv xxv xxvi xxvii xxvii xxix
""".split()
)
)
def like_num(text):
if text.startswith(("+", "-", "±", "~")):
text = text[1:]
if text.endswith("%"):
text = text[:-1]
text = text.replace(",", "").replace(".", "")
if text.isdigit():
return True
if text.count("/") == 1:
num, denom = text.split("/")
if num.isdigit() and denom.isdigit():
return True
if text.lower() in _num_words:
return True
return False
LEX_ATTRS = {LIKE_NUM: like_num}
| 10,247 | 43.751092 | 128 | py |
spaCy | spaCy-master/spacy/lang/ru/stop_words.py | STOP_WORDS = set(
"""
а авось ага агу аж ай али алло ау ах ая
б будем будет будете будешь буду будут будучи будь будьте бы был была были было
быть бац без безусловно бишь благо благодаря ближайшие близко более больше
будто бывает бывала бывали бываю бывают бытует
в вам вами вас весь во вот все всё всего всей всем всём всеми всему всех всею
всея всю вся вы ваш ваша ваше ваши вдали вдобавок вдруг ведь везде вернее
взаимно взаправду видно вишь включая вместо внакладе вначале вне вниз внизу
вновь вовсе возможно воистину вокруг вон вообще вопреки вперекор вплоть
вполне вправду вправе впрочем впрямь вресноту вроде вряд всегда всюду
всякий всякого всякой всячески вчеред
г го где гораздо гав
д да для до дабы давайте давно давным даже далее далеко дальше данная
данного данное данной данном данному данные данный данных дану данунах
даром де действительно довольно доколе доколь долго должен должна
должно должны должный дополнительно другая другие другим другими
других другое другой
е его едим едят ее её ей ел ела ем ему емъ если ест есть ешь еще ещё ею едва
ежели еле
ж же
з за затем зато зачем здесь значит зря
и из или им ими имъ их ибо иль имеет имел имела имело именно иметь иначе
иногда иным иными итак ишь
й
к как кем ко когда кого ком кому комья которая которого которое которой котором
которому которою которую которые который которым которыми которых кто ка кабы
каждая каждое каждые каждый кажется казалась казались казалось казался казаться
какая какие каким какими каков какого какой какому какою касательно кой коли
коль конечно короче кроме кстати ку куда
л ли либо лишь любая любого любое любой любом любую любыми любых
м меня мне мной мною мог моги могите могла могли могло могу могут мое моё моего
моей моем моём моему моею можем может можете можешь мои мой моим моими моих
мочь мою моя мы мало меж между менее меньше мимо многие много многого многое
многом многому можно мол му
н на нам нами нас наса наш наша наше нашего нашей нашем нашему нашею наши нашим
нашими наших нашу не него нее неё ней нем нём нему нет нею ним ними них но
наверняка наверху навряд навыворот над надо назад наиболее наизворот
наизнанку наипаче накануне наконец наоборот наперед наперекор наподобие
например напротив напрямую насилу настоящая настоящее настоящие настоящий
насчет нате находиться начала начале неважно негде недавно недалеко незачем
некем некогда некому некоторая некоторые некоторый некоторых некто некуда
нельзя немногие немногим немного необходимо необходимости необходимые
необходимым неоткуда непрерывно нередко несколько нету неужели нечего
нечем нечему нечто нешто нибудь нигде ниже низко никак никакой никем
никогда никого никому никто никуда ниоткуда нипочем ничего ничем ничему
ничто ну нужная нужно нужного нужные нужный нужных ныне нынешнее нынешней
нынешних нынче
о об один одна одни одним одними одних одно одного одной одном одному одною
одну он она оне они оно от оба общую обычно ого однажды однако ой около оный
оп опять особенно особо особую особые откуда отнелижа отнелиже отовсюду
отсюда оттого оттот оттуда отчего отчему ох очевидно очень ом
п по при паче перед под подавно поди подобная подобно подобного подобные
подобный подобным подобных поелику пожалуй пожалуйста позже поистине
пока покамест поколе поколь покуда покудова помимо понеже поприще пор
пора посему поскольку после посреди посредством потом потому потомушта
похожем почему почти поэтому прежде притом причем про просто прочего
прочее прочему прочими проще прям пусть
р ради разве ранее рано раньше рядом
с сам сама сами самим самими самих само самого самом самому саму свое своё
своего своей своем своём своему своею свои свой своим своими своих свою своя
себе себя собой собою самая самое самой самый самых сверх свыше се сего сей
сейчас сие сих сквозь сколько скорее скоро следует слишком смогут сможет
сначала снова со собственно совсем сперва спокону спустя сразу среди сродни
стал стала стали стало стать суть сызнова
та то ту ты ти так такая такие таким такими таких такого такое такой таком такому такою
такую те тебе тебя тем теми тех тобой тобою того той только том томах тому
тот тою также таки таков такова там твои твоим твоих твой твоя твоё
теперь тогда тоже тотчас точно туда тут тьфу тая
у уже увы уж ура ух ую
ф фу
х ха хе хорошо хотел хотела хотелось хотеть хоть хотя хочешь хочу хуже
ч чего чем чём чему что чтобы часто чаще чей через чтоб чуть чхать чьим
чьих чьё чё
ш ша
щ ща щас
ы ых ые ый
э эта эти этим этими этих это этого этой этом этому этот этою эту эдак эдакий
эй эка экий этак этакий эх
ю
я явно явных яко якобы якоже
""".split()
)
| 4,596 | 40.044643 | 87 | py |
spaCy | spaCy-master/spacy/lang/ru/tokenizer_exceptions.py | from ...symbols import NORM, ORTH
from ...util import update_exc
from ..tokenizer_exceptions import BASE_EXCEPTIONS
_exc = {}
_abbrev_exc = [
# Weekdays abbreviations
{ORTH: "пн", NORM: "понедельник"},
{ORTH: "вт", NORM: "вторник"},
{ORTH: "ср", NORM: "среда"},
{ORTH: "чт", NORM: "четверг"},
{ORTH: "чтв", NORM: "четверг"},
{ORTH: "пт", NORM: "пятница"},
{ORTH: "сб", NORM: "суббота"},
{ORTH: "сбт", NORM: "суббота"},
{ORTH: "вс", NORM: "воскресенье"},
{ORTH: "вскр", NORM: "воскресенье"},
{ORTH: "воскр", NORM: "воскресенье"},
# Months abbreviations
{ORTH: "янв", NORM: "январь"},
{ORTH: "фев", NORM: "февраль"},
{ORTH: "февр", NORM: "февраль"},
{ORTH: "мар", NORM: "март"},
# {ORTH: "март", NORM: "март"},
{ORTH: "мрт", NORM: "март"},
{ORTH: "апр", NORM: "апрель"},
# {ORTH: "май", NORM: "май"},
{ORTH: "июн", NORM: "июнь"},
# {ORTH: "июнь", NORM: "июнь"},
{ORTH: "июл", NORM: "июль"},
# {ORTH: "июль", NORM: "июль"},
{ORTH: "авг", NORM: "август"},
{ORTH: "сен", NORM: "сентябрь"},
{ORTH: "сент", NORM: "сентябрь"},
{ORTH: "окт", NORM: "октябрь"},
{ORTH: "октб", NORM: "октябрь"},
{ORTH: "ноя", NORM: "ноябрь"},
{ORTH: "нояб", NORM: "ноябрь"},
{ORTH: "нбр", NORM: "ноябрь"},
{ORTH: "дек", NORM: "декабрь"},
]
for abbrev_desc in _abbrev_exc:
abbrev = abbrev_desc[ORTH]
for orth in (abbrev, abbrev.capitalize(), abbrev.upper()):
_exc[orth] = [{ORTH: orth, NORM: abbrev_desc[NORM]}]
_exc[orth + "."] = [{ORTH: orth + ".", NORM: abbrev_desc[NORM]}]
for abbr in [
# Year slang abbreviations
{ORTH: "2к15", NORM: "2015"},
{ORTH: "2к16", NORM: "2016"},
{ORTH: "2к17", NORM: "2017"},
{ORTH: "2к18", NORM: "2018"},
{ORTH: "2к19", NORM: "2019"},
{ORTH: "2к20", NORM: "2020"},
{ORTH: "2к21", NORM: "2021"},
{ORTH: "2к22", NORM: "2022"},
{ORTH: "2к23", NORM: "2023"},
{ORTH: "2к24", NORM: "2024"},
{ORTH: "2к25", NORM: "2025"},
{ORTH: "2к26", NORM: "2026"},
{ORTH: "2к27", NORM: "2027"},
{ORTH: "2к28", NORM: "2028"},
{ORTH: "2к29", NORM: "2029"},
{ORTH: "2к30", NORM: "2030"},
]:
_exc[abbr[ORTH]] = [abbr]
for abbr in [
# Profession and academic titles abbreviations
{ORTH: "ак.", NORM: "академик"},
{ORTH: "акад.", NORM: "академик"},
{ORTH: "д-р архитектуры", NORM: "доктор архитектуры"},
{ORTH: "д-р биол. наук", NORM: "доктор биологических наук"},
{ORTH: "д-р ветеринар. наук", NORM: "доктор ветеринарных наук"},
{ORTH: "д-р воен. наук", NORM: "доктор военных наук"},
{ORTH: "д-р геогр. наук", NORM: "доктор географических наук"},
{ORTH: "д-р геол.-минерал. наук", NORM: "доктор геолого-минералогических наук"},
{ORTH: "д-р искусствоведения", NORM: "доктор искусствоведения"},
{ORTH: "д-р ист. наук", NORM: "доктор исторических наук"},
{ORTH: "д-р культурологии", NORM: "доктор культурологии"},
{ORTH: "д-р мед. наук", NORM: "доктор медицинских наук"},
{ORTH: "д-р пед. наук", NORM: "доктор педагогических наук"},
{ORTH: "д-р полит. наук", NORM: "доктор политических наук"},
{ORTH: "д-р психол. наук", NORM: "доктор психологических наук"},
{ORTH: "д-р с.-х. наук", NORM: "доктор сельскохозяйственных наук"},
{ORTH: "д-р социол. наук", NORM: "доктор социологических наук"},
{ORTH: "д-р техн. наук", NORM: "доктор технических наук"},
{ORTH: "д-р фармацевт. наук", NORM: "доктор фармацевтических наук"},
{ORTH: "д-р физ.-мат. наук", NORM: "доктор физико-математических наук"},
{ORTH: "д-р филол. наук", NORM: "доктор филологических наук"},
{ORTH: "д-р филос. наук", NORM: "доктор философских наук"},
{ORTH: "д-р хим. наук", NORM: "доктор химических наук"},
{ORTH: "д-р экон. наук", NORM: "доктор экономических наук"},
{ORTH: "д-р юрид. наук", NORM: "доктор юридических наук"},
{ORTH: "д-р", NORM: "доктор"},
{ORTH: "д.б.н.", NORM: "доктор биологических наук"},
{ORTH: "д.г.-м.н.", NORM: "доктор геолого-минералогических наук"},
{ORTH: "д.г.н.", NORM: "доктор географических наук"},
{ORTH: "д.и.н.", NORM: "доктор исторических наук"},
{ORTH: "д.иск.", NORM: "доктор искусствоведения"},
{ORTH: "д.м.н.", NORM: "доктор медицинских наук"},
{ORTH: "д.п.н.", NORM: "доктор психологических наук"},
{ORTH: "д.пед.н.", NORM: "доктор педагогических наук"},
{ORTH: "д.полит.н.", NORM: "доктор политических наук"},
{ORTH: "д.с.-х.н.", NORM: "доктор сельскохозяйственных наук"},
{ORTH: "д.социол.н.", NORM: "доктор социологических наук"},
{ORTH: "д.т.н.", NORM: "доктор технических наук"},
{ORTH: "д.т.н", NORM: "доктор технических наук"},
{ORTH: "д.ф.-м.н.", NORM: "доктор физико-математических наук"},
{ORTH: "д.ф.н.", NORM: "доктор филологических наук"},
{ORTH: "д.филос.н.", NORM: "доктор философских наук"},
{ORTH: "д.фил.н.", NORM: "доктор филологических наук"},
{ORTH: "д.х.н.", NORM: "доктор химических наук"},
{ORTH: "д.э.н.", NORM: "доктор экономических наук"},
{ORTH: "д.э.н", NORM: "доктор экономических наук"},
{ORTH: "д.ю.н.", NORM: "доктор юридических наук"},
{ORTH: "доц.", NORM: "доцент"},
{ORTH: "и.о.", NORM: "исполняющий обязанности"},
{ORTH: "к.б.н.", NORM: "кандидат биологических наук"},
{ORTH: "к.воен.н.", NORM: "кандидат военных наук"},
{ORTH: "к.г.-м.н.", NORM: "кандидат геолого-минералогических наук"},
{ORTH: "к.г.н.", NORM: "кандидат географических наук"},
{ORTH: "к.геогр.н", NORM: "кандидат географических наук"},
{ORTH: "к.геогр.наук", NORM: "кандидат географических наук"},
{ORTH: "к.и.н.", NORM: "кандидат исторических наук"},
{ORTH: "к.иск.", NORM: "кандидат искусствоведения"},
{ORTH: "к.м.н.", NORM: "кандидат медицинских наук"},
{ORTH: "к.п.н.", NORM: "кандидат психологических наук"},
{ORTH: "к.псх.н.", NORM: "кандидат психологических наук"},
{ORTH: "к.пед.н.", NORM: "кандидат педагогических наук"},
{ORTH: "канд.пед.наук", NORM: "кандидат педагогических наук"},
{ORTH: "к.полит.н.", NORM: "кандидат политических наук"},
{ORTH: "к.с.-х.н.", NORM: "кандидат сельскохозяйственных наук"},
{ORTH: "к.социол.н.", NORM: "кандидат социологических наук"},
{ORTH: "к.с.н.", NORM: "кандидат социологических наук"},
{ORTH: "к.т.н.", NORM: "кандидат технических наук"},
{ORTH: "к.ф.-м.н.", NORM: "кандидат физико-математических наук"},
{ORTH: "к.ф.н.", NORM: "кандидат филологических наук"},
{ORTH: "к.фил.н.", NORM: "кандидат филологических наук"},
{ORTH: "к.филол.н", NORM: "кандидат филологических наук"},
{ORTH: "к.фарм.наук", NORM: "кандидат фармакологических наук"},
{ORTH: "к.фарм.н.", NORM: "кандидат фармакологических наук"},
{ORTH: "к.фарм.н", NORM: "кандидат фармакологических наук"},
{ORTH: "к.филос.наук", NORM: "кандидат философских наук"},
{ORTH: "к.филос.н.", NORM: "кандидат философских наук"},
{ORTH: "к.филос.н", NORM: "кандидат философских наук"},
{ORTH: "к.х.н.", NORM: "кандидат химических наук"},
{ORTH: "к.х.н", NORM: "кандидат химических наук"},
{ORTH: "к.э.н.", NORM: "кандидат экономических наук"},
{ORTH: "к.э.н", NORM: "кандидат экономических наук"},
{ORTH: "к.ю.н.", NORM: "кандидат юридических наук"},
{ORTH: "к.ю.н", NORM: "кандидат юридических наук"},
{ORTH: "канд. архитектуры", NORM: "кандидат архитектуры"},
{ORTH: "канд. биол. наук", NORM: "кандидат биологических наук"},
{ORTH: "канд. ветеринар. наук", NORM: "кандидат ветеринарных наук"},
{ORTH: "канд. воен. наук", NORM: "кандидат военных наук"},
{ORTH: "канд. геогр. наук", NORM: "кандидат географических наук"},
{ORTH: "канд. геол.-минерал. наук", NORM: "кандидат геолого-минералогических наук"},
{ORTH: "канд. искусствоведения", NORM: "кандидат искусствоведения"},
{ORTH: "канд. ист. наук", NORM: "кандидат исторических наук"},
{ORTH: "к.ист.н.", NORM: "кандидат исторических наук"},
{ORTH: "канд. культурологии", NORM: "кандидат культурологии"},
{ORTH: "канд. мед. наук", NORM: "кандидат медицинских наук"},
{ORTH: "канд. пед. наук", NORM: "кандидат педагогических наук"},
{ORTH: "канд. полит. наук", NORM: "кандидат политических наук"},
{ORTH: "канд. психол. наук", NORM: "кандидат психологических наук"},
{ORTH: "канд. с.-х. наук", NORM: "кандидат сельскохозяйственных наук"},
{ORTH: "канд. социол. наук", NORM: "кандидат социологических наук"},
{ORTH: "к.соц.наук", NORM: "кандидат социологических наук"},
{ORTH: "к.соц.н.", NORM: "кандидат социологических наук"},
{ORTH: "к.соц.н", NORM: "кандидат социологических наук"},
{ORTH: "канд. техн. наук", NORM: "кандидат технических наук"},
{ORTH: "канд. фармацевт. наук", NORM: "кандидат фармацевтических наук"},
{ORTH: "канд. физ.-мат. наук", NORM: "кандидат физико-математических наук"},
{ORTH: "канд. филол. наук", NORM: "кандидат филологических наук"},
{ORTH: "канд. филос. наук", NORM: "кандидат философских наук"},
{ORTH: "канд. хим. наук", NORM: "кандидат химических наук"},
{ORTH: "канд. экон. наук", NORM: "кандидат экономических наук"},
{ORTH: "канд. юрид. наук", NORM: "кандидат юридических наук"},
{ORTH: "в.н.с.", NORM: "ведущий научный сотрудник"},
{ORTH: "мл. науч. сотр.", NORM: "младший научный сотрудник"},
{ORTH: "м.н.с.", NORM: "младший научный сотрудник"},
{ORTH: "проф.", NORM: "профессор"},
{ORTH: "профессор.кафедры", NORM: "профессор кафедры"},
{ORTH: "ст. науч. сотр.", NORM: "старший научный сотрудник"},
{ORTH: "чл.-к.", NORM: "член корреспондент"},
{ORTH: "чл.-корр.", NORM: "член-корреспондент"},
{ORTH: "чл.-кор.", NORM: "член-корреспондент"},
{ORTH: "дир.", NORM: "директор"},
{ORTH: "зам. дир.", NORM: "заместитель директора"},
{ORTH: "зав. каф.", NORM: "заведующий кафедрой"},
{ORTH: "зав.кафедрой", NORM: "заведующий кафедрой"},
{ORTH: "зав. кафедрой", NORM: "заведующий кафедрой"},
{ORTH: "асп.", NORM: "аспирант"},
{ORTH: "гл. науч. сотр.", NORM: "главный научный сотрудник"},
{ORTH: "вед. науч. сотр.", NORM: "ведущий научный сотрудник"},
{ORTH: "науч. сотр.", NORM: "научный сотрудник"},
{ORTH: "к.м.с.", NORM: "кандидат в мастера спорта"},
]:
_exc[abbr[ORTH]] = [abbr]
for abbr in [
# Literary phrases abbreviations
{ORTH: "и т.д.", NORM: "и так далее"},
{ORTH: "и т.п.", NORM: "и тому подобное"},
{ORTH: "т.д.", NORM: "так далее"},
{ORTH: "т.п.", NORM: "тому подобное"},
{ORTH: "т.е.", NORM: "то есть"},
{ORTH: "т.к.", NORM: "так как"},
{ORTH: "в т.ч.", NORM: "в том числе"},
{ORTH: "и пр.", NORM: "и прочие"},
{ORTH: "и др.", NORM: "и другие"},
{ORTH: "т.н.", NORM: "так называемый"},
]:
_exc[abbr[ORTH]] = [abbr]
for abbr in [
# Appeal to a person abbreviations
{ORTH: "г-н", NORM: "господин"},
{ORTH: "г-да", NORM: "господа"},
{ORTH: "г-жа", NORM: "госпожа"},
{ORTH: "тов.", NORM: "товарищ"},
]:
_exc[abbr[ORTH]] = [abbr]
for abbr in [
# Time periods abbreviations
{ORTH: "до н.э.", NORM: "до нашей эры"},
{ORTH: "по н.в.", NORM: "по настоящее время"},
{ORTH: "в н.в.", NORM: "в настоящее время"},
{ORTH: "наст.", NORM: "настоящий"},
{ORTH: "наст. время", NORM: "настоящее время"},
{ORTH: "г.г.", NORM: "годы"},
{ORTH: "гг.", NORM: "годы"},
{ORTH: "т.г.", NORM: "текущий год"},
]:
_exc[abbr[ORTH]] = [abbr]
for abbr in [
# Address forming elements abbreviations
{ORTH: "респ.", NORM: "республика"},
{ORTH: "обл.", NORM: "область"},
{ORTH: "г.ф.з.", NORM: "город федерального значения"},
{ORTH: "а.обл.", NORM: "автономная область"},
{ORTH: "а.окр.", NORM: "автономный округ"},
{ORTH: "м.р-н", NORM: "муниципальный район"},
{ORTH: "г.о.", NORM: "городской округ"},
{ORTH: "г.п.", NORM: "городское поселение"},
{ORTH: "с.п.", NORM: "сельское поселение"},
{ORTH: "вн.р-н", NORM: "внутригородской район"},
{ORTH: "вн.тер.г.", NORM: "внутригородская территория города"},
{ORTH: "пос.", NORM: "поселение"},
{ORTH: "р-н", NORM: "район"},
{ORTH: "с/с", NORM: "сельсовет"},
{ORTH: "г.", NORM: "город"},
{ORTH: "п.г.т.", NORM: "поселок городского типа"},
{ORTH: "пгт.", NORM: "поселок городского типа"},
{ORTH: "р.п.", NORM: "рабочий поселок"},
{ORTH: "рп.", NORM: "рабочий поселок"},
{ORTH: "кп.", NORM: "курортный поселок"},
{ORTH: "гп.", NORM: "городской поселок"},
{ORTH: "п.", NORM: "поселок"},
{ORTH: "в-ки", NORM: "выселки"},
{ORTH: "г-к", NORM: "городок"},
{ORTH: "з-ка", NORM: "заимка"},
{ORTH: "п-к", NORM: "починок"},
{ORTH: "киш.", NORM: "кишлак"},
{ORTH: "п. ст.", NORM: "поселок станция"},
{ORTH: "п. ж/д ст.", NORM: "поселок при железнодорожной станции"},
{ORTH: "ж/д бл-ст", NORM: "железнодорожный блокпост"},
{ORTH: "ж/д б-ка", NORM: "железнодорожная будка"},
{ORTH: "ж/д в-ка", NORM: "железнодорожная ветка"},
{ORTH: "ж/д к-ма", NORM: "железнодорожная казарма"},
{ORTH: "ж/д к-т", NORM: "железнодорожный комбинат"},
{ORTH: "ж/д пл-ма", NORM: "железнодорожная платформа"},
{ORTH: "ж/д пл-ка", NORM: "железнодорожная площадка"},
{ORTH: "ж/д п.п.", NORM: "железнодорожный путевой пост"},
{ORTH: "ж/д о.п.", NORM: "железнодорожный остановочный пункт"},
{ORTH: "ж/д рзд.", NORM: "железнодорожный разъезд"},
{ORTH: "ж/д ст.", NORM: "железнодорожная станция"},
{ORTH: "м-ко", NORM: "местечко"},
{ORTH: "д.", NORM: "деревня"},
{ORTH: "с.", NORM: "село"},
{ORTH: "сл.", NORM: "слобода"},
{ORTH: "ст.", NORM: "станция"},
{ORTH: "ст-ца", NORM: "станица"},
{ORTH: "у.", NORM: "улус"},
{ORTH: "х.", NORM: "хутор"},
{ORTH: "рзд.", NORM: "разъезд"},
{ORTH: "зим.", NORM: "зимовье"},
{ORTH: "б-г", NORM: "берег"},
{ORTH: "ж/р", NORM: "жилой район"},
{ORTH: "кв-л", NORM: "квартал"},
{ORTH: "мкр.", NORM: "микрорайон"},
{ORTH: "ост-в", NORM: "остров"},
{ORTH: "платф.", NORM: "платформа"},
{ORTH: "п/р", NORM: "промышленный район"},
{ORTH: "р-н", NORM: "район"},
{ORTH: "тер.", NORM: "территория"},
{
ORTH: "тер. СНО",
NORM: "территория садоводческих некоммерческих объединений граждан",
},
{
ORTH: "тер. ОНО",
NORM: "территория огороднических некоммерческих объединений граждан",
},
{ORTH: "тер. ДНО", NORM: "территория дачных некоммерческих объединений граждан"},
{ORTH: "тер. СНТ", NORM: "территория садоводческих некоммерческих товариществ"},
{ORTH: "тер. ОНТ", NORM: "территория огороднических некоммерческих товариществ"},
{ORTH: "тер. ДНТ", NORM: "территория дачных некоммерческих товариществ"},
{ORTH: "тер. СПК", NORM: "территория садоводческих потребительских кооперативов"},
{ORTH: "тер. ОПК", NORM: "территория огороднических потребительских кооперативов"},
{ORTH: "тер. ДПК", NORM: "территория дачных потребительских кооперативов"},
{ORTH: "тер. СНП", NORM: "территория садоводческих некоммерческих партнерств"},
{ORTH: "тер. ОНП", NORM: "территория огороднических некоммерческих партнерств"},
{ORTH: "тер. ДНП", NORM: "территория дачных некоммерческих партнерств"},
{ORTH: "тер. ТСН", NORM: "территория товарищества собственников недвижимости"},
{ORTH: "тер. ГСК", NORM: "территория гаражно-строительного кооператива"},
{ORTH: "ус.", NORM: "усадьба"},
{ORTH: "тер.ф.х.", NORM: "территория фермерского хозяйства"},
{ORTH: "ю.", NORM: "юрты"},
{ORTH: "ал.", NORM: "аллея"},
{ORTH: "б-р", NORM: "бульвар"},
{ORTH: "взв.", NORM: "взвоз"},
{ORTH: "взд.", NORM: "въезд"},
{ORTH: "дор.", NORM: "дорога"},
{ORTH: "ззд.", NORM: "заезд"},
{ORTH: "км", NORM: "километр"},
{ORTH: "к-цо", NORM: "кольцо"},
{ORTH: "лн.", NORM: "линия"},
{ORTH: "мгстр.", NORM: "магистраль"},
{ORTH: "наб.", NORM: "набережная"},
{ORTH: "пер-д", NORM: "переезд"},
{ORTH: "пер.", NORM: "переулок"},
{ORTH: "пл-ка", NORM: "площадка"},
{ORTH: "пл.", NORM: "площадь"},
{ORTH: "пр-д", NORM: "проезд"},
{ORTH: "пр-к", NORM: "просек"},
{ORTH: "пр-ка", NORM: "просека"},
{ORTH: "пр-лок", NORM: "проселок"},
{ORTH: "пр-кт", NORM: "проспект"},
{ORTH: "проул.", NORM: "проулок"},
{ORTH: "рзд.", NORM: "разъезд"},
{ORTH: "ряд", NORM: "ряд(ы)"},
{ORTH: "с-р", NORM: "сквер"},
{ORTH: "с-к", NORM: "спуск"},
{ORTH: "сзд.", NORM: "съезд"},
{ORTH: "туп.", NORM: "тупик"},
{ORTH: "ул.", NORM: "улица"},
{ORTH: "ш.", NORM: "шоссе"},
{ORTH: "влд.", NORM: "владение"},
{ORTH: "г-ж", NORM: "гараж"},
{ORTH: "д.", NORM: "дом"},
{ORTH: "двлд.", NORM: "домовладение"},
{ORTH: "зд.", NORM: "здание"},
{ORTH: "з/у", NORM: "земельный участок"},
{ORTH: "кв.", NORM: "квартира"},
{ORTH: "ком.", NORM: "комната"},
{ORTH: "подв.", NORM: "подвал"},
{ORTH: "кот.", NORM: "котельная"},
{ORTH: "п-б", NORM: "погреб"},
{ORTH: "к.", NORM: "корпус"},
{ORTH: "ОНС", NORM: "объект незавершенного строительства"},
{ORTH: "оф.", NORM: "офис"},
{ORTH: "пав.", NORM: "павильон"},
{ORTH: "помещ.", NORM: "помещение"},
{ORTH: "раб.уч.", NORM: "рабочий участок"},
{ORTH: "скл.", NORM: "склад"},
{ORTH: "coop.", NORM: "сооружение"},
{ORTH: "стр.", NORM: "строение"},
{ORTH: "торг.зал", NORM: "торговый зал"},
{ORTH: "а/п", NORM: "аэропорт"},
{ORTH: "им.", NORM: "имени"},
]:
_exc[abbr[ORTH]] = [abbr]
for abbr in [
# Others abbreviations
{ORTH: "тыс.руб.", NORM: "тысяч рублей"},
{ORTH: "тыс.", NORM: "тысяч"},
{ORTH: "руб.", NORM: "рубль"},
{ORTH: "долл.", NORM: "доллар"},
{ORTH: "прим.", NORM: "примечание"},
{ORTH: "прим.ред.", NORM: "примечание редакции"},
{ORTH: "см. также", NORM: "смотри также"},
{ORTH: "см.", NORM: "смотри"},
{ORTH: "кв.м.", NORM: "квадратный метр"},
{ORTH: "м2", NORM: "квадратный метр"},
{ORTH: "б/у", NORM: "бывший в употреблении"},
{ORTH: "сокр.", NORM: "сокращение"},
{ORTH: "чел.", NORM: "человек"},
{ORTH: "б.п.", NORM: "базисный пункт"},
]:
_exc[abbr[ORTH]] = [abbr]
TOKENIZER_EXCEPTIONS = update_exc(BASE_EXCEPTIONS, _exc)
| 18,289 | 43.828431 | 88 | py |
spaCy | spaCy-master/spacy/lang/sa/__init__.py | from ...language import BaseDefaults, Language
from .lex_attrs import LEX_ATTRS
from .stop_words import STOP_WORDS
class SanskritDefaults(BaseDefaults):
lex_attr_getters = LEX_ATTRS
stop_words = STOP_WORDS
class Sanskrit(Language):
lang = "sa"
Defaults = SanskritDefaults
__all__ = ["Sanskrit"]
| 317 | 17.705882 | 46 | py |
spaCy | spaCy-master/spacy/lang/sa/examples.py | """
Example sentences to test spaCy and its language models.
>>> from spacy.lang.sa.examples import sentences
>>> docs = nlp.pipe(sentences)
"""
sentences = [
"अभ्यावहति कल्याणं विविधं वाक् सुभाषिता ।",
"मनसि व्याकुले चक्षुः पश्यन्नपि न पश्यति ।",
"यस्य बुद्धिर्बलं तस्य निर्बुद्धेस्तु कुतो बलम्?",
"परो अपि हितवान् बन्धुः बन्धुः अपि अहितः परः ।",
"अहितः देहजः व्याधिः हितम् आरण्यं औषधम् ॥",
]
| 417 | 25.125 | 56 | py |
spaCy | spaCy-master/spacy/lang/sa/lex_attrs.py | from ...attrs import LIKE_NUM
# reference 1: https://en.wikibooks.org/wiki/Sanskrit/Numbers
_num_words = [
"एकः",
"द्वौ",
"त्रयः",
"चत्वारः",
"पञ्च",
"षट्",
"सप्त",
"अष्ट",
"नव",
"दश",
"एकादश",
"द्वादश",
"त्रयोदश",
"चतुर्दश",
"पञ्चदश",
"षोडश",
"सप्तदश",
"अष्टादश",
"एकान्नविंशति",
"विंशति",
"एकाविंशति",
"द्वाविंशति",
"त्रयोविंशति",
"चतुर्विंशति",
"पञ्चविंशति",
"षड्विंशति",
"सप्तविंशति",
"अष्टाविंशति",
"एकान्नत्रिंशत्",
"त्रिंशत्",
"एकत्रिंशत्",
"द्वात्रिंशत्",
"त्रयत्रिंशत्",
"चतुस्त्रिंशत्",
"पञ्चत्रिंशत्",
"षट्त्रिंशत्",
"सप्तत्रिंशत्",
"अष्टात्रिंशत्",
"एकोनचत्वारिंशत्",
"चत्वारिंशत्",
"एकचत्वारिंशत्",
"द्वाचत्वारिंशत्",
"त्रयश्चत्वारिंशत्",
"चतुश्चत्वारिंशत्",
"पञ्चचत्वारिंशत्",
"षट्चत्वारिंशत्",
"सप्तचत्वारिंशत्",
"अष्टाचत्वारिंशत्",
"एकोनपञ्चाशत्",
"पञ्चाशत्",
"एकपञ्चाशत्",
"द्विपञ्चाशत्",
"त्रिपञ्चाशत्",
"चतुःपञ्चाशत्",
"पञ्चपञ्चाशत्",
"षट्पञ्चाशत्",
"सप्तपञ्चाशत्",
"अष्टपञ्चाशत्",
"एकोनषष्ठिः",
"षष्ठिः",
"एकषष्ठिः",
"द्विषष्ठिः",
"त्रिषष्ठिः",
"चतुःषष्ठिः",
"पञ्चषष्ठिः",
"षट्षष्ठिः",
"सप्तषष्ठिः",
"अष्टषष्ठिः",
"एकोनसप्ततिः",
"सप्ततिः",
"एकसप्ततिः",
"द्विसप्ततिः",
"त्रिसप्ततिः",
"चतुःसप्ततिः",
"पञ्चसप्ततिः",
"षट्सप्ततिः",
"सप्तसप्ततिः",
"अष्टसप्ततिः",
"एकोनाशीतिः",
"अशीतिः",
"एकाशीतिः",
"द्वशीतिः",
"त्र्यशीतिः",
"चतुरशीतिः",
"पञ्चाशीतिः",
"षडशीतिः",
"सप्ताशीतिः",
"अष्टाशीतिः",
"एकोननवतिः",
"नवतिः",
"एकनवतिः",
"द्विनवतिः",
"त्रिनवतिः",
"चतुर्नवतिः",
"पञ्चनवतिः",
"षण्णवतिः",
"सप्तनवतिः",
"अष्टनवतिः",
"एकोनशतम्",
"शतम्",
]
def like_num(text):
"""
Check if text resembles a number
"""
if text.startswith(("+", "-", "±", "~")):
text = text[1:]
text = text.replace(",", "").replace(".", "")
if text.isdigit():
return True
if text.count("/") == 1:
num, denom = text.split("/")
if num.isdigit() and denom.isdigit():
return True
if text in _num_words:
return True
return False
LEX_ATTRS = {LIKE_NUM: like_num}
| 2,326 | 17.179688 | 61 | py |
spaCy | spaCy-master/spacy/lang/sa/stop_words.py | # Source: https://gist.github.com/Akhilesh28/fe8b8e180f64b72e64751bc31cb6d323
STOP_WORDS = set(
"""
अहम्
आवाम्
वयम्
माम् मा
आवाम्
अस्मान् नः
मया
आवाभ्याम्
अस्माभिस्
मह्यम् मे
आवाभ्याम् नौ
अस्मभ्यम् नः
मत्
आवाभ्याम्
अस्मत्
मम मे
आवयोः
अस्माकम् नः
मयि
आवयोः
अस्मासु
त्वम्
युवाम्
यूयम्
त्वाम् त्वा
युवाम् वाम्
युष्मान् वः
त्वया
युवाभ्याम्
युष्माभिः
तुभ्यम् ते
युवाभ्याम् वाम्
युष्मभ्यम् वः
त्वत्
युवाभ्याम्
युष्मत्
तव ते
युवयोः वाम्
युष्माकम् वः
त्वयि
युवयोः
युष्मासु
सः
तौ
ते
तम्
तौ
तान्
तेन
ताभ्याम्
तैः
तस्मै
ताभ्याम्
तेभ्यः
तस्मात्
ताभ्याम्
तेभ्यः
तस्य
तयोः
तेषाम्
तस्मिन्
तयोः
तेषु
सा
ते
ताः
ताम्
ते
ताः
तया
ताभ्याम्
ताभिः
तस्यै
ताभ्याम्
ताभ्यः
तस्याः
ताभ्याम्
ताभ्यः
तस्य
तयोः
तासाम्
तस्याम्
तयोः
तासु
तत्
ते
तानि
तत्
ते
तानि
तया
ताभ्याम्
ताभिः
तस्यै
ताभ्याम्
ताभ्यः
तस्याः
ताभ्याम्
ताभ्यः
तस्य
तयोः
तासाम्
तस्याम्
तयोः
तासु
अयम्
इमौ
इमे
इमम्
इमौ
इमान्
अनेन
आभ्याम्
एभिः
अस्मै
आभ्याम्
एभ्यः
अस्मात्
आभ्याम्
एभ्यः
अस्य
अनयोः
एषाम्
अस्मिन्
अनयोः
एषु
इयम्
इमे
इमाः
इमाम्
इमे
इमाः
अनया
आभ्याम्
आभिः
अस्यै
आभ्याम्
आभ्यः
अस्याः
आभ्याम्
आभ्यः
अस्याः
अनयोः
आसाम्
अस्याम्
अनयोः
आसु
इदम्
इमे
इमानि
इदम्
इमे
इमानि
अनेन
आभ्याम्
एभिः
अस्मै
आभ्याम्
एभ्यः
अस्मात्
आभ्याम्
एभ्यः
अस्य
अनयोः
एषाम्
अस्मिन्
अनयोः
एषु
एषः
एतौ
एते
एतम् एनम्
एतौ एनौ
एतान् एनान्
एतेन
एताभ्याम्
एतैः
एतस्मै
एताभ्याम्
एतेभ्यः
एतस्मात्
एताभ्याम्
एतेभ्यः
एतस्य
एतस्मिन्
एतेषाम्
एतस्मिन्
एतस्मिन्
एतेषु
एषा
एते
एताः
एताम् एनाम्
एते एने
एताः एनाः
एतया एनया
एताभ्याम्
एताभिः
एतस्यै
एताभ्याम्
एताभ्यः
एतस्याः
एताभ्याम्
एताभ्यः
एतस्याः
एतयोः एनयोः
एतासाम्
एतस्याम्
एतयोः एनयोः
एतासु
एतत् एतद्
एते
एतानि
एतत् एतद् एनत् एनद्
एते एने
एतानि एनानि
एतेन एनेन
एताभ्याम्
एतैः
एतस्मै
एताभ्याम्
एतेभ्यः
एतस्मात्
एताभ्याम्
एतेभ्यः
एतस्य
एतयोः एनयोः
एतेषाम्
एतस्मिन्
एतयोः एनयोः
एतेषु
असौ
अमू
अमी
अमूम्
अमू
अमून्
अमुना
अमूभ्याम्
अमीभिः
अमुष्मै
अमूभ्याम्
अमीभ्यः
अमुष्मात्
अमूभ्याम्
अमीभ्यः
अमुष्य
अमुयोः
अमीषाम्
अमुष्मिन्
अमुयोः
अमीषु
असौ
अमू
अमूः
अमूम्
अमू
अमूः
अमुया
अमूभ्याम्
अमूभिः
अमुष्यै
अमूभ्याम्
अमूभ्यः
अमुष्याः
अमूभ्याम्
अमूभ्यः
अमुष्याः
अमुयोः
अमूषाम्
अमुष्याम्
अमुयोः
अमूषु
अमु
अमुनी
अमूनि
अमु
अमुनी
अमूनि
अमुना
अमूभ्याम्
अमीभिः
अमुष्मै
अमूभ्याम्
अमीभ्यः
अमुष्मात्
अमूभ्याम्
अमीभ्यः
अमुष्य
अमुयोः
अमीषाम्
अमुष्मिन्
अमुयोः
अमीषु
कः
कौ
के
कम्
कौ
कान्
केन
काभ्याम्
कैः
कस्मै
काभ्याम्
केभ्य
कस्मात्
काभ्याम्
केभ्य
कस्य
कयोः
केषाम्
कस्मिन्
कयोः
केषु
का
के
काः
काम्
के
काः
कया
काभ्याम्
काभिः
कस्यै
काभ्याम्
काभ्यः
कस्याः
काभ्याम्
काभ्यः
कस्याः
कयोः
कासाम्
कस्याम्
कयोः
कासु
किम्
के
कानि
किम्
के
कानि
केन
काभ्याम्
कैः
कस्मै
काभ्याम्
केभ्य
कस्मात्
काभ्याम्
केभ्य
कस्य
कयोः
केषाम्
कस्मिन्
कयोः
केषु
भवान्
भवन्तौ
भवन्तः
भवन्तम्
भवन्तौ
भवतः
भवता
भवद्भ्याम्
भवद्भिः
भवते
भवद्भ्याम्
भवद्भ्यः
भवतः
भवद्भ्याम्
भवद्भ्यः
भवतः
भवतोः
भवताम्
भवति
भवतोः
भवत्सु
भवती
भवत्यौ
भवत्यः
भवतीम्
भवत्यौ
भवतीः
भवत्या
भवतीभ्याम्
भवतीभिः
भवत्यै
भवतीभ्याम्
भवतीभिः
भवत्याः
भवतीभ्याम्
भवतीभिः
भवत्याः
भवत्योः
भवतीनाम्
भवत्याम्
भवत्योः
भवतीषु
भवत्
भवती
भवन्ति
भवत्
भवती
भवन्ति
भवता
भवद्भ्याम्
भवद्भिः
भवते
भवद्भ्याम्
भवद्भ्यः
भवतः
भवद्भ्याम्
भवद्भ्यः
भवतः
भवतोः
भवताम्
भवति
भवतोः
भवत्सु
अये
अरे
अरेरे
अविधा
असाधुना
अस्तोभ
अहह
अहावस्
आम्
आर्यहलम्
आह
आहो
इस्
उम्
उवे
काम्
कुम्
चमत्
टसत्
दृन्
धिक्
पाट्
फत्
फाट्
फुडुत्
बत
बाल्
वट्
व्यवस्तोभति व्यवस्तुभ्
षाट्
स्तोभ
हुम्मा
हूम्
अति
अधि
अनु
अप
अपि
अभि
अव
आ
उद्
उप
नि
निर्
परा
परि
प्र
प्रति
वि
सम्
अथवा उत
अन्यथा
इव
च
चेत् यदि
तु परन्तु
यतः करणेन हि यतस् यदर्थम् यदर्थे यर्हि यथा यत्कारणम् येन ही हिन
यथा यतस्
यद्यपि
यात् अवधेस् यावति
येन प्रकारेण
स्थाने
अह
एव
एवम्
कच्चित्
कु
कुवित्
कूपत्
च
चण्
चेत्
तत्र
नकिम्
नह
नुनम्
नेत्
भूयस्
मकिम्
मकिर्
यत्र
युगपत्
वा
शश्वत्
सूपत्
ह
हन्त
हि
""".split()
)
| 3,598 | 5.974806 | 77 | py |
spaCy | spaCy-master/spacy/lang/si/__init__.py | from ...language import BaseDefaults, Language
from .lex_attrs import LEX_ATTRS
from .stop_words import STOP_WORDS
class SinhalaDefaults(BaseDefaults):
lex_attr_getters = LEX_ATTRS
stop_words = STOP_WORDS
class Sinhala(Language):
lang = "si"
Defaults = SinhalaDefaults
__all__ = ["Sinhala"]
| 313 | 17.470588 | 46 | py |
spaCy | spaCy-master/spacy/lang/si/examples.py | """
Example sentences to test spaCy and its language models.
>>> from spacy.lang.si.examples import sentences
>>> docs = nlp.pipe(sentences)
"""
sentences = [
"මෙය වාක්යයකි.",
"ඔබ කවුද?",
"ගූගල් සමාගම ඩොලර් මිලියන 500 කට එම ආයතනය මිලදී ගන්නා ලදී.",
"කොළඹ ශ්රී ලංකාවේ ප්රධානතම නගරය යි.",
"ප්රංශයේ ජනාධිපති කවරෙක් ද?",
"මට බිස්කට් 1 ක් දෙන්න",
"ඔවුන් ලකුණු 59 කින් තරඟය පරාජයට පත් විය.",
"1 ත් 10 ත් අතර සංඛ්යාවක් කියන්න",
"ඔහු සහ ඇය නුවර හෝ කොළඹ පදිංචි කරුවන් නොවේ",
]
| 512 | 24.65 | 64 | py |
spaCy | spaCy-master/spacy/lang/si/lex_attrs.py | from ...attrs import LIKE_NUM
_num_words = [
"බින්දුව",
"බිංදුව",
"එක",
"දෙක",
"තුන",
"හතර",
"පහ",
"හය",
"හත",
"අට",
"නවය",
"නමය",
"දහය",
"එකොළහ",
"දොළහ",
"දහතුන",
"දහහතර",
"දාහතර",
"පහළව",
"පහළොව",
"දහසය",
"දහහත",
"දාහත",
"දහඅට",
"දහනවය",
"විස්ස",
"තිහ",
"හතළිහ",
"පනහ",
"හැට",
"හැත්තෑව",
"අසූව",
"අනූව",
"සියය",
"දහස",
"දාහ",
"ලක්ෂය",
"මිලියනය",
"කෝටිය",
"බිලියනය",
"ට්රිලියනය",
]
def like_num(text):
text = text.replace(",", "").replace(".", "")
if text.isdigit():
return True
if text.count("/") == 1:
num, denom = text.split("/")
if num.isdigit() and denom.isdigit():
return True
if text.lower() in _num_words:
return True
return False
LEX_ATTRS = {LIKE_NUM: like_num}
| 907 | 13.645161 | 49 | py |
spaCy | spaCy-master/spacy/lang/si/stop_words.py | STOP_WORDS = set(
"""
සහ
සමග
සමඟ
අහා
ආහ්
ආ
ඕහෝ
අනේ
අඳෝ
අපොයි
අපෝ
අයියෝ
ආයි
ඌයි
චී
චිහ්
චික්
හෝ
දෝ
දෝහෝ
මෙන්
සේ
වැනි
බඳු
වන්
අයුරු
අයුරින්
ලෙස
වැඩි
ශ්රී
හා
ය
නිසා
නිසාවෙන්
බවට
බව
බවෙන්
නම්
වැඩි
සිට
දී
මහා
මහ
පමණ
පමණින්
පමන
වන
විට
විටින්
මේ
මෙලෙස
මෙයින්
ඇති
ලෙස
සිදු
වශයෙන්
යන
සඳහා
මගින්
හෝ
ඉතා
ඒ
එම
ද
අතර
විසින්
සමග
පිළිබඳව
පිළිබඳ
තුළ
බව
වැනි
මහ
මෙම
මෙහි
මේ
වෙත
වෙතින්
වෙතට
වෙනුවෙන්
වෙනුවට
වෙන
ගැන
නෑ
අනුව
නව
පිළිබඳ
විශේෂ
දැනට
එහෙන්
මෙහෙන්
එහේ
මෙහේ
ම
තවත්
තව
සහ
දක්වා
ට
ගේ
එ
ක
ක්
බවත්
බවද
මත
ඇතුලු
ඇතුළු
මෙසේ
වඩා
වඩාත්ම
නිති
නිතිත්
නිතොර
නිතර
ඉක්බිති
දැන්
යලි
පුන
ඉතින්
සිට
සිටන්
පටන්
තෙක්
දක්වා
සා
තාක්
තුවක්
පවා
ද
හෝ
වත්
විනා
හැර
මිස
මුත්
කිම
කිම්
ඇයි
මන්ද
හෙවත්
නොහොත්
පතා
පාසා
ගානෙ
තව
ඉතා
බොහෝ
වහා
සෙද
සැනින්
හනික
එම්බා
එම්බල
බොල
නම්
වනාහි
කලී
ඉඳුරා
අන්න
ඔන්න
මෙන්න
උදෙසා
පිණිස
සඳහා
අරබයා
නිසා
එනිසා
එබැවින්
බැවින්
හෙයින්
සේක්
සේක
ගැන
අනුව
පරිදි
විට
තෙක්
මෙතෙක්
මේතාක්
තුරු
තුරා
තුරාවට
තුලින්
නමුත්
එනමුත්
වස්
මෙන්
ලෙස
පරිදි
එහෙත්
""".split()
)
| 957 | 3.887755 | 17 | py |
spaCy | spaCy-master/spacy/lang/sk/__init__.py | from ...language import BaseDefaults, Language
from .lex_attrs import LEX_ATTRS
from .stop_words import STOP_WORDS
class SlovakDefaults(BaseDefaults):
lex_attr_getters = LEX_ATTRS
stop_words = STOP_WORDS
class Slovak(Language):
lang = "sk"
Defaults = SlovakDefaults
__all__ = ["Slovak"]
| 309 | 17.235294 | 46 | py |
spaCy | spaCy-master/spacy/lang/sk/examples.py | """
Example sentences to test spaCy and its language models.
>>> from spacy.lang.sk.examples import sentences
>>> docs = nlp.pipe(sentences)
"""
sentences = [
"Ardevop, s.r.o. je malá startup firma na území SR.",
"Samojazdiace autá presúvajú poistnú zodpovednosť na výrobcov automobilov.",
"Košice sú na východe.",
"Bratislava je hlavné mesto Slovenskej republiky.",
"Kde si?",
"Kto je prezidentom Francúzska?",
"Aké je hlavné mesto Slovenska?",
"Kedy sa narodil Andrej Kiska?",
"Včera som dostal 100€ na ruku.",
"Dnes je nedeľa 26.1.2020.",
"Narodil sa 15.4.1998 v Ružomberku.",
"Niekto mi povedal, že 500 eur je veľa peňazí.",
"Podaj mi ruku!",
]
| 704 | 28.375 | 80 | py |
spaCy | spaCy-master/spacy/lang/sk/lex_attrs.py | from ...attrs import LIKE_NUM
_num_words = [
"nula",
"jeden",
"dva",
"tri",
"štyri",
"päť",
"šesť",
"sedem",
"osem",
"deväť",
"desať",
"jedenásť",
"dvanásť",
"trinásť",
"štrnásť",
"pätnásť",
"šestnásť",
"sedemnásť",
"osemnásť",
"devätnásť",
"dvadsať",
"tridsať",
"štyridsať",
"päťdesiat",
"šesťdesiat",
"sedemdesiat",
"osemdesiat",
"deväťdesiat",
"sto",
"tisíc",
"milión",
"miliarda",
"bilión",
"biliarda",
"trilión",
"triliarda",
"kvadrilión",
]
def like_num(text):
if text.startswith(("+", "-", "±", "~")):
text = text[1:]
text = text.replace(",", "").replace(".", "")
if text.isdigit():
return True
if text.count("/") == 1:
num, denom = text.split("/")
if num.isdigit() and denom.isdigit():
return True
if text.lower() in _num_words:
return True
return False
LEX_ATTRS = {LIKE_NUM: like_num}
| 1,024 | 16.083333 | 49 | py |
spaCy | spaCy-master/spacy/lang/sk/stop_words.py | # Source: https://github.com/Ardevop-sk/stopwords-sk
STOP_WORDS = set(
"""
a
aby
aj
ak
akej
akejže
ako
akom
akomže
akou
akouže
akože
aká
akáže
aké
akého
akéhože
akému
akémuže
akéže
akú
akúže
aký
akých
akýchže
akým
akými
akýmiže
akýmže
akýže
ale
alebo
ani
asi
avšak
až
ba
bez
bezo
bol
bola
boli
bolo
bude
budem
budeme
budete
budeš
budú
buď
by
byť
cez
cezo
dnes
do
ešte
ho
hoci
i
iba
ich
im
inej
inom
iná
iné
iného
inému
iní
inú
iný
iných
iným
inými
ja
je
jeho
jej
jemu
ju
k
kam
kamže
každou
každá
každé
každého
každému
každí
každú
každý
každých
každým
každými
kde
kej
kejže
keď
keďže
kie
kieho
kiehože
kiemu
kiemuže
kieže
koho
kom
komu
kou
kouže
kto
ktorej
ktorou
ktorá
ktoré
ktorí
ktorú
ktorý
ktorých
ktorým
ktorými
ku
ká
káže
ké
kéže
kú
kúže
ký
kýho
kýhože
kým
kýmu
kýmuže
kýže
lebo
leda
ledaže
len
ma
majú
mal
mala
mali
mať
medzi
mi
mne
mnou
moja
moje
mojej
mojich
mojim
mojimi
mojou
moju
možno
mu
musia
musieť
musí
musím
musíme
musíte
musíš
my
má
mám
máme
máte
máš
môcť
môj
môjho
môže
môžem
môžeme
môžete
môžeš
môžu
mňa
na
nad
nado
najmä
nami
naša
naše
našej
naši
našich
našim
našimi
našou
ne
nech
neho
nej
nejakej
nejakom
nejakou
nejaká
nejaké
nejakého
nejakému
nejakú
nejaký
nejakých
nejakým
nejakými
nemu
než
nich
nie
niektorej
niektorom
niektorou
niektorá
niektoré
niektorého
niektorému
niektorú
niektorý
niektorých
niektorým
niektorými
nielen
niečo
nim
nimi
nič
ničoho
ničom
ničomu
ničím
no
nám
nás
náš
nášho
ním
o
od
odo
on
ona
oni
ono
ony
oň
oňho
po
pod
podo
podľa
pokiaľ
popod
popri
potom
poza
pre
pred
predo
preto
pretože
prečo
pri
práve
s
sa
seba
sebe
sebou
sem
si
sme
so
som
ste
svoj
svoja
svoje
svojho
svojich
svojim
svojimi
svojou
svoju
svojím
sú
ta
tak
takej
takejto
taká
takáto
také
takého
takéhoto
takému
takémuto
takéto
takí
takú
takúto
taký
takýto
takže
tam
teba
tebe
tebou
teda
tej
tejto
ten
tento
ti
tie
tieto
tiež
to
toho
tohoto
tohto
tom
tomto
tomu
tomuto
toto
tou
touto
tu
tvoj
tvoja
tvoje
tvojej
tvojho
tvoji
tvojich
tvojim
tvojimi
tvojím
ty
tá
táto
tí
títo
tú
túto
tých
tým
tými
týmto
u
už
v
vami
vaša
vaše
vašej
vaši
vašich
vašim
vaším
veď
viac
vo
vy
vám
vás
váš
vášho
však
všetci
všetka
všetko
všetky
všetok
z
za
začo
začože
zo
áno
čej
či
čia
čie
čieho
čiemu
čiu
čo
čoho
čom
čomu
čou
čože
čí
čím
čími
ďalšia
ďalšie
ďalšieho
ďalšiemu
ďalšiu
ďalšom
ďalšou
ďalší
ďalších
ďalším
ďalšími
ňom
ňou
ňu
že
""".split()
)
| 2,346 | 4.522353 | 52 | py |
spaCy | spaCy-master/spacy/lang/sl/__init__.py | from ...language import BaseDefaults, Language
from .lex_attrs import LEX_ATTRS
from .punctuation import TOKENIZER_INFIXES, TOKENIZER_PREFIXES, TOKENIZER_SUFFIXES
from .stop_words import STOP_WORDS
from .tokenizer_exceptions import TOKENIZER_EXCEPTIONS
class SlovenianDefaults(BaseDefaults):
stop_words = STOP_WORDS
tokenizer_exceptions = TOKENIZER_EXCEPTIONS
prefixes = TOKENIZER_PREFIXES
infixes = TOKENIZER_INFIXES
suffixes = TOKENIZER_SUFFIXES
lex_attr_getters = LEX_ATTRS
class Slovenian(Language):
lang = "sl"
Defaults = SlovenianDefaults
__all__ = ["Slovenian"]
| 607 | 25.434783 | 82 | py |
spaCy | spaCy-master/spacy/lang/sl/examples.py | """
Example sentences to test spaCy and its language models.
>>> from spacy.lang.sl.examples import sentences
>>> docs = nlp.pipe(sentences)
"""
sentences = [
"Apple načrtuje nakup britanskega startupa za 1 bilijon dolarjev",
"France Prešeren je umrl 8. februarja 1849 v Kranju",
"Staro ljubljansko letališče Moste bo obnovila družba BTC",
"London je največje mesto v Združenem kraljestvu.",
"Kje se skrivaš?",
"Kdo je predsednik Francije?",
"Katero je glavno mesto Združenih držav Amerike?",
"Kdaj je bil rojen Milan Kučan?",
]
| 564 | 28.736842 | 70 | py |
spaCy | spaCy-master/spacy/lang/sl/lex_attrs.py | import unicodedata
from ...attrs import IS_CURRENCY, LIKE_NUM
_num_words = set(
"""
nula ničla nič ena dva tri štiri pet šest sedem osem
devet deset enajst dvanajst trinajst štirinajst petnajst
šestnajst sedemnajst osemnajst devetnajst dvajset trideset štirideset
petdeset šestdest sedemdeset osemdeset devedeset sto tisoč
milijon bilijon trilijon kvadrilijon nešteto
en eden enega enemu ennem enim enih enima enimi ene eni eno
dveh dvema dvem dvoje trije treh trem tremi troje štirje štirih štirim štirimi
petih petim petimi šestih šestim šestimi sedmih sedmim sedmimi osmih osmim osmimi
devetih devetim devetimi desetih desetim desetimi enajstih enajstim enajstimi
dvanajstih dvanajstim dvanajstimi trinajstih trinajstim trinajstimi
šestnajstih šestnajstim šestnajstimi petnajstih petnajstim petnajstimi
sedemnajstih sedemnajstim sedemnajstimi osemnajstih osemnajstim osemnajstimi
devetnajstih devetnajstim devetnajstimi dvajsetih dvajsetim dvajsetimi
""".split()
)
_ordinal_words = set(
"""
prvi drugi tretji četrti peti šesti sedmi osmi
deveti deseti enajsti dvanajsti trinajsti štirinajsti
petnajsti šestnajsti sedemnajsti osemnajsti devetnajsti
dvajseti trideseti štirideseti petdeseti šestdeseti sedemdeseti
osemdeseti devetdeseti stoti tisoči milijonti bilijonti
trilijonti kvadrilijonti nešteti
prva druga tretja četrta peta šesta sedma osma
deveta deseta enajsta dvanajsta trinajsta štirnajsta
petnajsta šestnajsta sedemnajsta osemnajsta devetnajsta
dvajseta trideseta štirideseta petdeseta šestdeseta sedemdeseta
osemdeseta devetdeseta stota tisoča milijonta bilijonta
trilijonta kvadrilijonta nešteta
prvo drugo tretje četrto peto šestro sedmo osmo
deveto deseto enajsto dvanajsto trinajsto štirnajsto
petnajsto šestnajsto sedemnajsto osemnajsto devetnajsto
dvajseto trideseto štirideseto petdeseto šestdeseto sedemdeseto
osemdeseto devetdeseto stoto tisočo milijonto bilijonto
trilijonto kvadrilijonto nešteto
prvega drugega tretjega četrtega petega šestega sedmega osmega
devega desetega enajstega dvanajstega trinajstega štirnajstega
petnajstega šestnajstega sedemnajstega osemnajstega devetnajstega
dvajsetega tridesetega štiridesetega petdesetega šestdesetega sedemdesetega
osemdesetega devetdesetega stotega tisočega milijontega bilijontega
trilijontega kvadrilijontega neštetega
prvemu drugemu tretjemu četrtemu petemu šestemu sedmemu osmemu devetemu desetemu
enajstemu dvanajstemu trinajstemu štirnajstemu petnajstemu šestnajstemu sedemnajstemu
osemnajstemu devetnajstemu dvajsetemu tridesetemu štiridesetemu petdesetemu šestdesetemu
sedemdesetemu osemdesetemu devetdesetemu stotemu tisočemu milijontemu bilijontemu
trilijontemu kvadrilijontemu neštetemu
prvem drugem tretjem četrtem petem šestem sedmem osmem devetem desetem
enajstem dvanajstem trinajstem štirnajstem petnajstem šestnajstem sedemnajstem
osemnajstem devetnajstem dvajsetem tridesetem štiridesetem petdesetem šestdesetem
sedemdesetem osemdesetem devetdesetem stotem tisočem milijontem bilijontem
trilijontem kvadrilijontem neštetem
prvim drugim tretjim četrtim petim šestim sedtim osmim devetim desetim
enajstim dvanajstim trinajstim štirnajstim petnajstim šestnajstim sedemnajstim
osemnajstim devetnajstim dvajsetim tridesetim štiridesetim petdesetim šestdesetim
sedemdesetim osemdesetim devetdesetim stotim tisočim milijontim bilijontim
trilijontim kvadrilijontim neštetim
prvih drugih tretjih četrthih petih šestih sedmih osmih deveth desetih
enajstih dvanajstih trinajstih štirnajstih petnajstih šestnajstih sedemnajstih
osemnajstih devetnajstih dvajsetih tridesetih štiridesetih petdesetih šestdesetih
sedemdesetih osemdesetih devetdesetih stotih tisočih milijontih bilijontih
trilijontih kvadrilijontih nešteth
prvima drugima tretjima četrtima petima šestima sedmima osmima devetima desetima
enajstima dvanajstima trinajstima štirnajstima petnajstima šestnajstima sedemnajstima
osemnajstima devetnajstima dvajsetima tridesetima štiridesetima petdesetima šestdesetima
sedemdesetima osemdesetima devetdesetima stotima tisočima milijontima bilijontima
trilijontima kvadrilijontima neštetima
prve druge četrte pete šeste sedme osme devete desete
enajste dvanajste trinajste štirnajste petnajste šestnajste sedemnajste
osemnajste devetnajste dvajsete tridesete štiridesete petdesete šestdesete
sedemdesete osemdesete devetdesete stote tisoče milijonte bilijonte
trilijonte kvadrilijonte neštete
prvimi drugimi tretjimi četrtimi petimi šestimi sedtimi osmimi devetimi desetimi
enajstimi dvanajstimi trinajstimi štirnajstimi petnajstimi šestnajstimi sedemnajstimi
osemnajstimi devetnajstimi dvajsetimi tridesetimi štiridesetimi petdesetimi šestdesetimi
sedemdesetimi osemdesetimi devetdesetimi stotimi tisočimi milijontimi bilijontimi
trilijontimi kvadrilijontimi neštetimi
""".split()
)
_currency_words = set(
"""
evro evra evru evrom evrov evroma evrih evrom evre evri evr eur
cent centa centu cenom centov centoma centih centom cente centi
dolar dolarja dolarji dolarju dolarjem dolarjev dolarjema dolarjih dolarje usd
tolar tolarja tolarji tolarju tolarjem tolarjev tolarjema tolarjih tolarje tol
dinar dinarja dinarji dinarju dinarjem dinarjev dinarjema dinarjih dinarje din
funt funta funti funtu funtom funtov funtoma funtih funte gpb
forint forinta forinti forintu forintom forintov forintoma forintih forinte
zlot zlota zloti zlotu zlotom zlotov zlotoma zlotih zlote
rupij rupija rupiji rupiju rupijem rupijev rupijema rupijih rupije
jen jena jeni jenu jenom jenov jenoma jenih jene
kuna kuni kune kuno kun kunama kunah kunam kunami
marka marki marke markama markah markami
""".split()
)
def like_num(text):
if text.startswith(("+", "-", "±", "~")):
text = text[1:]
text = text.replace(",", "").replace(".", "")
if text.isdigit():
return True
if text.count("/") == 1:
num, denom = text.split("/")
if num.isdigit() and denom.isdigit():
return True
text_lower = text.lower()
if text_lower in _num_words:
return True
if text_lower in _ordinal_words:
return True
return False
def is_currency(text):
text_lower = text.lower()
if text in _currency_words:
return True
for char in text:
if unicodedata.category(char) != "Sc":
return False
return True
LEX_ATTRS = {LIKE_NUM: like_num, IS_CURRENCY: is_currency}
| 6,474 | 43.655172 | 89 | py |
spaCy | spaCy-master/spacy/lang/sl/punctuation.py | from ..char_classes import (
ALPHA,
ALPHA_LOWER,
ALPHA_UPPER,
CONCAT_QUOTES,
CURRENCY,
HYPHENS,
LIST_CURRENCY,
LIST_ELLIPSES,
LIST_ICONS,
LIST_PUNCT,
LIST_QUOTES,
PUNCT,
UNITS,
merge_chars,
)
from ..punctuation import TOKENIZER_PREFIXES as BASE_TOKENIZER_PREFIXES
INCLUDE_SPECIAL = ["\\+", "\\/", "\\•", "\\¯", "\\=", "\\×"] + HYPHENS.split("|")
_prefixes = INCLUDE_SPECIAL + BASE_TOKENIZER_PREFIXES
_suffixes = (
INCLUDE_SPECIAL
+ LIST_PUNCT
+ LIST_ELLIPSES
+ LIST_QUOTES
+ LIST_ICONS
+ [
r"(?<=°[FfCcKk])\.",
r"(?<=[0-9])(?:{c})".format(c=CURRENCY),
r"(?<=[0-9])(?:{u})".format(u=UNITS),
r"(?<=[{al}{e}{p}(?:{q})])\.".format(
al=ALPHA_LOWER, e=r"%²\-\+", q=CONCAT_QUOTES, p=PUNCT
),
r"(?<=[{au}][{au}])\.".format(au=ALPHA_UPPER),
# split initials like J.K. Rowling
r"(?<=[A-Z]\.)(?:[A-Z].)",
]
)
# a list of all suffixes following a hyphen that are shouldn't split (eg. BTC-jev)
# source: Obeliks tokenizer - https://github.com/clarinsi/obeliks/blob/master/obeliks/res/TokRulesPart1.txt
CONCAT_QUOTES = CONCAT_QUOTES.replace("'", "")
HYPHENS_PERMITTED = (
"((a)|(evemu)|(evskega)|(i)|(jevega)|(jevska)|(jevskimi)|(jinemu)|(oma)|(ovim)|"
"(ovski)|(e)|(evi)|(evskem)|(ih)|(jevem)|(jevske)|(jevsko)|(jini)|(ov)|(ovima)|"
"(ovskih)|(em)|(evih)|(evskemu)|(ja)|(jevemu)|(jevskega)|(ji)|(jinih)|(ova)|"
"(ovimi)|(ovskim)|(ema)|(evim)|(evski)|(je)|(jevi)|(jevskem)|(jih)|(jinim)|"
"(ove)|(ovo)|(ovskima)|(ev)|(evima)|(evskih)|(jem)|(jevih)|(jevskemu)|(jin)|"
"(jinima)|(ovega)|(ovska)|(ovskimi)|(eva)|(evimi)|(evskim)|(jema)|(jevim)|"
"(jevski)|(jina)|(jinimi)|(ovem)|(ovske)|(ovsko)|(eve)|(evo)|(evskima)|(jev)|"
"(jevima)|(jevskih)|(jine)|(jino)|(ovemu)|(ovskega)|(u)|(evega)|(evska)|"
"(evskimi)|(jeva)|(jevimi)|(jevskim)|(jinega)|(ju)|(ovi)|(ovskem)|(evem)|"
"(evske)|(evsko)|(jeve)|(jevo)|(jevskima)|(jinem)|(om)|(ovih)|(ovskemu)|"
"(ovec)|(ovca)|(ovcu)|(ovcem)|(ovcev)|(ovcema)|(ovcih)|(ovci)|(ovce)|(ovcimi)|"
"(evec)|(evca)|(evcu)|(evcem)|(evcev)|(evcema)|(evcih)|(evci)|(evce)|(evcimi)|"
"(jevec)|(jevca)|(jevcu)|(jevcem)|(jevcev)|(jevcema)|(jevcih)|(jevci)|(jevce)|"
"(jevcimi)|(ovka)|(ovke)|(ovki)|(ovko)|(ovk)|(ovkama)|(ovkah)|(ovkam)|(ovkami)|"
"(evka)|(evke)|(evki)|(evko)|(evk)|(evkama)|(evkah)|(evkam)|(evkami)|(jevka)|"
"(jevke)|(jevki)|(jevko)|(jevk)|(jevkama)|(jevkah)|(jevkam)|(jevkami)|(timi)|"
"(im)|(ima)|(a)|(imi)|(e)|(o)|(ega)|(ti)|(em)|(tih)|(emu)|(tim)|(i)|(tima)|"
"(ih)|(ta)|(te)|(to)|(tega)|(tem)|(temu))"
)
_infixes = (
LIST_ELLIPSES
+ LIST_ICONS
+ [
r"(?<=[0-9])[+\-\*^](?=[0-9-])",
r"(?<=[{al}{q}])\.(?=[{au}{q}])".format(
al=ALPHA_LOWER, au=ALPHA_UPPER, q=CONCAT_QUOTES
),
r"(?<=[{a}]),(?=[{a}])".format(a=ALPHA),
r"(?<=[{a}0-9])(?:{h})(?!{hp}$)(?=[{a}])".format(
a=ALPHA, h=HYPHENS, hp=HYPHENS_PERMITTED
),
r"(?<=[{a}0-9])[:<>=/](?=[{a}])".format(a=ALPHA),
]
)
TOKENIZER_PREFIXES = _prefixes
TOKENIZER_SUFFIXES = _suffixes
TOKENIZER_INFIXES = _infixes
| 3,216 | 36.406977 | 107 | py |
spaCy | spaCy-master/spacy/lang/sl/stop_words.py | # Source: https://github.com/stopwords-iso/stopwords-sl
STOP_WORDS = set(
"""
a ali
b bi bil bila bile bili bilo biti blizu bo bodo bojo bolj bom bomo
boste bova boš brez
c cel cela celi celo
č če često četrta četrtek četrti četrto čez čigav
d da daleč dan danes datum deset deseta deseti deseto devet
deveta deveti deveto do dober dobra dobri dobro dokler dol dolg
dolga dolgi dovolj drug druga drugi drugo dva dve
e eden en ena ene eni enkrat eno etc.
f
g g. ga ga. gor gospa gospod
h halo
i idr. ii iii in iv ix iz
j jaz je ji jih jim jo jutri
k kadarkoli kaj kajti kako kakor kamor kamorkoli kar karkoli
katerikoli kdaj kdo kdorkoli ker ki kje kjer kjerkoli
ko koder koderkoli koga komu kot kratek kratka kratke kratki
l lahka lahke lahki lahko le lep lepa lepe lepi lepo leto
m majhen majhna majhni malce malo manj me med medtem mene
mesec mi midva midve mnogo moj moja moje mora morajo moram
moramo morate moraš morem mu
n na nad naj najina najino najmanj naju največ nam narobe
nas nato nazaj naš naša naše ne nedavno nedelja nek neka
nekaj nekatere nekateri nekatero nekdo neke nekega neki
nekje neko nekoga nekoč ni nikamor nikdar nikjer nikoli
nič nje njega njegov njegova njegovo njej njemu njen
njena njeno nji njih njihov njihova njihovo njiju njim
njo njun njuna njuno no nocoj npr.
o ob oba obe oboje od odprt odprta odprti okoli on
onadva one oni onidve osem osma osmi osmo oz.
p pa pet peta petek peti peto po pod pogosto poleg poln
polna polni polno ponavadi ponedeljek ponovno potem
povsod pozdravljen pozdravljeni prav prava prave pravi
pravo prazen prazna prazno prbl. precej pred prej preko
pri pribl. približno primer pripravljen pripravljena
pripravljeni proti prva prvi prvo
r ravno redko res reč
s saj sam sama same sami samo se sebe sebi sedaj sedem
sedma sedmi sedmo sem seveda si sicer skoraj skozi slab sm
so sobota spet sreda srednja srednji sta ste stran stvar sva
š šest šesta šesti šesto štiri
t ta tak taka take taki tako takoj tam te tebe tebi tega
težak težka težki težko ti tista tiste tisti tisto tj.
tja to toda torek tretja tretje tretji tri tu tudi tukaj
tvoj tvoja tvoje
u
v vaju vam vas vaš vaša vaše ve vedno velik velika veliki
veliko vendar ves več vi vidva vii viii visok visoka visoke
visoki vsa vsaj vsak vsaka vsakdo vsake vsaki vsakomur vse
vsega vsi vso včasih včeraj
x
z za zadaj zadnji zakaj zaprta zaprti zaprto zdaj zelo zunaj
ž že
""".split()
)
| 2,440 | 27.717647 | 67 | py |
spaCy | spaCy-master/spacy/lang/sl/tokenizer_exceptions.py | from typing import Dict, List
from ...symbols import NORM, ORTH
from ...util import update_exc
from ..tokenizer_exceptions import BASE_EXCEPTIONS
_exc: Dict[str, List[Dict]] = {}
_other_exc = {
"t.i.": [{ORTH: "t.", NORM: "tako"}, {ORTH: "i.", NORM: "imenovano"}],
"t.j.": [{ORTH: "t.", NORM: "to"}, {ORTH: "j.", NORM: "je"}],
"T.j.": [{ORTH: "T.", NORM: "to"}, {ORTH: "j.", NORM: "je"}],
"d.o.o.": [
{ORTH: "d.", NORM: "družba"},
{ORTH: "o.", NORM: "omejeno"},
{ORTH: "o.", NORM: "odgovornostjo"},
],
"D.O.O.": [
{ORTH: "D.", NORM: "družba"},
{ORTH: "O.", NORM: "omejeno"},
{ORTH: "O.", NORM: "odgovornostjo"},
],
"d.n.o.": [
{ORTH: "d.", NORM: "družba"},
{ORTH: "n.", NORM: "neomejeno"},
{ORTH: "o.", NORM: "odgovornostjo"},
],
"D.N.O.": [
{ORTH: "D.", NORM: "družba"},
{ORTH: "N.", NORM: "neomejeno"},
{ORTH: "O.", NORM: "odgovornostjo"},
],
"d.d.": [{ORTH: "d.", NORM: "delniška"}, {ORTH: "d.", NORM: "družba"}],
"D.D.": [{ORTH: "D.", NORM: "delniška"}, {ORTH: "D.", NORM: "družba"}],
"s.p.": [{ORTH: "s.", NORM: "samostojni"}, {ORTH: "p.", NORM: "podjetnik"}],
"S.P.": [{ORTH: "S.", NORM: "samostojni"}, {ORTH: "P.", NORM: "podjetnik"}],
"l.r.": [{ORTH: "l.", NORM: "lastno"}, {ORTH: "r.", NORM: "ročno"}],
"le-te": [{ORTH: "le"}, {ORTH: "-"}, {ORTH: "te"}],
"Le-te": [{ORTH: "Le"}, {ORTH: "-"}, {ORTH: "te"}],
"le-ti": [{ORTH: "le"}, {ORTH: "-"}, {ORTH: "ti"}],
"Le-ti": [{ORTH: "Le"}, {ORTH: "-"}, {ORTH: "ti"}],
"le-to": [{ORTH: "le"}, {ORTH: "-"}, {ORTH: "to"}],
"Le-to": [{ORTH: "Le"}, {ORTH: "-"}, {ORTH: "to"}],
"le-ta": [{ORTH: "le"}, {ORTH: "-"}, {ORTH: "ta"}],
"Le-ta": [{ORTH: "Le"}, {ORTH: "-"}, {ORTH: "ta"}],
"le-tega": [{ORTH: "le"}, {ORTH: "-"}, {ORTH: "tega"}],
"Le-tega": [{ORTH: "Le"}, {ORTH: "-"}, {ORTH: "tega"}],
}
_exc.update(_other_exc)
for exc_data in [
{ORTH: "adm.", NORM: "administracija"},
{ORTH: "aer.", NORM: "aeronavtika"},
{ORTH: "agr.", NORM: "agronomija"},
{ORTH: "amer.", NORM: "ameriško"},
{ORTH: "anat.", NORM: "anatomija"},
{ORTH: "angl.", NORM: "angleški"},
{ORTH: "ant.", NORM: "antonim"},
{ORTH: "antr.", NORM: "antropologija"},
{ORTH: "apr.", NORM: "april"},
{ORTH: "arab.", NORM: "arabsko"},
{ORTH: "arheol.", NORM: "arheologija"},
{ORTH: "arhit.", NORM: "arhitektura"},
{ORTH: "avg.", NORM: "avgust"},
{ORTH: "avstr.", NORM: "avstrijsko"},
{ORTH: "avt.", NORM: "avtomobilizem"},
{ORTH: "bibl.", NORM: "biblijsko"},
{ORTH: "biokem.", NORM: "biokemija"},
{ORTH: "biol.", NORM: "biologija"},
{ORTH: "bolg.", NORM: "bolgarski"},
{ORTH: "bot.", NORM: "botanika"},
{ORTH: "cit.", NORM: "citat"},
{ORTH: "daj.", NORM: "dajalnik"},
{ORTH: "del.", NORM: "deležnik"},
{ORTH: "ed.", NORM: "ednina"},
{ORTH: "etn.", NORM: "etnografija"},
{ORTH: "farm.", NORM: "farmacija"},
{ORTH: "filat.", NORM: "filatelija"},
{ORTH: "filoz.", NORM: "filozofija"},
{ORTH: "fin.", NORM: "finančništvo"},
{ORTH: "fiz.", NORM: "fizika"},
{ORTH: "fot.", NORM: "fotografija"},
{ORTH: "fr.", NORM: "francoski"},
{ORTH: "friz.", NORM: "frizerstvo"},
{ORTH: "gastr.", NORM: "gastronomija"},
{ORTH: "geogr.", NORM: "geografija"},
{ORTH: "geol.", NORM: "geologija"},
{ORTH: "geom.", NORM: "geometrija"},
{ORTH: "germ.", NORM: "germanski"},
{ORTH: "gl.", NORM: "glej"},
{ORTH: "glag.", NORM: "glagolski"},
{ORTH: "glasb.", NORM: "glasba"},
{ORTH: "gled.", NORM: "gledališče"},
{ORTH: "gost.", NORM: "gostinstvo"},
{ORTH: "gozd.", NORM: "gozdarstvo"},
{ORTH: "gr.", NORM: "grški"},
{ORTH: "grad.", NORM: "gradbeništvo"},
{ORTH: "hebr.", NORM: "hebrejsko"},
{ORTH: "hrv.", NORM: "hrvaško"},
{ORTH: "ide.", NORM: "indoevropsko"},
{ORTH: "igr.", NORM: "igre"},
{ORTH: "im.", NORM: "imenovalnik"},
{ORTH: "iron.", NORM: "ironično"},
{ORTH: "it.", NORM: "italijanski"},
{ORTH: "itd.", NORM: "in tako dalje"},
{ORTH: "itn.", NORM: "in tako naprej"},
{ORTH: "ipd.", NORM: "in podobno"},
{ORTH: "jap.", NORM: "japonsko"},
{ORTH: "jul.", NORM: "julij"},
{ORTH: "jun.", NORM: "junij"},
{ORTH: "kit.", NORM: "kitajsko"},
{ORTH: "knj.", NORM: "knjižno"},
{ORTH: "knjiž.", NORM: "knjižno"},
{ORTH: "kor.", NORM: "koreografija"},
{ORTH: "lat.", NORM: "latinski"},
{ORTH: "les.", NORM: "lesna stroka"},
{ORTH: "lingv.", NORM: "lingvistika"},
{ORTH: "lit.", NORM: "literarni"},
{ORTH: "ljubk.", NORM: "ljubkovalno"},
{ORTH: "lov.", NORM: "lovstvo"},
{ORTH: "m.", NORM: "moški"},
{ORTH: "mak.", NORM: "makedonski"},
{ORTH: "mar.", NORM: "marec"},
{ORTH: "mat.", NORM: "matematika"},
{ORTH: "med.", NORM: "medicina"},
{ORTH: "meh.", NORM: "mehiško"},
{ORTH: "mest.", NORM: "mestnik"},
{ORTH: "mdr.", NORM: "med drugim"},
{ORTH: "min.", NORM: "mineralogija"},
{ORTH: "mitol.", NORM: "mitologija"},
{ORTH: "mn.", NORM: "množina"},
{ORTH: "mont.", NORM: "montanistika"},
{ORTH: "muz.", NORM: "muzikologija"},
{ORTH: "nam.", NORM: "namenilnik"},
{ORTH: "nar.", NORM: "narečno"},
{ORTH: "nav.", NORM: "navadno"},
{ORTH: "nedol.", NORM: "nedoločnik"},
{ORTH: "nedov.", NORM: "nedovršni"},
{ORTH: "neprav.", NORM: "nepravilno"},
{ORTH: "nepreh.", NORM: "neprehodno"},
{ORTH: "neskl.", NORM: "nesklonljiv(o)"},
{ORTH: "nestrok.", NORM: "nestrokovno"},
{ORTH: "num.", NORM: "numizmatika"},
{ORTH: "npr.", NORM: "na primer"},
{ORTH: "obrt.", NORM: "obrtništvo"},
{ORTH: "okt.", NORM: "oktober"},
{ORTH: "or.", NORM: "orodnik"},
{ORTH: "os.", NORM: "oseba"},
{ORTH: "otr.", NORM: "otroško"},
{ORTH: "oz.", NORM: "oziroma"},
{ORTH: "pal.", NORM: "paleontologija"},
{ORTH: "papir.", NORM: "papirništvo"},
{ORTH: "ped.", NORM: "pedagogika"},
{ORTH: "pisar.", NORM: "pisarniško"},
{ORTH: "pog.", NORM: "pogovorno"},
{ORTH: "polit.", NORM: "politika"},
{ORTH: "polj.", NORM: "poljsko"},
{ORTH: "poljud.", NORM: "poljudno"},
{ORTH: "preg.", NORM: "pregovor"},
{ORTH: "preh.", NORM: "prehodno"},
{ORTH: "pren.", NORM: "preneseno"},
{ORTH: "prid.", NORM: "pridevnik"},
{ORTH: "prim.", NORM: "primerjaj"},
{ORTH: "prisl.", NORM: "prislov"},
{ORTH: "psih.", NORM: "psihologija"},
{ORTH: "psiht.", NORM: "psihiatrija"},
{ORTH: "rad.", NORM: "radiotehnika"},
{ORTH: "rač.", NORM: "računalništvo"},
{ORTH: "rib.", NORM: "ribištvo"},
{ORTH: "rod.", NORM: "rodilnik"},
{ORTH: "rus.", NORM: "rusko"},
{ORTH: "s.", NORM: "srednji"},
{ORTH: "sam.", NORM: "samostalniški"},
{ORTH: "sed.", NORM: "sedanjik"},
{ORTH: "sep.", NORM: "september"},
{ORTH: "slabš.", NORM: "slabšalno"},
{ORTH: "slovan.", NORM: "slovansko"},
{ORTH: "slovaš.", NORM: "slovaško"},
{ORTH: "srb.", NORM: "srbsko"},
{ORTH: "star.", NORM: "starinsko"},
{ORTH: "stil.", NORM: "stilno"},
{ORTH: "sv.", NORM: "svet(i)"},
{ORTH: "teh.", NORM: "tehnika"},
{ORTH: "tisk.", NORM: "tiskarstvo"},
{ORTH: "tj.", NORM: "to je"},
{ORTH: "tož.", NORM: "tožilnik"},
{ORTH: "trg.", NORM: "trgovina"},
{ORTH: "ukr.", NORM: "ukrajinski"},
{ORTH: "um.", NORM: "umetnost"},
{ORTH: "vel.", NORM: "velelnik"},
{ORTH: "vet.", NORM: "veterina"},
{ORTH: "vez.", NORM: "veznik"},
{ORTH: "vn.", NORM: "visokonemško"},
{ORTH: "voj.", NORM: "vojska"},
{ORTH: "vrtn.", NORM: "vrtnarstvo"},
{ORTH: "vulg.", NORM: "vulgarno"},
{ORTH: "vznes.", NORM: "vzneseno"},
{ORTH: "zal.", NORM: "založništvo"},
{ORTH: "zastar.", NORM: "zastarelo"},
{ORTH: "zgod.", NORM: "zgodovina"},
{ORTH: "zool.", NORM: "zoologija"},
{ORTH: "čeb.", NORM: "čebelarstvo"},
{ORTH: "češ.", NORM: "češki"},
{ORTH: "člov.", NORM: "človeškost"},
{ORTH: "šah.", NORM: "šahovski"},
{ORTH: "šalj.", NORM: "šaljivo"},
{ORTH: "šp.", NORM: "španski"},
{ORTH: "špan.", NORM: "špansko"},
{ORTH: "šport.", NORM: "športni"},
{ORTH: "štev.", NORM: "števnik"},
{ORTH: "šved.", NORM: "švedsko"},
{ORTH: "švic.", NORM: "švicarsko"},
{ORTH: "ž.", NORM: "ženski"},
{ORTH: "žarg.", NORM: "žargonsko"},
{ORTH: "žel.", NORM: "železnica"},
{ORTH: "živ.", NORM: "živost"},
]:
_exc[exc_data[ORTH]] = [exc_data]
abbrv = """
Co. Ch. DIPL. DR. Dr. Ev. Inc. Jr. Kr. Mag. M. MR. Mr. Mt. Murr. Npr. OZ.
Opr. Osn. Prim. Roj. ST. Sim. Sp. Sred. St. Sv. Škofl. Tel. UR. Zb.
a. aa. ab. abc. abit. abl. abs. abt. acc. accel. add. adj. adv. aet. afr. akad. al. alban. all. alleg.
alp. alt. alter. alžir. am. an. andr. ang. anh. anon. ans. antrop. apoc. app. approx. apt. ar. arc. arch.
arh. arr. as. asist. assist. assoc. asst. astr. attn. aug. avstral. az. b. bab. bal. bbl. bd. belg. bioinf.
biomed. bk. bl. bn. borg. bp. br. braz. brit. bros. broš. bt. bu. c. ca. cal. can. cand. cantab. cap. capt.
cat. cath. cc. cca. cd. cdr. cdre. cent. cerkv. cert. cf. cfr. ch. chap. chem. chr. chs. cic. circ. civ. cl.
cm. cmd. cnr. co. cod. col. coll. colo. com. comp. con. conc. cond. conn. cons. cont. coop. corr. cost. cp.
cpl. cr. crd. cres. cresc. ct. cu. d. dan. dat. davč. ddr. dec. ded. def. dem. dent. dept. dia. dip. dipl.
dir. disp. diss. div. do. doc. dok. dol. doo. dop. dott. dr. dram. druž. družb. drž. dt. duh. dur. dvr. dwt. e.
ea. ecc. eccl. eccles. econ. edn. egipt. egr. ekon. eksp. el. em. enc. eng. eo. ep. err. esp. esq. est.
et. etc. etnogr. etnol. ev. evfem. evr. ex. exc. excl. exp. expl. ext. exx. f. fa. facs. fak. faks. fas.
fasc. fco. fcp. feb. febr. fec. fed. fem. ff. fff. fid. fig. fil. film. fiziol. fiziot. flam. fm. fo. fol. folk.
frag. fran. franc. fsc. g. ga. gal. gdč. ge. gen. geod. geog. geotehnol. gg. gimn. glas. glav. gnr. go. gor.
gosp. gp. graf. gram. gren. grš. gs. h. hab. hf. hist. ho. hort. i. ia. ib. ibid. id. idr. idridr. ill. imen.
imp. impf. impr. in. inc. incl. ind. indus. inf. inform. ing. init. ins. int. inv. inšp. inštr. inž. is. islam.
ist. ital. iur. iz. izbr. izd. izg. izgr. izr. izv. j. jak. jam. jan. jav. je. jez. jr. jsl. jud. jug.
jugoslovan. jur. juž. jv. jz. k. kal. kan. kand. kat. kdo. kem. kip. kmet. kol. kom. komp. konf. kont. kost. kov.
kp. kpfw. kr. kraj. krat. kub. kult. kv. kval. l. la. lab. lb. ld. let. lib. lik. litt. lj. ljud. ll. loc. log.
loč. lt. ma. madž. mag. manag. manjš. masc. mass. mater. max. maxmax. mb. md. mech. medic. medij. medn.
mehč. mem. menedž. mes. mess. metal. meteor. meteorol. mex. mi. mikr. mil. minn. mio. misc. miss. mit. mk.
mkt. ml. mlad. mlle. mlr. mm. mme. množ. mo. moj. moš. možn. mr. mrd. mrs. ms. msc. msgr. mt. murr. mus. mut.
n. na. nad. nadalj. nadom. nagl. nakl. namer. nan. naniz. nasl. nat. navt. nač. ned. nem. nik. nizoz. nm. nn.
no. nom. norv. notr. nov. novogr. ns. o. ob. obd. obj. oblač. obl. oblik. obr. obraz. obs. obst. obt. obč. oc.
oct. od. odd. odg. odn. odst. odv. oec. off. ok. okla. okr. ont. oo. op. opis. opp. opr. orch. ord. ore. oreg.
org. orient. orig. ork. ort. oseb. osn. ot. ozir. ošk. p. pag. par. para. parc. parl. part. past. pat. pdk.
pen. perf. pert. perz. pesn. pet. pev. pf. pfc. ph. pharm. phil. pis. pl. po. pod. podr. podaljš. pogl. pogoj. pojm.
pok. pokr. pol. poljed. poljub. polu. pom. pomen. pon. ponov. pop. por. port. pos. posl. posn. pov. pp. ppl. pr.
praet. prav. pravopis. pravosl. preb. pred. predl. predm. predp. preds. pref. pregib. prel. prem. premen. prep.
pres. pret. prev. pribl. prih. pril. primerj. primor. prip. pripor. prir. prist. priv. proc. prof. prog. proiz.
prom. pron. prop. prot. protest. prov. ps. pss. pt. publ. pz. q. qld. qu. quad. que. r. racc. rastl. razgl.
razl. razv. rd. red. ref. reg. rel. relig. rep. repr. rer. resp. rest. ret. rev. revol. rež. rim. rist. rkp. rm.
roj. rom. romun. rp. rr. rt. rud. ruš. ry. sal. samogl. san. sc. scen. sci. scr. sdv. seg. sek. sen. sept. ser.
sev. sg. sgt. sh. sig. sigg. sign. sim. sin. sing. sinh. skand. skl. sklad. sklanj. sklep. skr. sl. slik. slov.
slovak. slovn. sn. so. sob. soc. sociol. sod. sopomen. sopr. sor. sov. sovj. sp. spec. spl. spr. spreg. sq. sr.
sre. sred. sredoz. srh. ss. ssp. st. sta. stan. stanstar. stcsl. ste. stim. stol. stom. str. stroj. strok. stsl.
stud. sup. supl. suppl. svet. sz. t. tab. tech. ted. tehn. tehnol. tek. teks. tekst. tel. temp. ten. teol. ter.
term. test. th. theol. tim. tip. tisočl. tit. tl. tol. tolmač. tom. tor. tov. tr. trad. traj. trans. tren.
trib. tril. trop. trp. trž. ts. tt. tu. tur. turiz. tvor. tvorb. tč. u. ul. umet. un. univ. up. upr. ur. urad.
us. ust. utr. v. va. val. var. varn. ven. ver. verb. vest. vezal. vic. vis. viv. viz. viš. vod. vok. vol. vpr.
vrst. vrstil. vs. vv. vzd. vzg. vzh. vzor. w. wed. wg. wk. x. y. z. zah. zaim. zak. zap. zasl. zavar. zač. zb.
združ. zg. zn. znan. znanstv. zoot. zun. zv. zvd. á. é. ć. č. čas. čet. čl. člen. čustv. đ. ľ. ł. ş. ŠT. š. šir.
škofl. škot. šol. št. števil. štud. ů. ű. žen. žival.
""".split()
for orth in abbrv:
_exc[orth] = [{ORTH: orth}]
TOKENIZER_EXCEPTIONS = update_exc(BASE_EXCEPTIONS, _exc)
| 13,288 | 47.5 | 117 | py |
spaCy | spaCy-master/spacy/lang/sq/__init__.py | from ...language import BaseDefaults, Language
from .stop_words import STOP_WORDS
class AlbanianDefaults(BaseDefaults):
stop_words = STOP_WORDS
class Albanian(Language):
lang = "sq"
Defaults = AlbanianDefaults
__all__ = ["Albanian"]
| 251 | 15.8 | 46 | py |
spaCy | spaCy-master/spacy/lang/sq/examples.py | """
Example sentences to test spaCy and its language models.
>>> from spacy.lang.sq.examples import sentences
>>> docs = nlp.pipe(sentences)
"""
sentences = [
"Apple po shqyrton blerjen e nje shoqërie të U.K. për 1 miliard dollarë",
"Makinat autonome ndryshojnë përgjegjësinë e sigurimit ndaj prodhuesve",
"San Francisko konsideron ndalimin e robotëve të shpërndarjes",
"Londra është një qytet i madh në Mbretërinë e Bashkuar.",
]
| 450 | 29.066667 | 77 | py |
spaCy | spaCy-master/spacy/lang/sq/stop_words.py | # Source: https://github.com/andrixh/index-albanian
STOP_WORDS = set(
"""
a
afert
ai
ajo
andej
anes
aq
as
asaj
ashtu
ata
ate
atij
atje
ato
aty
atyre
b
be
behem
behet
bej
beje
bejne
ben
bene
bere
beri
bie
c
ca
cdo
cfare
cila
cilat
cilave
cilen
ciles
cilet
cili
cilin
cilit
deri
dhe
dic
dicka
dickaje
dike
dikujt
dikush
disa
do
dot
drejt
duke
dy
e
edhe
ende
eshte
etj
fare
gjate
gje
gjitha
gjithcka
gjithe
gjithnje
here
i
ia
ishin
ishte
iu
ja
jam
jane
jap
je
jemi
jo
ju
k
ka
kam
kane
kem
kemi
keq
kesaj
keshtu
kete
ketej
ketij
keto
ketu
ketyre
kishin
kishte
kjo
krejt
kryer
kryesisht
kryhet
ku
kudo
kundrejt
kur
kurre
kush
ky
la
le
lloj
m
ma
madhe
marr
marre
mban
mbi
me
menjehere
merr
merret
mes
mi
midis
mire
mjaft
mori
mos
mua
mund
na
ndaj
nder
ndermjet
ndersa
ndonje
ndryshe
ne
nen
neper
nepermjet
nese
nga
nje
njera
nuk
ose
pa
pak
papritur
para
pas
pasi
pasur
per
perbashket
perpara
po
por
prane
prapa
prej
pse
qe
qene
qenet
rralle
rreth
rri
s
sa
saj
sapo
se
secila
sepse
sh
shih
shume
si
sic
sikur
sipas
siper
sone
t
ta
tani
te
tej
tek
teper
tere
ti
tij
tilla
tille
tjera
tjeret
tjeter
tjetren
to
tone
ty
tyre
u
ua
une
vazhdimisht
vend
vet
veta
vete
vetem
veten
vetes
vjen
yne
zakonisht
""".split()
)
| 1,210 | 4.265217 | 51 | py |
spaCy | spaCy-master/spacy/lang/sr/__init__.py | from ...language import BaseDefaults, Language
from .lex_attrs import LEX_ATTRS
from .punctuation import TOKENIZER_INFIXES, TOKENIZER_SUFFIXES
from .stop_words import STOP_WORDS
from .tokenizer_exceptions import TOKENIZER_EXCEPTIONS
class SerbianDefaults(BaseDefaults):
tokenizer_exceptions = TOKENIZER_EXCEPTIONS
infixes = TOKENIZER_INFIXES
suffixes = TOKENIZER_SUFFIXES
lex_attr_getters = LEX_ATTRS
stop_words = STOP_WORDS
class Serbian(Language):
lang = "sr"
Defaults = SerbianDefaults
__all__ = ["Serbian"]
| 545 | 23.818182 | 62 | py |
spaCy | spaCy-master/spacy/lang/sr/examples.py | """
Example sentences to test spaCy and its language models.
>>> from spacy.lang.sr.examples import sentences
>>> docs = nlp.pipe(sentences)
"""
sentences = [
# Translations from English
"Apple планира куповину америчког стартапа за $1 милијарду.",
"Беспилотни аутомобили пребацују одговорност осигурања на произвођаче.",
"Лондон је велики град у Уједињеном Краљевству.",
"Где си ти?",
"Ко је председник Француске?",
# Serbian common and slang
"Moj ћале је инжењер!",
"Новак Ђоковић је најбољи тенисер света.",
"У Пироту има добрих кафана!",
"Музеј Николе Тесле се налази у Београду.",
]
| 635 | 27.909091 | 76 | py |
spaCy | spaCy-master/spacy/lang/sr/lex_attrs.py | from ...attrs import LIKE_NUM
_num_words = [
"нула",
"један",
"два",
"три",
"четири",
"пет",
"шест",
"седам",
"осам",
"девет",
"десет",
"једанаест",
"дванаест",
"тринаест",
"четрнаест",
"петнаест",
"шеснаест",
"седамнаест",
"осамнаест",
"деветнаест",
"двадесет",
"тридесет",
"четрдесет",
"педесет",
"шездесет",
"седамдесет",
"осамдесет",
"деведесет",
"сто",
"двеста",
"триста",
"четиристо",
"петсто",
"шестсто",
"седамсто",
"осамсто",
"деветсто",
"хиљаду",
"милион",
"милијарду",
"трилион",
"квадрилион",
"квинтилион",
]
def like_num(text):
if text.startswith(("+", "-", "±", "~")):
text = text[1:]
text = text.replace(",", "").replace(".", "")
if text.isdigit():
return True
if text.count("/") == 1:
num, denom = text.split("/")
if num.isdigit() and denom.isdigit():
return True
if text.lower() in _num_words:
return True
return False
LEX_ATTRS = {LIKE_NUM: like_num}
| 1,122 | 16.015152 | 49 | py |
spaCy | spaCy-master/spacy/lang/sr/punctuation.py | from ..char_classes import (
ALPHA,
ALPHA_LOWER,
ALPHA_UPPER,
CONCAT_QUOTES,
CURRENCY,
LIST_ELLIPSES,
LIST_ICONS,
LIST_PUNCT,
LIST_QUOTES,
PUNCT,
UNITS,
)
_infixes = (
LIST_ELLIPSES
+ LIST_ICONS
+ [
r"(?<=[0-9])[+\-\*^](?=[0-9-])",
r"(?<=[{al}{q}])\.(?=[{au}{q}])".format(
al=ALPHA_LOWER, au=ALPHA_UPPER, q=CONCAT_QUOTES
),
r"(?<=[{a}]),(?=[{a}])".format(a=ALPHA),
r"(?<=[{a}0-9])[:<>=/](?=[{a}])".format(a=ALPHA),
]
)
_suffixes = (
LIST_PUNCT
+ LIST_ELLIPSES
+ LIST_QUOTES
+ LIST_ICONS
+ [
r"(?<=[0-9])\+",
r"(?<=°[FfCcKk])\.",
r"(?<=[0-9])(?:{c})".format(c=CURRENCY),
r"(?<=[0-9])(?:{u})".format(u=UNITS),
r"(?<=[{a}{e}{p}(?:{q})])\.".format(
a=ALPHA, e=r"%²\-\+", q=CONCAT_QUOTES, p=PUNCT
),
]
)
TOKENIZER_INFIXES = _infixes
TOKENIZER_SUFFIXES = _suffixes
| 958 | 19.847826 | 59 | py |
spaCy | spaCy-master/spacy/lang/sr/stop_words.py | STOP_WORDS = set(
"""
а
авај
ако
ал
али
арх
ау
ах
аха
ај
бар
би
била
били
било
бисмо
бисте
бих
бијасмо
бијасте
бијах
бијаху
бијаше
биће
близу
број
брр
буде
будимо
будите
буду
будући
бум
бућ
вам
вама
вас
ваша
ваше
вашим
вашима
ваљда
веома
вероватно
већ
већина
ви
видео
више
врло
врх
га
где
гиц
год
горе
гђекоје
да
дакле
дана
данас
дај
два
де
дедер
делимице
делимично
дем
до
добар
добити
довечер
докле
доле
донекле
досад
доскоро
дотад
дотле
дошао
доћи
другамо
другде
други
е
ево
ено
ето
ех
ехе
еј
желела
желеле
желели
желело
желех
желећи
жели
за
заиста
зар
затим
зато
захвалити
зашто
збиља
зимус
знати
зум
и
иде
из
изван
изволи
између
изнад
икада
икакав
икаква
икакве
икакви
икаквим
икаквима
икаквих
икакво
икаквог
икаквога
икаквом
икаквоме
икаквој
или
им
има
имам
имао
испод
их
ију
ићи
кад
када
кога
којекакав
којима
коју
кришом
лани
ли
мали
мањи
ме
мене
мени
ми
мимо
мисли
много
могу
мора
морао
мој
моја
моје
моји
моју
моћи
му
на
над
након
нам
нама
нас
наша
наше
нашег
наши
наћи
не
негде
нека
некад
неке
неког
неку
нема
немам
неко
неће
нећемо
нећете
нећеш
нећу
ни
никада
никога
никоје
никоји
никоју
нисам
ниси
нисте
нису
ништа
ниједан
но
о
ова
овако
овамо
овај
овде
ове
овим
овима
ово
овој
од
одмах
око
около
он
онај
оне
оним
онима
оном
оној
ону
осим
остали
отишао
па
пак
питати
по
поводом
под
подаље
пожељан
пожељна
поиздаље
поименце
понекад
попреко
поред
после
потаман
потрбушке
поуздано
почетак
поједини
правити
први
преко
према
прије
пут
пљус
радије
с
са
сав
сада
сам
само
сасвим
сва
сваки
сви
свим
свог
свом
свој
своја
своје
своју
сву
свугде
се
себе
себи
си
смети
смо
ствар
стварно
сте
су
сутра
та
таèно
тако
такође
тамо
твој
твоја
твоје
твоји
твоју
те
тебе
теби
ти
тима
то
томе
тој
ту
у
увек
увијек
уз
уза
узалуд
уздуж
узети
умало
унутра
употребити
упркос
учинио
учинити
хало
хвала
хеј
хм
хоп
хоће
хоћемо
хоћете
хоћеш
хоћу
хтедосте
хтедох
хтедоше
хтела
хтеле
хтели
хтео
хтејасмо
хтејасте
хтејаху
хура
често
чијем
чији
чијим
чијима
шиц
штагод
што
штогод
ја
је
један
једини
једна
једне
једни
једно
једном
јер
јесам
јеси
јесмо
јесу
јим
јој
ју
јуче
његова
његово
њезин
њезина
њезино
њему
њен
њим
њима
њихова
њихово
њој
њу
ће
ћемо
ћете
ћеш
ћу
""".split()
)
| 2,162 | 4.489848 | 17 | py |
spaCy | spaCy-master/spacy/lang/sr/tokenizer_exceptions.py | from ...symbols import NORM, ORTH
from ...util import update_exc
from ..tokenizer_exceptions import BASE_EXCEPTIONS
_exc = {}
_abbrev_exc = [
# Weekdays abbreviations
{ORTH: "пoн", NORM: "понедељак"},
{ORTH: "уто", NORM: "уторак"},
{ORTH: "сре", NORM: "среда"},
{ORTH: "чет", NORM: "четвртак"},
{ORTH: "пет", NORM: "петак"},
{ORTH: "суб", NORM: "субота"},
{ORTH: "нед", NORM: "недеља"},
# Months abbreviations
{ORTH: "јан", NORM: "јануар"},
{ORTH: "феб", NORM: "фебруар"},
{ORTH: "мар", NORM: "март"},
{ORTH: "апр", NORM: "април"},
{ORTH: "јуни", NORM: "јун"},
{ORTH: "јули", NORM: "јул"},
{ORTH: "авг", NORM: "август"},
{ORTH: "сеп", NORM: "септембар"},
{ORTH: "септ", NORM: "септембар"},
{ORTH: "окт", NORM: "октобар"},
{ORTH: "нов", NORM: "новембар"},
{ORTH: "дец", NORM: "децембар"},
]
for abbrev_desc in _abbrev_exc:
abbrev = abbrev_desc[ORTH]
for orth in (abbrev, abbrev.capitalize(), abbrev.upper()):
_exc[orth] = [{ORTH: orth, NORM: abbrev_desc[NORM]}]
_exc[orth + "."] = [{ORTH: orth + ".", NORM: abbrev_desc[NORM]}]
# common abbreviations
_slang_exc = [
# without dot
{ORTH: "др", NORM: "доктор"},
{ORTH: "гдин", NORM: "господин"},
{ORTH: "гђа", NORM: "госпођа"},
{ORTH: "гђица", NORM: "госпођица"},
{ORTH: "мр", NORM: "магистар"},
{ORTH: "Бгд", NORM: "београд"},
{ORTH: "цм", NORM: "центиметар"},
{ORTH: "м", NORM: "метар"},
{ORTH: "км", NORM: "километар"},
{ORTH: "мг", NORM: "милиграм"},
{ORTH: "кг", NORM: "килограм"},
{ORTH: "дл", NORM: "децилитар"},
{ORTH: "хл", NORM: "хектолитар"},
# with dot
{ORTH: "ул.", NORM: "улица"},
{ORTH: "бр.", NORM: "број"},
{ORTH: "нпр.", NORM: "на пример"},
{ORTH: "тзв.", NORM: "такозван"},
{ORTH: "проф.", NORM: "професор"},
{ORTH: "стр.", NORM: "страна"},
{ORTH: "једн.", NORM: "једнина"},
{ORTH: "мн.", NORM: "множина"},
{ORTH: "уч.", NORM: "ученик"},
{ORTH: "разр.", NORM: "разред"},
{ORTH: "инж.", NORM: "инжењер"},
{ORTH: "гимн.", NORM: "гимназија"},
{ORTH: "год.", NORM: "година"},
{ORTH: "мед.", NORM: "медицина"},
{ORTH: "гимн.", NORM: "гимназија"},
{ORTH: "акад.", NORM: "академик"},
{ORTH: "доц.", NORM: "доцент"},
{ORTH: "итд.", NORM: "и тако даље"},
{ORTH: "и сл.", NORM: "и слично"},
{ORTH: "н.е.", NORM: "нове ере"},
{ORTH: "о.г.", NORM: "ове године"},
{ORTH: "л.к.", NORM: "лична карта"},
{ORTH: "в.д.", NORM: "вршилац дужности"},
{ORTH: "стр.", NORM: "страна"},
# with qoute
{ORTH: "ал'", NORM: "али"},
{ORTH: "ил'", NORM: "или"},
{ORTH: "је л'", NORM: "је ли"},
{ORTH: "да л'", NORM: "да ли"},
{ORTH: "држ'те", NORM: "држите"},
]
for slang_desc in _slang_exc:
_exc[slang_desc[ORTH]] = [slang_desc]
TOKENIZER_EXCEPTIONS = update_exc(BASE_EXCEPTIONS, _exc)
| 2,922 | 30.430108 | 72 | py |
Subsets and Splits
No community queries yet
The top public SQL queries from the community will appear here once available.