Create utils.py
Browse files
utils.py
ADDED
@@ -0,0 +1,112 @@
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
1 |
+
from imports import *
|
2 |
+
import unicodedata
|
3 |
+
rdrsegmenter = VnCoreNLP("./vncorenlp_segmenter/VnCoreNLP-1.1.1.jar", annotators="wseg", max_heap_size='-Xmx500m')
|
4 |
+
dict_map = {
|
5 |
+
"òa": "oà",
|
6 |
+
"Òa": "Oà",
|
7 |
+
"ÒA": "OÀ",
|
8 |
+
"óa": "oá",
|
9 |
+
"Óa": "Oá",
|
10 |
+
"ÓA": "OÁ",
|
11 |
+
"ỏa": "oả",
|
12 |
+
"Ỏa": "Oả",
|
13 |
+
"ỎA": "OẢ",
|
14 |
+
"õa": "oã",
|
15 |
+
"Õa": "Oã",
|
16 |
+
"ÕA": "OÃ",
|
17 |
+
"ọa": "oạ",
|
18 |
+
"Ọa": "Oạ",
|
19 |
+
"ỌA": "OẠ",
|
20 |
+
"òe": "oè",
|
21 |
+
"Òe": "Oè",
|
22 |
+
"ÒE": "OÈ",
|
23 |
+
"óe": "oé",
|
24 |
+
"Óe": "Oé",
|
25 |
+
"ÓE": "OÉ",
|
26 |
+
"ỏe": "oẻ",
|
27 |
+
"Ỏe": "Oẻ",
|
28 |
+
"ỎE": "OẺ",
|
29 |
+
"õe": "oẽ",
|
30 |
+
"Õe": "Oẽ",
|
31 |
+
"ÕE": "OẼ",
|
32 |
+
"ọe": "oẹ",
|
33 |
+
"Ọe": "Oẹ",
|
34 |
+
"ỌE": "OẸ",
|
35 |
+
"ùy": "uỳ",
|
36 |
+
"Ùy": "Uỳ",
|
37 |
+
"ÙY": "UỲ",
|
38 |
+
"úy": "uý",
|
39 |
+
"Úy": "Uý",
|
40 |
+
"ÚY": "UÝ",
|
41 |
+
"ủy": "uỷ",
|
42 |
+
"Ủy": "Uỷ",
|
43 |
+
"ỦY": "UỶ",
|
44 |
+
"ũy": "uỹ",
|
45 |
+
"Ũy": "Uỹ",
|
46 |
+
"ŨY": "UỸ",
|
47 |
+
"ụy": "uỵ",
|
48 |
+
"Ụy": "Uỵ",
|
49 |
+
"ỤY": "UỴ",
|
50 |
+
}
|
51 |
+
|
52 |
+
### Normalize functions ###
|
53 |
+
def replace_all(text, dict_map=dict_map):
|
54 |
+
for i, j in dict_map.items():
|
55 |
+
text = unicodedata.normalize('NFC',str(text)).replace(i, j)
|
56 |
+
return text
|
57 |
+
def normalize(text, segment=True):
|
58 |
+
text = replace_all(text, dict_map)
|
59 |
+
if segment:
|
60 |
+
text = ' '.join([' '.join(sent) for sent in rdrsegmenter.tokenize(text)])
|
61 |
+
return text
|
62 |
+
def text_preprocess(document):
|
63 |
+
punc = [i for i in ["\"", "-", ".", ":"]]#string.punctuation.replace(",","")]
|
64 |
+
stopword = [" thì ", " được ", " có ", " là "]
|
65 |
+
acronyms = {" wfh": " làm việc tại nhà ", " ot": " làm tăng ca ", " team": " nhóm ", " pm": " quản lý dự án ", " flexible": " linh động ",
|
66 |
+
" office": " văn phòng ", " feedback": " phản hồi ", " cty": " công ty ", " hr": " tuyển dụng ", " effective": " hiệu quả ",
|
67 |
+
" suggest": " gợi ý ", " hong": " không ", " ko": " không ", " vp": " văn phòng ", " plan ": " kế hoạch ", " planning": " lên kế hoạch ",
|
68 |
+
" family": " gia đình ", " leaders": " trưởng nhóm ", " leader": " trưởng nhóm ", ",": " , "}
|
69 |
+
|
70 |
+
document = re.sub(r"\n"," . ", document)
|
71 |
+
document = re.sub(r"\t"," ", document)
|
72 |
+
document = re.sub(r"\r","", document)
|
73 |
+
for p in punc:
|
74 |
+
document = document.replace(p," ")
|
75 |
+
for acr in acronyms:
|
76 |
+
tmp = [acr, acr.upper(), acr[0].upper()+acr[1:]]
|
77 |
+
for j in tmp:
|
78 |
+
document = re.sub(j, acronyms[acr], document)
|
79 |
+
#document = re.sub(j, acr.upper(), document)
|
80 |
+
for sw in stopword:
|
81 |
+
document = re.sub(sw, " ", document)
|
82 |
+
|
83 |
+
document = re.sub(" ", " ", document)
|
84 |
+
document = re.sub(" ", " ", document)
|
85 |
+
try:
|
86 |
+
document = ' '.join(rdrsegmenter.tokenize(document)[0])
|
87 |
+
except:
|
88 |
+
pass
|
89 |
+
return document.lower()
|
90 |
+
|
91 |
+
### Compute metrics for multiclass classification problem
|
92 |
+
def compute_metrics(pred):
|
93 |
+
labels = pred.label_ids
|
94 |
+
preds = pred.predictions.argmax(-1)
|
95 |
+
f1 = f1_score(labels, preds, average="weighted")
|
96 |
+
acc = accuracy_score(labels, preds)
|
97 |
+
return {"accuracy": acc, "f1": f1}
|
98 |
+
|
99 |
+
### Make multilabel result from Ner result
|
100 |
+
# mb and cls_class just a dictionary map id to class name, see train.py
|
101 |
+
def convert2cls(data, mb, cls_class):
|
102 |
+
data = list(set(data))
|
103 |
+
try:
|
104 |
+
data.remove(20)
|
105 |
+
except:
|
106 |
+
pass
|
107 |
+
for i, num in enumerate(data):
|
108 |
+
if num>=10:
|
109 |
+
data[i] -= 10
|
110 |
+
data[i] = cls_class[data[i]]
|
111 |
+
data = mb.transform([data])[0]
|
112 |
+
return list(data)
|