Spaces:
Sleeping
Sleeping
Upload 5 files
Browse files- .streamlit/config.toml +3 -0
- Demo.py +149 -0
- Dockerfile +70 -0
- pages/Workflow & Model Overview.py +245 -0
- requirements.txt +6 -0
.streamlit/config.toml
ADDED
@@ -0,0 +1,3 @@
|
|
|
|
|
|
|
|
|
1 |
+
[theme]
|
2 |
+
base="light"
|
3 |
+
primaryColor="#29B4E8"
|
Demo.py
ADDED
@@ -0,0 +1,149 @@
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
1 |
+
import streamlit as st
|
2 |
+
import sparknlp
|
3 |
+
import os
|
4 |
+
import pandas as pd
|
5 |
+
|
6 |
+
from sparknlp.base import *
|
7 |
+
from sparknlp.annotator import *
|
8 |
+
from pyspark.ml import Pipeline
|
9 |
+
from sparknlp.pretrained import PretrainedPipeline
|
10 |
+
from annotated_text import annotated_text
|
11 |
+
|
12 |
+
# Page configuration
|
13 |
+
st.set_page_config(
|
14 |
+
layout="wide",
|
15 |
+
initial_sidebar_state="auto"
|
16 |
+
)
|
17 |
+
|
18 |
+
# CSS for styling
|
19 |
+
st.markdown("""
|
20 |
+
<style>
|
21 |
+
.main-title {
|
22 |
+
font-size: 36px;
|
23 |
+
color: #4A90E2;
|
24 |
+
font-weight: bold;
|
25 |
+
text-align: center;
|
26 |
+
}
|
27 |
+
.section p, .section ul {
|
28 |
+
color: #666666;
|
29 |
+
}
|
30 |
+
</style>
|
31 |
+
""", unsafe_allow_html=True)
|
32 |
+
|
33 |
+
@st.cache_resource
|
34 |
+
def init_spark():
|
35 |
+
return sparknlp.start()
|
36 |
+
|
37 |
+
@st.cache_resource
|
38 |
+
def create_pipeline(model):
|
39 |
+
document_assembler = DocumentAssembler().setInputCol("text").setOutputCol("document")
|
40 |
+
sentence_detector = SentenceDetectorDLModel.pretrained("sentence_detector_dl", "xx").setInputCols(["document"]).setOutputCol("sentence")
|
41 |
+
|
42 |
+
tokenizer_input = "sentence" if model != "bert_token_classifier_scandi_ner" else "document"
|
43 |
+
tokenizer = Tokenizer().setInputCols([tokenizer_input]).setOutputCol("token")
|
44 |
+
|
45 |
+
embeddings = {
|
46 |
+
"norne_840B_300": 'glove_840B_300',
|
47 |
+
"norne_6B_300": 'glove_6B_300',
|
48 |
+
"norne_6B_100": 'glove_100d'
|
49 |
+
}.get(model, 'glove_100d')
|
50 |
+
|
51 |
+
embeddings_stage = WordEmbeddingsModel.pretrained(embeddings, lang='xx' if 'glove' in embeddings else None) \
|
52 |
+
.setInputCols(['document', 'token']) \
|
53 |
+
.setOutputCol('embeddings')
|
54 |
+
|
55 |
+
ner_model = BertForTokenClassification.pretrained("bert_token_classifier_scandi_ner", "xx") \
|
56 |
+
.setInputCols(["token", "document"]) \
|
57 |
+
.setOutputCol("ner") if model == "bert_token_classifier_scandi_ner" else \
|
58 |
+
NerDLModel.pretrained(model, 'no') \
|
59 |
+
.setInputCols(["document", "token", "embeddings"]) \
|
60 |
+
.setOutputCol("ner")
|
61 |
+
|
62 |
+
ner_converter = NerConverter().setInputCols(["document", "token", "ner"]).setOutputCol("ner_chunk")
|
63 |
+
|
64 |
+
stages = [document_assembler, sentence_detector, tokenizer, embeddings_stage, ner_model, ner_converter]
|
65 |
+
return Pipeline(stages=stages)
|
66 |
+
|
67 |
+
def fit_data(pipeline, data):
|
68 |
+
empty_df = spark.createDataFrame([['']]).toDF('text')
|
69 |
+
pipeline_model = pipeline.fit(empty_df)
|
70 |
+
model = LightPipeline(pipeline_model)
|
71 |
+
result = model.fullAnnotate(data)
|
72 |
+
return result
|
73 |
+
|
74 |
+
def annotate(data):
|
75 |
+
document, chunks, labels = data["Document"], data["NER Chunk"], data["NER Label"]
|
76 |
+
annotated_words = []
|
77 |
+
for chunk, label in zip(chunks, labels):
|
78 |
+
parts = document.split(chunk, 1)
|
79 |
+
if parts[0]:
|
80 |
+
annotated_words.append(parts[0])
|
81 |
+
annotated_words.append((chunk, label))
|
82 |
+
document = parts[1]
|
83 |
+
if document:
|
84 |
+
annotated_words.append(document)
|
85 |
+
annotated_text(*annotated_words)
|
86 |
+
|
87 |
+
# Set up the page layout
|
88 |
+
st.markdown('<div class="main-title">Gjenkjenne personer, steder, organisasjoner og andre enheter</div>', unsafe_allow_html=True)
|
89 |
+
|
90 |
+
# Sidebar content
|
91 |
+
model = st.sidebar.selectbox(
|
92 |
+
"Choose the pretrained model",
|
93 |
+
["bert_token_classifier_scandi_ner", "norne_840B_300", "norne_6B_300", "norne_6B_100"],
|
94 |
+
help="For more info about the models visit: https://sparknlp.org/models"
|
95 |
+
)
|
96 |
+
|
97 |
+
# Reference notebook link in sidebar
|
98 |
+
link = """
|
99 |
+
<a href="https://colab.research.google.com/github/JohnSnowLabs/spark-nlp-workshop/blob/master/tutorials/streamlit_notebooks/NER_NO.ipynb">
|
100 |
+
<img src="https://colab.research.google.com/assets/colab-badge.svg" style="zoom: 1.3" alt="Open In Colab"/>
|
101 |
+
</a>
|
102 |
+
"""
|
103 |
+
st.sidebar.markdown('Reference notebook:')
|
104 |
+
st.sidebar.markdown(link, unsafe_allow_html=True)
|
105 |
+
|
106 |
+
# Load examples
|
107 |
+
examples = [
|
108 |
+
"William Henry Gates III (født 28. oktober 1955) er en amerikansk forretningsmagnat, programvareutvikler, investor og filantrop. Han er best kjent som medgrunnlegger av Microsoft Corporation. I løpet av karrieren hos Microsoft hadde Gates stillingene som styreleder, administrerende direktør (CEO), president og sjefarkitekt for programvare, samtidig som han også var den største enkelteieren frem til mai 2014. Han er en av de mest kjente gründerne og pionerene innen mikrodatamaskinrevolusjonen på 1970- og 1980-tallet. Gates ble født og oppvokst i Seattle, Washington, og grunnla Microsoft sammen med barndomsvennen Paul Allen i 1975, i Albuquerque, New Mexico; det ble verdens største selskap for personlig datamaskinprogramvare. Gates ledet selskapet som styreleder og CEO fram til han trakk seg som CEO i januar 2000, men han forble styreleder og ble sjefarkitekt for programvare. På slutten av 1990-tallet ble Gates kritisert for sine forretningsmetoder, som ble ansett som anti-konkurransedyktige. Denne oppfatningen har blitt støttet av flere rettsavgjørelser. I juni 2006 annonserte Gates at han skulle gå over til en deltidsrolle i Microsoft og fulltidsarbeid ved Bill & Melinda Gates Foundation, den private veldedige stiftelsen han og kona Melinda Gates opprettet i 2000. Han overførte gradvis sine oppgaver til Ray Ozzie og Craig Mundie. Han trakk seg som styreleder i Microsoft i februar 2014 og overtok en ny stilling som teknologirådgiver for å støtte den nyutnevnte CEO-en Satya Nadella.",
|
109 |
+
"Mona Lisa er et oljemaleri fra det 16. århundre skapt av Leonardo. Den er utstilt på Louvre i Paris.",
|
110 |
+
"Da Sebastian Thrun begynte å jobbe med selvkjørende biler hos Google i 2007, tok få mennesker utenfor selskapet ham på alvor. 'Jeg kan fortelle deg at svært høytstående administrerende direktører for store amerikanske bilfirmaer ville håndhilse på meg og snu seg bort fordi det ikke var verdt å snakke med meg,' sa Thrun, nå medgrunnlegger og CEO for nettbasert høyere utdanningsoppstart Udacity, i et intervju med Recode tidligere denne uken.",
|
111 |
+
"Facebook er en sosial nettverkstjeneste lansert som TheFacebook 4. februar 2004. Den ble grunnlagt av Mark Zuckerberg sammen med sine universitetskamerater og medstudenter ved Harvard University Eduardo Saverin, Andrew McCollum, Dustin Moskovitz og Chris Hughes. Medlemskapet på nettstedet var opprinnelig begrenset til Harvard-studenter, men ble utvidet til andre høyskoler i Boston-området, Ivy League og gradvis de fleste universiteter i USA og Canada.",
|
112 |
+
"Historien om naturlig språkbehandling begynte generelt sett på 1950-tallet, selv om arbeid kan finnes fra tidligere perioder. I 1950 publiserte Alan Turing en artikkel med tittelen 'Computing Machinery and Intelligence' som foreslo det som nå kalles Turing-testen som kriterium for intelligens.",
|
113 |
+
"Geoffrey Everest Hinton er en engelsk-kanadisk kognitiv psykolog og datavitenskapsmann, mest kjent for sitt arbeid med kunstige nevrale nettverk. Siden 2013 deler han tiden sin mellom Google og University of Toronto. I 2017 grunnla han og ble Chief Scientific Advisor for Vector Institute in Toronto.",
|
114 |
+
"Da jeg fortalte John at jeg ville flytte til Alaska, advarte han meg om at jeg ville få problemer med å finne en Starbucks der.",
|
115 |
+
"Steven Paul Jobs var en amerikansk forretningsmagnat, industriell designer, investor og medieeier. Han var styreleder, administrerende direktør (CEO) og medgrunnlegger av Apple Inc., styreleder og majoritetseier av Pixar, medlem av styret i The Walt Disney Company etter oppkjøpet av Pixar, og grunnlegger, styreleder og CEO for NeXT. Jobs er bredt anerkjent som en pioner innen den personlige datamaskinrevolusjonen på 1970- og 1980-tallet, sammen med Apple-medgrunnleggeren Steve Wozniak. Jobs ble født i San Francisco, California, og ble satt opp for adopsjon. Han ble oppdratt i San Francisco Bay Area. Han gikk på Reed College i 1972 før han droppet ut samme år, og reiste gjennom India i 1974 på jakt etter opplysning og studerte zen-buddhisme.",
|
116 |
+
"Titanic er en amerikansk episk romantisk og katastrofefilm fra 1997 regissert,skrevet, co-produsert og co-redigert av James Cameron. Ved å inkludere både historiske og fiktive aspekter, er den basert på beretninger om RMS Titanics forlis, og har Leonardo DiCaprio og Kate Winslet i rollene som medlemmer av forskjellige sosiale klasser som forelsker seg om bord på skipet under dets ulykksalige jomfrureise.",
|
117 |
+
"Bortsett fra å være kongen av nord, er John Snow en engelsk lege og en leder innen utviklingen av anestesi og medisinsk hygiene. Han anses for å være den første som brukte data for å kurere kolerautbruddet i 1834."
|
118 |
+
]
|
119 |
+
|
120 |
+
selected_text = st.selectbox("Select an example", examples)
|
121 |
+
custom_input = st.text_input("Try it with your own Sentence!")
|
122 |
+
|
123 |
+
text_to_analyze = custom_input if custom_input else selected_text
|
124 |
+
|
125 |
+
st.subheader('Full example text')
|
126 |
+
HTML_WRAPPER = """<div class="scroll entities" style="overflow-x: auto; border: 1px solid #e6e9ef; border-radius: 0.25rem; padding: 1rem; margin-bottom: 2.5rem; white-space:pre-wrap">{}</div>"""
|
127 |
+
st.markdown(HTML_WRAPPER.format(text_to_analyze), unsafe_allow_html=True)
|
128 |
+
|
129 |
+
# Initialize Spark and create pipeline
|
130 |
+
spark = init_spark()
|
131 |
+
pipeline = create_pipeline(model)
|
132 |
+
output = fit_data(pipeline, text_to_analyze)
|
133 |
+
|
134 |
+
# Display matched sentence
|
135 |
+
st.subheader("Processed output:")
|
136 |
+
|
137 |
+
results = {
|
138 |
+
'Document': output[0]['document'][0].result,
|
139 |
+
'NER Chunk': [n.result for n in output[0]['ner_chunk']],
|
140 |
+
"NER Label": [n.metadata['entity'] for n in output[0]['ner_chunk']]
|
141 |
+
}
|
142 |
+
|
143 |
+
annotate(results)
|
144 |
+
|
145 |
+
with st.expander("View DataFrame"):
|
146 |
+
df = pd.DataFrame({'NER Chunk': results['NER Chunk'], 'NER Label': results['NER Label']})
|
147 |
+
df.index += 1
|
148 |
+
st.dataframe(df)
|
149 |
+
|
Dockerfile
ADDED
@@ -0,0 +1,70 @@
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
1 |
+
# Download base image ubuntu 18.04
|
2 |
+
FROM ubuntu:18.04
|
3 |
+
|
4 |
+
# Set environment variables
|
5 |
+
ENV NB_USER jovyan
|
6 |
+
ENV NB_UID 1000
|
7 |
+
ENV HOME /home/${NB_USER}
|
8 |
+
|
9 |
+
# Install required packages
|
10 |
+
RUN apt-get update && apt-get install -y \
|
11 |
+
tar \
|
12 |
+
wget \
|
13 |
+
bash \
|
14 |
+
rsync \
|
15 |
+
gcc \
|
16 |
+
libfreetype6-dev \
|
17 |
+
libhdf5-serial-dev \
|
18 |
+
libpng-dev \
|
19 |
+
libzmq3-dev \
|
20 |
+
python3 \
|
21 |
+
python3-dev \
|
22 |
+
python3-pip \
|
23 |
+
unzip \
|
24 |
+
pkg-config \
|
25 |
+
software-properties-common \
|
26 |
+
graphviz \
|
27 |
+
openjdk-8-jdk \
|
28 |
+
ant \
|
29 |
+
ca-certificates-java \
|
30 |
+
&& apt-get clean \
|
31 |
+
&& update-ca-certificates -f;
|
32 |
+
|
33 |
+
# Install Python 3.8 and pip
|
34 |
+
RUN add-apt-repository ppa:deadsnakes/ppa \
|
35 |
+
&& apt-get update \
|
36 |
+
&& apt-get install -y python3.8 python3-pip \
|
37 |
+
&& apt-get clean;
|
38 |
+
|
39 |
+
# Set up JAVA_HOME
|
40 |
+
ENV JAVA_HOME /usr/lib/jvm/java-8-openjdk-amd64/
|
41 |
+
RUN mkdir -p ${HOME} \
|
42 |
+
&& echo "export JAVA_HOME=/usr/lib/jvm/java-8-openjdk-amd64/" >> ${HOME}/.bashrc \
|
43 |
+
&& chown -R ${NB_UID}:${NB_UID} ${HOME}
|
44 |
+
|
45 |
+
# Create a new user named "jovyan" with user ID 1000
|
46 |
+
RUN useradd -m -u ${NB_UID} ${NB_USER}
|
47 |
+
|
48 |
+
# Switch to the "jovyan" user
|
49 |
+
USER ${NB_USER}
|
50 |
+
|
51 |
+
# Set home and path variables for the user
|
52 |
+
ENV HOME=/home/${NB_USER} \
|
53 |
+
PATH=/home/${NB_USER}/.local/bin:$PATH
|
54 |
+
|
55 |
+
# Set the working directory to the user's home directory
|
56 |
+
WORKDIR ${HOME}
|
57 |
+
|
58 |
+
# Upgrade pip and install Python dependencies
|
59 |
+
RUN python3.8 -m pip install --upgrade pip
|
60 |
+
COPY requirements.txt /tmp/requirements.txt
|
61 |
+
RUN python3.8 -m pip install -r /tmp/requirements.txt
|
62 |
+
|
63 |
+
# Copy the application code into the container at /home/jovyan
|
64 |
+
COPY --chown=${NB_USER}:${NB_USER} . ${HOME}
|
65 |
+
|
66 |
+
# Expose port for Streamlit
|
67 |
+
EXPOSE 7860
|
68 |
+
|
69 |
+
# Define the entry point for the container
|
70 |
+
ENTRYPOINT ["streamlit", "run", "Demo.py", "--server.port=7860", "--server.address=0.0.0.0"]
|
pages/Workflow & Model Overview.py
ADDED
@@ -0,0 +1,245 @@
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
1 |
+
import streamlit as st
|
2 |
+
|
3 |
+
# Custom CSS for better styling
|
4 |
+
st.markdown("""
|
5 |
+
<style>
|
6 |
+
.main-title {
|
7 |
+
font-size: 36px;
|
8 |
+
color: #4A90E2;
|
9 |
+
font-weight: bold;
|
10 |
+
text-align: center;
|
11 |
+
}
|
12 |
+
.sub-title {
|
13 |
+
font-size: 24px;
|
14 |
+
color: #4A90E2;
|
15 |
+
margin-top: 20px;
|
16 |
+
}
|
17 |
+
.section {
|
18 |
+
background-color: #f9f9f9;
|
19 |
+
padding: 15px;
|
20 |
+
border-radius: 10px;
|
21 |
+
margin-top: 20px;
|
22 |
+
}
|
23 |
+
.section h2 {
|
24 |
+
font-size: 22px;
|
25 |
+
color: #4A90E2;
|
26 |
+
}
|
27 |
+
.section p, .section ul {
|
28 |
+
color: #666666;
|
29 |
+
}
|
30 |
+
.link {
|
31 |
+
color: #4A90E2;
|
32 |
+
text-decoration: none;
|
33 |
+
}
|
34 |
+
</style>
|
35 |
+
""", unsafe_allow_html=True)
|
36 |
+
|
37 |
+
# Main Title
|
38 |
+
st.markdown('<div class="main-title">State-of-the-Art Named Entity Recognition with Spark NLP (Scandinavian Languages)</div>', unsafe_allow_html=True)
|
39 |
+
|
40 |
+
# Introduction
|
41 |
+
st.markdown("""
|
42 |
+
<div class="section">
|
43 |
+
<p>Named Entity Recognition (NER) is the task of identifying important words in a text and associating them with a category. For example, we may be interested in finding all the personal names in documents, or company names in news articles. Other examples include domain-specific uses such as identifying all disease names in a clinical text, or company trading codes in financial ones.</p>
|
44 |
+
<p>NER can be implemented with many approaches. In this post, we introduce a deep learning-based method using the BertForTokenClassification model. This approach leverages the scalability of Spark NLP with Python.</p>
|
45 |
+
</div>
|
46 |
+
""", unsafe_allow_html=True)
|
47 |
+
|
48 |
+
# Introduction to Spark NLP
|
49 |
+
st.markdown('<div class="sub-title">Introduction to Spark NLP</div>', unsafe_allow_html=True)
|
50 |
+
st.markdown("""
|
51 |
+
<div class="section">
|
52 |
+
<p>Spark NLP is an open-source library maintained by John Snow Labs. It is built on top of Apache Spark and Spark ML and provides simple, performant & accurate NLP annotations for machine learning pipelines that can scale easily in a distributed environment.</p>
|
53 |
+
<p>To install Spark NLP, you can simply use any package manager like conda or pip. For example, using pip you can simply run <code>pip install spark-nlp</code>. For different installation options, check the official <a href="https://nlp.johnsnowlabs.com/docs/en/install" target="_blank" class="link">documentation</a>.</p>
|
54 |
+
</div>
|
55 |
+
""", unsafe_allow_html=True)
|
56 |
+
|
57 |
+
# Using BertForTokenClassification Model
|
58 |
+
st.markdown('<div class="sub-title">Using BertForTokenClassification Model</div>', unsafe_allow_html=True)
|
59 |
+
st.markdown("""
|
60 |
+
<div class="section">
|
61 |
+
<p>The <code>BertForTokenClassification</code> model in Spark NLP is a deep learning-based approach for NER tasks. It uses BERT embeddings for token classification that achieve state-of-the-art results in most datasets. This model loads BERT models with a token classification head on top (a linear layer on top of the hidden-states output) e.g. for Named-Entity-Recognition (NER) tasks.</p>
|
62 |
+
</div>
|
63 |
+
""", unsafe_allow_html=True)
|
64 |
+
|
65 |
+
# Setup Instructions
|
66 |
+
st.markdown('<div class="sub-title">Setup</div>', unsafe_allow_html=True)
|
67 |
+
st.markdown('<p>To install Spark NLP in Python, use your favorite package manager (conda, pip, etc.). For example:</p>', unsafe_allow_html=True)
|
68 |
+
st.code("""
|
69 |
+
pip install spark-nlp
|
70 |
+
pip install pyspark
|
71 |
+
""", language="bash")
|
72 |
+
|
73 |
+
st.markdown("<p>Then, import Spark NLP and start a Spark session:</p>", unsafe_allow_html=True)
|
74 |
+
st.code("""
|
75 |
+
import sparknlp
|
76 |
+
|
77 |
+
# Start Spark Session
|
78 |
+
spark = sparknlp.start()
|
79 |
+
""", language='python')
|
80 |
+
|
81 |
+
# Example Usage with BertForTokenClassification Model in Scandinavian Languages
|
82 |
+
st.markdown('<div class="sub-title">Example Usage with BertForTokenClassification Model in Scandinavian Languages</div>', unsafe_allow_html=True)
|
83 |
+
st.markdown("""
|
84 |
+
<div class="section">
|
85 |
+
<p>Below is an example of how to set up and use the <code>BertForTokenClassification</code> model for named entity recognition in Scandinavian languages:</p>
|
86 |
+
</div>
|
87 |
+
""", unsafe_allow_html=True)
|
88 |
+
st.code('''
|
89 |
+
from sparknlp.base import *
|
90 |
+
from sparknlp.annotator import *
|
91 |
+
from pyspark.ml import Pipeline
|
92 |
+
|
93 |
+
# Document Assembler
|
94 |
+
document_assembler = DocumentAssembler()\\
|
95 |
+
.setInputCol("text")\\
|
96 |
+
.setOutputCol("document")
|
97 |
+
|
98 |
+
# Sentence Detector
|
99 |
+
sentenceDetector = SentenceDetectorDLModel.pretrained("sentence_detector_dl", "xx")\\
|
100 |
+
.setInputCols(["document"])\\
|
101 |
+
.setOutputCol("sentence")
|
102 |
+
|
103 |
+
# Tokenizer
|
104 |
+
tokenizer = Tokenizer()\\
|
105 |
+
.setInputCols(["sentence"])\\
|
106 |
+
.setOutputCol("token")
|
107 |
+
|
108 |
+
# Token Classifier
|
109 |
+
tokenClassifier = BertForTokenClassification.pretrained("bert_token_classifier_scandi_ner", "xx")\\
|
110 |
+
.setInputCols(["token", "document"])\\
|
111 |
+
.setOutputCol("ner")
|
112 |
+
|
113 |
+
# NER Converter
|
114 |
+
ner_converter = NerConverter()\\
|
115 |
+
.setInputCols(["sentence", "token", "ner"])\\
|
116 |
+
.setOutputCol("ner_chunk")
|
117 |
+
|
118 |
+
# Pipeline
|
119 |
+
nlpPipeline = Pipeline(stages=[documentAssembler, sentenceDetector, tokenizer, tokenClassifier, ner_converter])
|
120 |
+
|
121 |
+
# Example sentence
|
122 |
+
text = combined_text = """
|
123 |
+
Danish:
|
124 |
+
Lars Andersen arbejder som softwareudvikler i København. Han bor sammen med sin familie i en charmerende lejlighed i Vesterbro. I weekenderne nyder Lars at tage på cykelture i Frederiksberg Have og besøge museer som Statens Museum for Kunst. Han er også en stor fan af fodbold og følger med i kampe fra FC København og Brøndby IF.
|
125 |
+
|
126 |
+
Bokmål (Norwegian):
|
127 |
+
Anna Johansen jobber som arkitekt i Oslo. Hun bor i en moderne leilighet i sentrum og elsker å tilbringe helgene med å utforske nye restauranter og kafeer. Anna har en stor interesse for kunst og besøker ofte Nasjonalmuseet for å se på utstillinger. Hun er også en ivrig leser og tilbringer tid på biblioteket.
|
128 |
+
|
129 |
+
Nynorsk (Norwegian):
|
130 |
+
Martin Berg er landskapsarkitekt i Bergen. Han bur i ein historisk bygning i sentrum og nyt å gå på turar i nærområdet i helgene. Martin er opptatt av bærekraft og brukar mykje tid på å arbeide med grøne prosjekt og parker. Han er også engasjert i lokalt frivillig arbeid og deltek i arrangement på det lokale kulturhuset.
|
131 |
+
|
132 |
+
Swedish:
|
133 |
+
Emma Svensson arbetar som lärare i Stockholm. Hon bor i en charmig lägenhet i Södermalm och tillbringar sina helger med att utforska olika kulturevenemang och utställningar. Emma är en stor beundrare av svensk litteratur och besöker ofta biblioteket för att läsa de senaste romanerna. Hon är också en aktiv medlem i en lokal bokklubb.
|
134 |
+
|
135 |
+
Icelandic:
|
136 |
+
Jón Guðmundsson vinnur sem læknir í Reykjavík. Hann býr í fallegri íbúð í miðborginni og nýtur þess að fara í gönguferðir í Esju og heimsækja listasafn Reykjavíkur um helgar. Jón er áhugasamur um íslenska sagnfræði og eyðir oft tíma í að lesa gamla bókmenntir. Hann tekur einnig þátt í samfélagsverkefnum sem stuðla að menningarlegri fræðslu.
|
137 |
+
|
138 |
+
Faroese:
|
139 |
+
Rúna Hansen arbeiðir sum lærari í Tórshavn. Hon býr í einum rúmligum íbúð í miðbýin og nýtur at ferðast runt í náttúruni í frítíðini. Rúna hevur stóran áhuga fyri føroyskum bókmentum og fer ofta til bókasavnið at lesa nýggjastu útgávurnar. Hon er eisini aktiv í einum lokala bókaklubi.
|
140 |
+
"""
|
141 |
+
|
142 |
+
# Transforming data
|
143 |
+
empty_data = spark.createDataFrame([[""]]).toDF("text")
|
144 |
+
model = nlpPipeline.fit(empty_data)
|
145 |
+
result = model.transform(spark.createDataFrame([[text]]).toDF("text"))
|
146 |
+
|
147 |
+
# Select the result, entity, and confidence columns
|
148 |
+
result.select(
|
149 |
+
expr("explode(ner_chunk) as ner_chunk")
|
150 |
+
).select(
|
151 |
+
col("ner_chunk.result").alias("chunk"),
|
152 |
+
col("ner_chunk.metadata").getItem("entity").alias("ner_label")
|
153 |
+
).show(truncate=False)
|
154 |
+
''', language="python")
|
155 |
+
|
156 |
+
st.text("""
|
157 |
+
+------------------------+---------+
|
158 |
+
|chunk |ner_label|
|
159 |
+
+------------------------+---------+
|
160 |
+
|Danish |MISC |
|
161 |
+
|Lars Andersen |PER |
|
162 |
+
|København |LOC |
|
163 |
+
|Vesterbro |LOC |
|
164 |
+
|Lars |PER |
|
165 |
+
|Frederiksberg Have |LOC |
|
166 |
+
|Statens Museum for Kunst|ORG |
|
167 |
+
|FC København |ORG |
|
168 |
+
|Brøndby IF |ORG |
|
169 |
+
|Bokmål |MISC |
|
170 |
+
|Norwegian |MISC |
|
171 |
+
|Anna Johansen |PER |
|
172 |
+
|Oslo |LOC |
|
173 |
+
|Anna |PER |
|
174 |
+
|Nasjonalmuseet |ORG |
|
175 |
+
|Nynorsk |MISC |
|
176 |
+
|Norwegian |ORG |
|
177 |
+
|Martin Berg |PER |
|
178 |
+
|Bergen |LOC |
|
179 |
+
|Martin |PER |
|
180 |
+
+------------------------+---------+
|
181 |
+
""")
|
182 |
+
|
183 |
+
# Available Models in Spark NLP
|
184 |
+
st.markdown('<div class="sub-title">Available Models in Spark NLP</div>', unsafe_allow_html=True)
|
185 |
+
st.markdown("""
|
186 |
+
<div class="section">
|
187 |
+
<p>Spark NLP provides a variety of pre-trained models for different NLP tasks. These models are designed to be used out-of-the-box and cover a wide range of applications, including NER, sentiment analysis, text classification, and more. You can explore and choose from the available models at the <a href="https://sparknlp.org/models" target="_blank" class="link">Spark NLP Models Hub</a>.</p>
|
188 |
+
</div>
|
189 |
+
""", unsafe_allow_html=True)
|
190 |
+
|
191 |
+
# Benchmark Section
|
192 |
+
st.markdown('<div class="sub-title">Benchmark</div>', unsafe_allow_html=True)
|
193 |
+
st.markdown("""
|
194 |
+
<div class="section">
|
195 |
+
<p>Evaluating the performance of NER models is crucial to understanding their effectiveness in real-world applications. Below are the benchmark results for the "bert_token_classifier_scandi_ner" model on 6 Scandinavian languages, focusing on various named entity categories. The metrics used include precision, recall, and F1-score, which are standard for evaluating classification models.</p>
|
196 |
+
</div>
|
197 |
+
""", unsafe_allow_html=True)
|
198 |
+
st.markdown("""
|
199 |
+
---
|
200 |
+
#### Classification Report
|
201 |
+
|
202 |
+
| Language | F1 Score |
|
203 |
+
|------------|----------|
|
204 |
+
| Danish | 0.8744 |
|
205 |
+
| Bokmål | 0.9106 |
|
206 |
+
| Nynorsk | 0.9042 |
|
207 |
+
| Swedish | 0.8837 |
|
208 |
+
| Icelandic | 0.8861 |
|
209 |
+
| Faroese | 0.9022 |
|
210 |
+
|
211 |
+
---
|
212 |
+
""", unsafe_allow_html=True)
|
213 |
+
|
214 |
+
# Summary
|
215 |
+
st.markdown('<div class="sub-title">Summary</div>', unsafe_allow_html=True)
|
216 |
+
st.markdown("""
|
217 |
+
<div class="section">
|
218 |
+
<p>In this article, we discussed named entity recognition using a deep learning-based method with the "bert_token_classifier_scandi_ner" model for Scandinavian languages. We introduced how to perform the task using the open-source Spark NLP library with Python, which can be used at scale in the Spark ecosystem. These methods can be used for natural language processing applications in various fields, including finance and healthcare.</p>
|
219 |
+
</div>
|
220 |
+
""", unsafe_allow_html=True)
|
221 |
+
|
222 |
+
# References
|
223 |
+
st.markdown('<div class="sub-title">References</div>', unsafe_allow_html=True)
|
224 |
+
st.markdown("""
|
225 |
+
<div class="section">
|
226 |
+
<ul>
|
227 |
+
<li><a class="link" href="https://sparknlp.org/api/python/reference/autosummary/sparknlp/annotator/classifier_dl/bert_for_token_classification/index.html" target="_blank" rel="noopener">BertForTokenClassification </a> annotator documentation</li>
|
228 |
+
<li>Model Used: <a class="link" href="https://sparknlp.org/2021/12/09/bert_token_classifier_scandi_ner_xx.html" target="_blank" rel="noopener">bert_token_classifier_scandi_ner</a></li>
|
229 |
+
<li><a class="link" href="https://nlp.johnsnowlabs.com/recognize_entitie" target="_blank" rel="noopener">Visualization demos for NER in Spark NLP</a></li>
|
230 |
+
<li><a class="link" href="https://www.johnsnowlabs.com/named-entity-recognition-ner-with-bert-in-spark-nlp/">Named Entity Recognition (NER) with BERT in Spark NLP</a></li>
|
231 |
+
</ul>
|
232 |
+
</div>
|
233 |
+
""", unsafe_allow_html=True)
|
234 |
+
|
235 |
+
# Community & Support
|
236 |
+
st.markdown('<div class="sub-title">Community & Support</div>', unsafe_allow_html=True)
|
237 |
+
st.markdown("""
|
238 |
+
<div class="section">
|
239 |
+
<ul>
|
240 |
+
<li><a class="link" href="https://sparknlp.org/" target="_blank">Official Website</a>: Documentation and examples</li>
|
241 |
+
<li><a class="link" href="https://github.com/JohnSnowLabs/spark-nlp" target="_blank">GitHub Repository</a>: Report issues or contribute</li>
|
242 |
+
<li><a class="link" href="https://forum.johnsnowlabs.com/" target="_blank">Community Forum</a>: Ask questions, share ideas, and get support</li>
|
243 |
+
</ul>
|
244 |
+
</div>
|
245 |
+
""", unsafe_allow_html=True)
|
requirements.txt
ADDED
@@ -0,0 +1,6 @@
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
1 |
+
streamlit
|
2 |
+
st-annotated-text
|
3 |
+
pandas
|
4 |
+
numpy
|
5 |
+
spark-nlp
|
6 |
+
pyspark
|