Spaces:
Sleeping
Sleeping
Upload 5 files
Browse files- .streamlit/config.toml +3 -0
- Demo.py +143 -0
- Dockerfile +70 -0
- pages/Workflow & Model Overview.py +217 -0
- requirements.txt +6 -0
.streamlit/config.toml
ADDED
@@ -0,0 +1,3 @@
|
|
|
|
|
|
|
|
|
1 |
+
[theme]
|
2 |
+
base="light"
|
3 |
+
primaryColor="#29B4E8"
|
Demo.py
ADDED
@@ -0,0 +1,143 @@
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
1 |
+
import streamlit as st
|
2 |
+
import sparknlp
|
3 |
+
import os
|
4 |
+
import pandas as pd
|
5 |
+
|
6 |
+
from sparknlp.base import *
|
7 |
+
from sparknlp.annotator import *
|
8 |
+
from pyspark.ml import Pipeline
|
9 |
+
from sparknlp.pretrained import PretrainedPipeline
|
10 |
+
from annotated_text import annotated_text
|
11 |
+
|
12 |
+
# Page configuration
|
13 |
+
st.set_page_config(
|
14 |
+
layout="wide",
|
15 |
+
initial_sidebar_state="auto"
|
16 |
+
)
|
17 |
+
|
18 |
+
# CSS for styling
|
19 |
+
st.markdown("""
|
20 |
+
<style>
|
21 |
+
.main-title {
|
22 |
+
font-size: 36px;
|
23 |
+
color: #4A90E2;
|
24 |
+
font-weight: bold;
|
25 |
+
text-align: center;
|
26 |
+
}
|
27 |
+
.section {
|
28 |
+
background-color: #f9f9f9;
|
29 |
+
padding: 10px;
|
30 |
+
border-radius: 10px;
|
31 |
+
margin-top: 10px;
|
32 |
+
}
|
33 |
+
.section p, .section ul {
|
34 |
+
color: #666666;
|
35 |
+
}
|
36 |
+
</style>
|
37 |
+
""", unsafe_allow_html=True)
|
38 |
+
|
39 |
+
@st.cache_resource
|
40 |
+
def init_spark():
|
41 |
+
return sparknlp.start()
|
42 |
+
|
43 |
+
@st.cache_resource
|
44 |
+
def create_pipeline(model):
|
45 |
+
embeddings = WordEmbeddingsModel.pretrained("bengali_cc_300d", "bn") \
|
46 |
+
.setInputCols(["sentence", "token"]) \
|
47 |
+
.setOutputCol("embeddings")
|
48 |
+
|
49 |
+
ner = NerDLModel.pretrained("bengaliner_cc_300d", "bn") \
|
50 |
+
.setInputCols(["document", "token", "embeddings"]) \
|
51 |
+
.setOutputCol("ner")
|
52 |
+
|
53 |
+
pipeline = Pipeline(stages=[document_assembler, tokenizer, embeddings, ner, ner_converter])
|
54 |
+
|
55 |
+
return nlp_pipeline
|
56 |
+
|
57 |
+
def fit_data(pipeline, data):
|
58 |
+
empty_df = spark.createDataFrame([['']]).toDF('text')
|
59 |
+
pipeline_model = pipeline.fit(empty_df)
|
60 |
+
model = LightPipeline(pipeline_model)
|
61 |
+
result = model.fullAnnotate(data)
|
62 |
+
return result
|
63 |
+
|
64 |
+
def annotate(data):
|
65 |
+
document, chunks, labels = data["Document"], data["NER Chunk"], data["NER Label"]
|
66 |
+
annotated_words = []
|
67 |
+
for chunk, label in zip(chunks, labels):
|
68 |
+
parts = document.split(chunk, 1)
|
69 |
+
if parts[0]:
|
70 |
+
annotated_words.append(parts[0])
|
71 |
+
annotated_words.append((chunk, label))
|
72 |
+
document = parts[1]
|
73 |
+
if document:
|
74 |
+
annotated_words.append(document)
|
75 |
+
annotated_text(*annotated_words)
|
76 |
+
|
77 |
+
# Set up the page layout
|
78 |
+
st.markdown('<div class="main-title">Recognize entities in Bengali text</div>', unsafe_allow_html=True)
|
79 |
+
st.markdown('<div class="section"><p>Recognize Persons, Locations, Organization, and Time entities in Bengali text using Deep Learning Model</p></div>', unsafe_allow_html=True)
|
80 |
+
|
81 |
+
# Sidebar content
|
82 |
+
model = st.sidebar.selectbox(
|
83 |
+
"Choose the pretrained model",
|
84 |
+
["bengaliner_cc_300d"],
|
85 |
+
help="For more info about the models visit: https://sparknlp.org/models"
|
86 |
+
)
|
87 |
+
|
88 |
+
# Reference notebook link in sidebar
|
89 |
+
link = """
|
90 |
+
<a href="https://colab.research.google.com/github/JohnSnowLabs/spark-nlp-workshop/blob/master/tutorials/streamlit_notebooks/NER_BN.ipynb">
|
91 |
+
<img src="https://colab.research.google.com/assets/colab-badge.svg" style="zoom: 1.3" alt="Open In Colab"/>
|
92 |
+
</a>
|
93 |
+
"""
|
94 |
+
st.sidebar.markdown('Reference notebook:')
|
95 |
+
st.sidebar.markdown(link, unsafe_allow_html=True)
|
96 |
+
|
97 |
+
# Load examples
|
98 |
+
examples = [
|
99 |
+
"উইলিয়াম হেনরি গেটস III (জন্ম অক্টোবর ২৮, ১৯৫৫) একজন আমেরিকান ব্যবসায়ী, সফটওয়্যার ডেভেলপার, বিনিয়োগকারী এবং দাতা। তিনি মাইক্রোসফট কর্পোরেশনের সহ-প্রতিষ্ঠাতা হিসেবে সর্বাধিক পরিচিত। মাইক্রোসফটে তাঁর কর্মজীবনে, গেটস চেয়ারম্যান, প্রধান নির্বাহী কর্মকর্তা (CEO), প্রেসিডেন্ট এবং প্রধান সফটওয়্যার স্থপতি হিসেবে দায়িত্ব পালন করেছেন, পাশাপাশি ২০১৪ সালের মে পর্যন্ত সর্বাধিক শেয়ারহোল্ডার ছিলেন। তিনি ১৯৭০ এবং ১৯৮০ এর দশকের মাইক্রোকম্পিউটার বিপ্লবের অন্যতম পরিচিত উদ্যোক্তা এবং অগ্রদূত। সিয়াটল, ওয়াশিংটনে জন্মগ্রহণ ও বড় হওয়া গেটস, ১৯৭৫ সালে শৈশবের বন্ধু পল অ্যালেনের সাথে আলবুকার্কি, নিউ মেক্সিকোতে মাইক্রোসফটের সহ-প্রতিষ্ঠা করেন; এটি বিশ্বের বৃহত্তম ব্যক্তিগত কম্পিউটার সফটওয়্যার কোম্পানিতে পরিণত হয়। গেটস ২০০০ সা��ের জানুয়ারি পর্যন্ত চেয়ারম্যান ও CEO হিসেবে কোম্পানিকে নেতৃত্ব দেন, কিন্তু তিনি চেয়ারম্যান হিসাবে রয়ে যান এবং প্রধান সফটওয়্যার স্থপতি হন। ১৯৯০-এর দশকের শেষের দিকে, গেটসের ব্যবসায়িক কৌশলগুলোর জন্য সমালোচিত হয়েছিলেন, যা প্রতিযোগিতাহীন বলে বিবেচিত হয়েছে। এই মতামতটি বিভিন্ন আদালতের রায় দ্বারা সমর্থিত হয়েছে। ২০০৬ সালের জুনে, গেটস ঘোষণা করেছিলেন যে তিনি মাইক্রোসফটে আংশিক সময়ের ভূমিকা এবং বিল ও মেলিন্ডা গেটস ফাউন্ডেশনে পূর্ণকালীন কাজ করবেন, যা তিনি এবং তাঁর স্ত্রী মেলিন্ডা গেটস ২০০০ সালে প্রতিষ্ঠা করেছিলেন। তিনি ধীরে ধীরে তার দায়িত্বগুলি রে ওজি এবং ক্রেইগ মন্ডিকে হস্তান্তর করেন। তিনি ২০১৪ সালের ফেব্রুয়ারিতে মাইক্রোসফটের চেয়ারম্যান পদ থেকে সরে যান এবং নতুন নিয়োগপ্রাপ্ত CEO সত্য নাদেলার সমর্থনে প্রযুক্তি উপদেষ্টা হিসাবে নতুন পদ গ্রহণ করেন।",
|
100 |
+
"মোনা লিসা হল ১৬শ শতাব্দীর একটি তেলচিত্র যা লিওনার্দো দ্বারা নির্মিত। এটি প্যারিসের লুভরে সংরক্ষিত রয়েছে।",
|
101 |
+
"যখন সেবাস্টিয়ান থ্রুন ২০০৭ সালে গুগলে স্বয়ংচালিত গাড়ির উপর কাজ শুরু করেছিলেন, তখন কোম্পানির বাইরে খুব কম লোকই তাকে গুরুত্ব সহকারে নিয়েছিলেন। 'আমি বলতে পারি যে প্রধান আমেরিকান গাড়ি কোম্পানির অনেক শীর্ষস্থানীয় CEO আমার সাথে হাত মিলাতেন এবং দূরে সরে যেতেন কারণ আমি কথা বলার যোগ্য ছিলাম না,' থ্রুন বলেছিলেন, বর্তমানে অনলাইন উচ্চ শিক্ষা স্টার্টআপ উদাসিটির সহ-প্রতিষ্ঠাতা এবং CEO, এই সপ্তাহের শুরুতে রিকোডের সাথে একটি সাক্ষাৎকারে।",
|
102 |
+
"ফেসবুক একটি সামাজিক নেটওয়ার্কিং পরিষেবা যা ৪ ফেব্রুয়ারি, ২০০৪ তারিখে দ্যফেসবুক নামে চালু হয়। এটি হার্ভার্ড বিশ্ববিদ্যালয়ের ছাত্র মার্ক জুকারবার্গ তার কলেজ রুমমেট এবং সহপাঠী এডুয়ার্ডো স্যাভেরিন, অ্যান্ড্রু ম্যাককলাম, ডাস্টিন মস্কোভিটজ এবং ক্রিস হিউজের সাথে প্রতিষ্ঠা করেছিলেন। ওয়েবসাইটটির সদস্যপদ প্রাথমিকভাবে হার্ভার্ডের ছাত্রদের জন্য সীমাবদ্ধ ছিল, কিন্তু পরবর্তীতে বোস্টনের অন্যান্য কলেজ, আইভি লীগ এবং ধীরে ধীরে মার্কিন যুক্তরাষ্ট্র এবং কানাডার বেশিরভাগ বিশ্ববিদ্যালয়ে সম্প্রসারিত হয়।",
|
103 |
+
"প্রাকৃতিক ভাষা প্রক্রিয়াকরণের ইতিহাস সাধারণত ১৯৫০ এর দশকে শুরু হয়েছিল, যদিও আগের সময়ের কাজ পাওয়া যায়। ১৯৫০ সালে, অ্যালান টুরিং একটি প্রবন্ধ প্রকাশ করেন 'কম্পিউটিং মেশিনারি অ্যান্ড ইন্টেলিজেন্স' শিরোনামে যা বুদ্ধিমত্তার মানদণ্ড হিসাবে এখন টুরিং পরীক্ষা নামে পরিচিত প্রস্তাব করেছিল।",
|
104 |
+
"জিওফ্রি এভারেস্ট হিনটন একজন ইংরেজ-কানাডিয়ান কগনিটিভ সাইকোলজিস্ট এবং কম্পিউটার বিজ্ঞানী, কৃত্রিম নিউরাল নেটওয়ার্কে তার কাজের জন্য সর্বাধিক পরিচিত। ২০১৩ সাল থেকে তিনি গুগল এবং টরন্টো বিশ্ববিদ্যালয়ে কাজ করে তার সময় ভাগ করেন। ২০১৭ সালে, তিনি সহ-প্রতিষ্ঠা করেন এবং টরন্টোর ভেক্টর ইনস্টিটিউটের চিফ সায়েন্টিফিক অ্যাডভাইজার হন।",
|
105 |
+
"যখন আমি জনকে বলেছিলাম যে আমি আলাস্কায় যেতে চাই, তিনি আমাকে সতর্ক করেছিলেন যে সেখানে স্টারবাকস খুঁজে পাওয়া আমার জন্য কঠিন হবে।",
|
106 |
+
"স্টিভেন পল জবস একজন আমেরিকান ব্যবসায়ী, শিল্প ডিজাইনার, বিনিয়োগকারী এবং মিডিয়া মালিক ছিলেন। তিনি অ্যাপল ইনকর্পোরেটেডের চেয়ারম্যান, প্রধান নির্বাহী কর্মকর্তা (CEO) এবং সহ-প্রতিষ্ঠাতা ছিলেন, পিক্সারের চেয়ারম্যান এবং প্রধান শেয়ারহোল্ডার, এবং পিক্সার অধিগ্রহণের পর ওয়াল্ট ডিজনি কোম্পানির বোর্ডের সদস্য ছিলেন এবং নেক্সটের প্রতিষ্ঠাতা, চেয়ারম্যান এবং CEO ছিলেন। জবস ব্যাপকভাবে ব্যক্তিগত কম্পিউটার বিপ্লবের অগ্রদূত হিসেবে স্বীকৃত, অ্যাপলের সহ-প্রতিষ্ঠাতা স্টিভ ওজনিয়াকের সাথে। জবস সান ফ্রান্সিসকো, ক্যালিফোর্নিয়ায় জন্মগ্রহণ করেন এবং দত্তক হিসাবে লালিত হন। তিনি সান ফ্রান্সিসকো বে এলাকায় বেড়ে ওঠেন। ১৯৭২ সালে রিড কলেজে পড়াশোনা করেন এবং একই বছর পড়াশোনা ছেড়ে দেন, এবং ১৯৭৪ সালে ভারতের মধ্য দিয়ে ভ্রমণ করেন এবং আত্মশুদ্ধি এবং জেন বৌদ্ধধর্ম অধ্যয়ন করেন।",
|
107 |
+
"টাইটানিক ১৯৯৭ সালের একটি আমেরিকান মহাকাব্যিক রোমান্স এবং বিপর্যয় চলচ্চিত্র যা জেমস ক্যামেরন পরিচালিত, লিখিত, সহ-প্রযোজিত এবং সহ-সম্পাদিত। এটি ঐতিহাসিক এবং কাল্পনিক দিকগুলোকে অন্তর্ভুক্ত করে এবং RMS টাইটানিকের ডুবে যাওয়ার ঘটনাগুলির উপর ভিত্তি করে নির্মিত, এবং এর প্রধান ভূমিকায় রয়েছেন লিওনার্দো ডিক্যাপ্রিও এবং কেট উইন্সলেট, যারা বিভিন্ন সামাজিক শ্রেণীর সদস্য যারা জাহাজের দুর্ভাগ্যজনক প্রথম যাত্রায় প্রেমে পড়ে।",
|
108 |
+
"উত্তরের রাজা হওয়া ছাড়াও, জন স্নো একজন ইংরেজ চিকিৎসক এবং অ্যানেস্থেসিয়া এবং চিকিৎসা স্বাস্থ্যবিধির উন্নয়নের একজন নেতা। ১৮৩৪ সালে কলেরার প্রাদুর্ভাব নিরাময়ের জন্য ডেটা ব্যবহার করার জন্য তিনিই প্রথম হিসাবে বিবেচিত।"
|
109 |
+
]
|
110 |
+
|
111 |
+
selected_text = st.selectbox("Select an example", examples)
|
112 |
+
custom_input = st.text_input("Try it with your own Sentence!")
|
113 |
+
|
114 |
+
text_to_analyze = custom_input if custom_input else selected_text
|
115 |
+
|
116 |
+
st.subheader('Full example text')
|
117 |
+
HTML_WRAPPER = """<div class="scroll entities" style="overflow-x: auto; border: 1px solid #e6e9ef; border-radius: 0.25rem; padding: 1rem; margin-bottom: 2.5rem; white-space:pre-wrap">{}</div>"""
|
118 |
+
st.markdown(HTML_WRAPPER.format(text_to_analyze), unsafe_allow_html=True)
|
119 |
+
|
120 |
+
# Initialize Spark and create pipeline
|
121 |
+
spark = init_spark()
|
122 |
+
pipeline = create_pipeline(model)
|
123 |
+
output = fit_data(pipeline, text_to_analyze)
|
124 |
+
|
125 |
+
# Display matched sentence
|
126 |
+
st.subheader("Processed output:")
|
127 |
+
|
128 |
+
results = {
|
129 |
+
'Document': output[0]['document'][0].result,
|
130 |
+
'NER Chunk': [n.result for n in output[0]['ner_chunk']],
|
131 |
+
"NER Label": [n.metadata['entity'] for n in output[0]['ner_chunk']]
|
132 |
+
}
|
133 |
+
|
134 |
+
annotate(results)
|
135 |
+
|
136 |
+
with st.expander("View DataFrame"):
|
137 |
+
df = pd.DataFrame({'NER Chunk': results['NER Chunk'], 'NER Label': results['NER Label']})
|
138 |
+
df.index += 1
|
139 |
+
st.dataframe(df)
|
140 |
+
|
141 |
+
|
142 |
+
|
143 |
+
|
Dockerfile
ADDED
@@ -0,0 +1,70 @@
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
1 |
+
# Download base image ubuntu 18.04
|
2 |
+
FROM ubuntu:18.04
|
3 |
+
|
4 |
+
# Set environment variables
|
5 |
+
ENV NB_USER jovyan
|
6 |
+
ENV NB_UID 1000
|
7 |
+
ENV HOME /home/${NB_USER}
|
8 |
+
|
9 |
+
# Install required packages
|
10 |
+
RUN apt-get update && apt-get install -y \
|
11 |
+
tar \
|
12 |
+
wget \
|
13 |
+
bash \
|
14 |
+
rsync \
|
15 |
+
gcc \
|
16 |
+
libfreetype6-dev \
|
17 |
+
libhdf5-serial-dev \
|
18 |
+
libpng-dev \
|
19 |
+
libzmq3-dev \
|
20 |
+
python3 \
|
21 |
+
python3-dev \
|
22 |
+
python3-pip \
|
23 |
+
unzip \
|
24 |
+
pkg-config \
|
25 |
+
software-properties-common \
|
26 |
+
graphviz \
|
27 |
+
openjdk-8-jdk \
|
28 |
+
ant \
|
29 |
+
ca-certificates-java \
|
30 |
+
&& apt-get clean \
|
31 |
+
&& update-ca-certificates -f;
|
32 |
+
|
33 |
+
# Install Python 3.8 and pip
|
34 |
+
RUN add-apt-repository ppa:deadsnakes/ppa \
|
35 |
+
&& apt-get update \
|
36 |
+
&& apt-get install -y python3.8 python3-pip \
|
37 |
+
&& apt-get clean;
|
38 |
+
|
39 |
+
# Set up JAVA_HOME
|
40 |
+
ENV JAVA_HOME /usr/lib/jvm/java-8-openjdk-amd64/
|
41 |
+
RUN mkdir -p ${HOME} \
|
42 |
+
&& echo "export JAVA_HOME=/usr/lib/jvm/java-8-openjdk-amd64/" >> ${HOME}/.bashrc \
|
43 |
+
&& chown -R ${NB_UID}:${NB_UID} ${HOME}
|
44 |
+
|
45 |
+
# Create a new user named "jovyan" with user ID 1000
|
46 |
+
RUN useradd -m -u ${NB_UID} ${NB_USER}
|
47 |
+
|
48 |
+
# Switch to the "jovyan" user
|
49 |
+
USER ${NB_USER}
|
50 |
+
|
51 |
+
# Set home and path variables for the user
|
52 |
+
ENV HOME=/home/${NB_USER} \
|
53 |
+
PATH=/home/${NB_USER}/.local/bin:$PATH
|
54 |
+
|
55 |
+
# Set the working directory to the user's home directory
|
56 |
+
WORKDIR ${HOME}
|
57 |
+
|
58 |
+
# Upgrade pip and install Python dependencies
|
59 |
+
RUN python3.8 -m pip install --upgrade pip
|
60 |
+
COPY requirements.txt /tmp/requirements.txt
|
61 |
+
RUN python3.8 -m pip install -r /tmp/requirements.txt
|
62 |
+
|
63 |
+
# Copy the application code into the container at /home/jovyan
|
64 |
+
COPY --chown=${NB_USER}:${NB_USER} . ${HOME}
|
65 |
+
|
66 |
+
# Expose port for Streamlit
|
67 |
+
EXPOSE 7860
|
68 |
+
|
69 |
+
# Define the entry point for the container
|
70 |
+
ENTRYPOINT ["streamlit", "run", "Demo.py", "--server.port=7860", "--server.address=0.0.0.0"]
|
pages/Workflow & Model Overview.py
ADDED
@@ -0,0 +1,217 @@
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
1 |
+
import streamlit as st
|
2 |
+
import pandas as pd
|
3 |
+
|
4 |
+
# Custom CSS for better styling
|
5 |
+
st.markdown("""
|
6 |
+
<style>
|
7 |
+
.main-title {
|
8 |
+
font-size: 36px;
|
9 |
+
color: #4A90E2;
|
10 |
+
font-weight: bold;
|
11 |
+
text-align: center;
|
12 |
+
}
|
13 |
+
.sub-title {
|
14 |
+
font-size: 24px;
|
15 |
+
color: #4A90E2;
|
16 |
+
margin-top: 20px;
|
17 |
+
}
|
18 |
+
.section {
|
19 |
+
background-color: #f9f9f9;
|
20 |
+
padding: 15px;
|
21 |
+
border-radius: 10px;
|
22 |
+
margin-top: 20px;
|
23 |
+
}
|
24 |
+
.section h2 {
|
25 |
+
font-size: 22px;
|
26 |
+
color: #4A90E2;
|
27 |
+
}
|
28 |
+
.section p, .section ul {
|
29 |
+
color: #666666;
|
30 |
+
}
|
31 |
+
.link {
|
32 |
+
color: #4A90E2;
|
33 |
+
text-decoration: none;
|
34 |
+
}
|
35 |
+
</style>
|
36 |
+
""", unsafe_allow_html=True)
|
37 |
+
|
38 |
+
# Main Title
|
39 |
+
st.markdown('<div class="main-title">Named Entity Recognition (NER) Model in Bengali (bengaliner_cc_300d)</div>', unsafe_allow_html=True)
|
40 |
+
|
41 |
+
# Introduction
|
42 |
+
st.markdown("""
|
43 |
+
<div class="section">
|
44 |
+
<p>Named Entity Recognition (NER) is the task of identifying important words in a text and associating them with a category. In this post, we introduce an NER model designed for Bengali language texts. This model can detect four different types of entities in Indian text, leveraging the power of Spark NLP.</p>
|
45 |
+
</div>
|
46 |
+
""", unsafe_allow_html=True)
|
47 |
+
|
48 |
+
# Model Description
|
49 |
+
st.markdown('<div class="sub-title">Description</div>', unsafe_allow_html=True)
|
50 |
+
st.markdown("""
|
51 |
+
<div class="section">
|
52 |
+
<p>The <code>bengaliner_cc_300d</code> model is designed to detect four different types of entities in Bengali text. The predicted entities include:</p>
|
53 |
+
<ul>
|
54 |
+
<li>PER (Person)</li>
|
55 |
+
<li>ORG (Organization)</li>
|
56 |
+
<li>LOC (Location)</li>
|
57 |
+
<li>TIME (Time)</li>
|
58 |
+
</ul>
|
59 |
+
</div>
|
60 |
+
""", unsafe_allow_html=True)
|
61 |
+
|
62 |
+
# Setup Instructions
|
63 |
+
st.markdown('<div class="sub-title">Setup</div>', unsafe_allow_html=True)
|
64 |
+
st.markdown('<p>To install Spark NLP in Python, use your favorite package manager (conda, pip, etc.). For example:</p>', unsafe_allow_html=True)
|
65 |
+
st.code("""
|
66 |
+
pip install spark-nlp
|
67 |
+
pip install pyspark
|
68 |
+
""", language="bash")
|
69 |
+
|
70 |
+
st.markdown("<p>Then, import Spark NLP and start a Spark session:</p>", unsafe_allow_html=True)
|
71 |
+
st.code("""
|
72 |
+
import sparknlp
|
73 |
+
|
74 |
+
# Start Spark Session
|
75 |
+
spark = sparknlp.start()
|
76 |
+
""", language='python')
|
77 |
+
|
78 |
+
# Example Usage
|
79 |
+
st.markdown('<div class="sub-title">Example Usage with Bengali NER Model</div>', unsafe_allow_html=True)
|
80 |
+
st.markdown("""
|
81 |
+
<div class="section">
|
82 |
+
<p>Below is an example of how to set up and use the <code>bengaliner_cc_300d</code> model for named entity recognition in Bengali:</p>
|
83 |
+
</div>
|
84 |
+
""", unsafe_allow_html=True)
|
85 |
+
st.code('''
|
86 |
+
from sparknlp.base import *
|
87 |
+
from sparknlp.annotator import *
|
88 |
+
from pyspark.ml import Pipeline
|
89 |
+
from pyspark.sql.functions import col, expr, round, concat, lit
|
90 |
+
|
91 |
+
# Document Assembler
|
92 |
+
document_assembler = DocumentAssembler()\\
|
93 |
+
.setInputCol("text")\\
|
94 |
+
.setOutputCol("document")
|
95 |
+
|
96 |
+
# Tokenizer
|
97 |
+
tokenizer = Tokenizer()\\
|
98 |
+
.setInputCols(["document"])\\
|
99 |
+
.setOutputCol("token")
|
100 |
+
|
101 |
+
# Word Embeddings
|
102 |
+
embeddings = WordEmbeddingsModel.pretrained("bengali_cc_300d", "bn")\\
|
103 |
+
.setInputCols(["document", "token"])\\
|
104 |
+
.setOutputCol("embeddings")
|
105 |
+
|
106 |
+
# NER Model
|
107 |
+
ner = NerDLModel.pretrained("bengaliner_cc_300d", "bn")\\
|
108 |
+
.setInputCols(["document", "token", "embeddings"])\\
|
109 |
+
.setOutputCol("ner")
|
110 |
+
|
111 |
+
# NER Converter
|
112 |
+
ner_converter = NerConverter()\\
|
113 |
+
.setInputCols(["document", "token", "ner"])\\
|
114 |
+
.setOutputCol("ner_chunk")
|
115 |
+
|
116 |
+
# Pipeline
|
117 |
+
pipeline = Pipeline(stages=[document_assembler, tokenizer, embeddings, ner, ner_converter])
|
118 |
+
|
119 |
+
# Example sentence
|
120 |
+
example = spark.createDataFrame([["উইলিয়াম হেনরি গেটস III (জন্ম অক্টোবর ২৮, ১৯৫৫) একজন আমেরিকান ব্যবসায়ী, সফটওয়্যার ডেভেলপার, বিনিয়োগকারী এবং দাতা। তিনি মাইক্রোসফট কর্পোরেশনের সহ-প্রতিষ্ঠাতা হিসেবে সর্বাধিক পরিচিত। মাইক্রোসফটে তাঁর কর্মজীবনে, গেটস চেয়ারম্যান, প্রধান নির্বাহী কর্মকর্তা (CEO), প্রেসিডেন্ট এবং প্রধান সফটওয়্যার স্থপতি হিসেবে দায়িত্ব পালন করেছেন, পাশাপাশি ২০১৪ সালের মে পর্যন্ত সর্বাধিক শেয়ারহোল্ডার ছিলেন। তিনি ১৯৭০ এবং ১৯৮০ এর দশকের মাইক্রোকম্প��উটার বিপ্লবের অন্যতম পরিচিত উদ্যোক্তা এবং অগ্রদূত। সিয়াটল, ওয়াশিংটনে জন্মগ্রহণ ও বড় হওয়া গেটস, ১৯৭৫ সালে শৈশবের বন্ধু পল অ্যালেনের সাথে আলবুকার্কি, নিউ মেক্সিকোতে মাইক্রোসফটের সহ-প্রতিষ্ঠা করেন; এটি বিশ্বের বৃহত্তম ব্যক্তিগত কম্পিউটার সফটওয়্যার কোম্পানিতে পরিণত হয়। গেটস ২০০০ সালের জানুয়ারি পর্যন্ত চেয়ারম্যান ও CEO হিসেবে কোম্পানিকে নেতৃত্ব দেন, কিন্তু তিনি চেয়ারম্যান হিসাবে রয়ে যান এবং প্রধান সফটওয়্যার স্থপতি হন। ১৯৯০-এর দশকের শেষের দিকে, গেটসের ব্যবসায়িক কৌশলগুলোর জন্য সমালোচিত হয়েছিলেন, যা প্রতিযোগিতাহীন বলে বিবেচিত হয়েছে। এই মতামতটি বিভিন্ন আদালতের রায় দ্বারা সমর্থিত হয়েছে। ২০০৬ সালের জুনে, গেটস ঘোষণা করেছিলেন যে তিনি মাইক্রোসফটে আংশিক সময়ের ভূমিকা এবং বিল ও মেলিন্ডা গেটস ফাউন্ডেশনে পূর্ণকালীন কাজ করবেন, যা তিনি এবং তাঁর স্ত্রী মেলিন্ডা গেটস ২০০০ সালে প্রতিষ্ঠা করেছিলেন। তিনি ধীরে ধীরে তার দায়িত্বগুলি রে ওজি এবং ক্রেইগ মন্ডিকে হস্তান্তর করেন। তিনি ২০১৪ সালের ফেব্রুয়ারিতে মাইক্রোসফটের চেয়ারম্যান পদ থেকে সরে যান এবং নতুন নিয়োগপ্রাপ্ত CEO সত্য নাদেলার সমর্থনে প্রযুক্তি উপদেষ্টা হিসাবে নতুন পদ গ্রহণ করেন।"]], ["text"])
|
121 |
+
|
122 |
+
# Transforming data
|
123 |
+
result = pipeline.fit(example).transform(example)
|
124 |
+
|
125 |
+
# Select the result, entity, and confidence columns
|
126 |
+
result.select(
|
127 |
+
expr("explode(ner_chunk) as ner_chunk")
|
128 |
+
).select(
|
129 |
+
col("ner_chunk.result").alias("chunk"),
|
130 |
+
col("ner_chunk.metadata").getItem("entity").alias("ner_label")
|
131 |
+
).show(truncate=False)
|
132 |
+
''', language="python")
|
133 |
+
|
134 |
+
data = {
|
135 |
+
"Chunk": ["হেনরি গেটস", "সালের মে", "সিয়াটল", "সালে", "পল অ্যালেনের", "আলবুকার্কি", "নিউ মেক্সিকোতে", "সালের", "১৯৯০-এর", "সালের জুনে", "সালে", "ক্রেইগ মন্ডিকে", "সালের ফেব্রুয়ারিতে"],
|
136 |
+
"NER Label": ["PER", "TIME", "LOC", "TIME", "PER", "ORG", "LOC", "TIME", "TIME", "TIME", "TIME", "PER", "TIME"]
|
137 |
+
}
|
138 |
+
st.dataframe(pd.DataFrame(data))
|
139 |
+
|
140 |
+
# Model Information
|
141 |
+
st.markdown('<div class="sub-title">Model Information</div>', unsafe_allow_html=True)
|
142 |
+
st.markdown("""
|
143 |
+
<div class="section">
|
144 |
+
<p>The <code>bengaliner_cc_300d</code> model details are as follows:</p>
|
145 |
+
<ul>
|
146 |
+
<li><strong>Model Name:</strong> bengaliner_cc_300d</li>
|
147 |
+
<li><strong>Type:</strong> ner</li>
|
148 |
+
<li><strong>Compatibility:</strong> Spark NLP 2.7.3+</li>
|
149 |
+
<li><strong>License:</strong> Open Source</li>
|
150 |
+
<li><strong>Edition:</strong> Official</li>
|
151 |
+
<li><strong>Input Labels:</strong> [document, token, word_embeddings]</li>
|
152 |
+
<li><strong>Output Labels:</strong> [ner]</li>
|
153 |
+
<li><strong>Language:</strong> bn</li>
|
154 |
+
<li><strong>Data Source:</strong> This model is trained on data obtained from <a class="link" href="https://ieeexplore.ieee.org/document/8944804" target="_blank" rel="noopener">this paper</a></li>
|
155 |
+
</ul>
|
156 |
+
</div>
|
157 |
+
""", unsafe_allow_html=True)
|
158 |
+
|
159 |
+
# Benchmark Section
|
160 |
+
st.markdown('<div class="sub-title">Benchmark</div>', unsafe_allow_html=True)
|
161 |
+
st.markdown("""
|
162 |
+
<div class="section">
|
163 |
+
<p>Evaluating the performance of NER models is crucial to understanding their effectiveness in real-world applications. Below are the benchmark results for the <code>bengaliner_cc_300d</code> model, focusing on various named entity categories. The metrics used include precision, recall, and F1-score, which are standard for evaluating classification models.</p>
|
164 |
+
</div>
|
165 |
+
""", unsafe_allow_html=True)
|
166 |
+
st.markdown("""
|
167 |
+
---
|
168 |
+
|
169 |
+
| Label | TP | FP | FN | Precision | Recall | F1-Score |
|
170 |
+
|--------|------|------|------|-----------|--------|----------|
|
171 |
+
| I-TIME | 167 | 37 | 25 | 0.8186 | 0.8698 | 0.8434 |
|
172 |
+
| B-LOC | 678 | 114 | 195 | 0.8561 | 0.7766 | 0.8144 |
|
173 |
+
| I-ORG | 287 | 104 | 143 | 0.7340 | 0.6674 | 0.6991 |
|
174 |
+
| B-TIME | 414 | 54 | 123 | 0.8846 | 0.7710 | 0.8239 |
|
175 |
+
| I-LOC | 98 | 50 | 76 | 0.6622 | 0.5632 | 0.6087 |
|
176 |
+
| I-PER | 805 | 38 | 55 | 0.9549 | 0.9360 | 0.9454 |
|
177 |
+
| B-ORG | 446 | 108 | 225 | 0.8051 | 0.6647 | 0.7282 |
|
178 |
+
| B-PER | 764 | 48 | 183 | 0.9409 | 0.8068 | 0.8687 |
|
179 |
+
| Macro-average | - | - | - | 0.8320 | 0.7569 | 0.7927 |
|
180 |
+
| Micro-average | - | - | - | 0.8687 | 0.7812 | 0.8226 |
|
181 |
+
|
182 |
+
---
|
183 |
+
""", unsafe_allow_html=True)
|
184 |
+
|
185 |
+
# Summary
|
186 |
+
st.markdown('<div class="sub-title">Summary</div>', unsafe_allow_html=True)
|
187 |
+
st.markdown("""
|
188 |
+
<div class="section">
|
189 |
+
<p>In this article, we discussed named entity recognition using the <code>bengaliner_cc_300d</code> model for Bengali texts. We introduced how to perform NER with Spark NLP, set up the environment, and use the model. We also provided a detailed benchmark for the model's performance, demonstrating its effectiveness across various named entity categories.</p>
|
190 |
+
<p>For more information, refer to the <a class="link" href="https://sparknlp.org/2021/02/10/bengaliner_cc_300d_bn.html" target="_blank" rel="noopener">official documentation</a>.</p>
|
191 |
+
</div>
|
192 |
+
""", unsafe_allow_html=True)
|
193 |
+
|
194 |
+
# References
|
195 |
+
st.markdown('<div class="sub-title">References</div>', unsafe_allow_html=True)
|
196 |
+
st.markdown("""
|
197 |
+
<div class="section">
|
198 |
+
<ul>
|
199 |
+
<li><a class="link" href="https://sparknlp.org/api/python/reference/autosummary/sparknlp/annotator/ner/ner_dl/index.html" target="_blank" rel="noopener">NerDLModel</a> annotator documentation</li>
|
200 |
+
<li>Model Used: <a class="link" href="https://sparknlp.org/2021/02/10/bengaliner_cc_300d_bn.html" target="_blank" rel="noopener">bengaliner_cc_300d_bn</a></li>
|
201 |
+
<li><a class="link" href="https://nlp.johnsnowlabs.com/recognize_entitie" target="_blank" rel="noopener">Visualization demos for NER in Spark NLP</a></li>
|
202 |
+
<li><a class="link" href="https://www.johnsnowlabs.com/named-entity-recognition-ner-with-bert-in-spark-nlp/">Named Entity Recognition (NER) with BERT in Spark NLP</a></li>
|
203 |
+
</ul>
|
204 |
+
</div>
|
205 |
+
""", unsafe_allow_html=True)
|
206 |
+
|
207 |
+
# Community & Support
|
208 |
+
st.markdown('<div class="sub-title">Community & Support</div>', unsafe_allow_html=True)
|
209 |
+
st.markdown("""
|
210 |
+
<div class="section">
|
211 |
+
<ul>
|
212 |
+
<li><a class="link" href="https://sparknlp.org/" target="_blank">Official Website</a>: Documentation and examples</li>
|
213 |
+
<li><a class="link" href="https://github.com/JohnSnowLabs/spark-nlp" target="_blank">GitHub Repository</a>: Report issues or contribute</li>
|
214 |
+
<li><a class="link" href="https://forum.johnsnowlabs.com/" target="_blank">Community Forum</a>: Ask questions, share ideas, and get support</li>
|
215 |
+
</ul>
|
216 |
+
</div>
|
217 |
+
""", unsafe_allow_html=True)
|
requirements.txt
ADDED
@@ -0,0 +1,6 @@
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
1 |
+
streamlit
|
2 |
+
st-annotated-text
|
3 |
+
pandas
|
4 |
+
numpy
|
5 |
+
spark-nlp
|
6 |
+
pyspark
|