import streamlit as st from transformers import pipeline import re import time # تحميل النموذج classifier = pipeline("zero-shot-classification", model="cross-encoder/nli-distilroberta-base") # عنوان التطبيق st.title("Keyword & URL Analysis App") # اختيار العملية operation = st.radio("Choose an operation:", ["Filter Keywords", "Analyze URLs"]) # إدخال الملف النصي uploaded_file = st.file_uploader("Upload a text file", type=["txt"]) if uploaded_file is not None: # قراءة الملف النصي content = uploaded_file.read().decode("utf-8") items = [line.strip() for line in content.splitlines() if line.strip()] # تحديد الفئات categories = ["shop", "game", "stream"] # قوائم لتخزين النتائج (Keywords) shopping_items = [] gaming_items = [] streaming_items = [] unknown_items = [] # قوائم لتحليل الروابط parameters = [] domains = [] full_page_types = [] file_extensions = [] # متغيرات للتحكم في العملية progress_bar = st.progress(0) pause_button = st.button("Pause") stop_button = st.button("Stop") continue_button = st.button("Continue") paused = False stopped = False current_index = 0 # مؤشر للعنصر الحالي batch_size = 10 # عدد العناصر التي يتم معالجتها في الدفعة الواحدة # دالة تصنيف الكلمات المفتاحية باستخدام الدفعات def classify_keywords_batch(items, categories, start_index=0): global paused, stopped, current_index total_items = len(items) for i in range(start_index, total_items, batch_size): if stopped: break if paused: time.sleep(0.5) continue # معالجة دفعة من العناصر batch = items[i:i + batch_size] results = classifier(batch, categories) for j, result in enumerate(results): best_category = result['labels'][0] score = result['scores'][0] if best_category == "shop" and score > 0.5: shopping_items.append(batch[j]) elif best_category == "game" and score > 0.5: gaming_items.append(batch[j]) elif best_category == "stream" and score > 0.5: streaming_items.append(batch[j]) else: unknown_items.append(batch[j]) # تحديث المؤشر الحالي current_index = min(i + batch_size, total_items) # تحديث شريط التقدم progress = min((current_index) / total_items, 1.0) progress_bar.progress(progress) # تحديث النتائج في الوقت الحقيقي update_results() # إبطاء العملية قليلاً للسماح بتحديث الواجهة time.sleep(0.1) # دالة تحليل الروابط def analyze_urls(urls, start_index=0): global paused, stopped, current_index total_items = len(urls) for i in range(start_index, total_items, batch_size): if stopped: break if paused: time.sleep(0.5) continue # معالجة دفعة من الروابط batch = urls[i:i + batch_size] for url in batch: # استخراج الباراميترات بدون '=' params = re.findall(r'(\w+)=', url) parameters.extend(params) # استخراج الدومينات فقط (مثل .com, .org) domain_match = re.search(r'\.([a-zA-Z]{2,})$', url) if domain_match: domain = domain_match.group(1) if domain not in domains: domains.append(domain) # استخراج أنماط الصفحات الكاملة (مثل product_detail.php?, index.php?) page_type_match = re.search(r'(\w+\.[a-z]+)\?', url) if page_type_match: page_type = page_type_match.group(1) if page_type not in full_page_types: full_page_types.append(page_type) # استخراج الصيغ (مثل php, phtml, asp) بدون باقي الرابط extension_match = re.search(r'\.([a-z]+)(\?|$)', url) if extension_match: extension = extension_match.group(1) if extension not in file_extensions: file_extensions.append(extension) # تحديث المؤشر الحالي current_index = min(i + batch_size, total_items) # تحديث شريط التقدم progress = min((current_index) / total_items, 1.0) progress_bar.progress(progress) # تحديث النتائج في الوقت الحقيقي update_results() # إبطاء العملية قليلاً للسماح بتحديث الواجهة time.sleep(0.1) # دالة تحديث النتائج def update_results(): # تحديث محتوى المربعات النصية للكلمات المفتاحية st.session_state.shopping_text = "\n".join(shopping_items) st.session_state.gaming_text = "\n".join(gaming_items) st.session_state.streaming_text = "\n".join(streaming_items) st.session_state.unknown_text = "\n".join(unknown_items) # تحديث محتوى المربعات الخاصة بالروابط st.session_state.parameters = "\n".join(set(parameters)) st.session_state.domains = "\n".join(domains) st.session_state.full_page_types = "\n".join(full_page_types) st.session_state.file_extensions = "\n".join(file_extensions) # دالة تصدير النتائج def export_results(key, filename): with open(filename, "w") as f: f.write(st.session_state[key]) st.success(f"Results exported to {filename}") # زر البدء if st.button("Start"): stopped = False paused = False current_index = 0 if operation == "Filter Keywords": classify_keywords_batch(items, categories, start_index=current_index) elif operation == "Analyze URLs": analyze_urls(items, start_index=current_index) # زر الإيقاف المؤقت if pause_button: paused = True st.write("Process paused.") # زر الاستمرار if continue_button and paused: paused = False st.write("Process resumed.") if operation == "Filter Keywords": classify_keywords_batch(items, categories, start_index=current_index) elif operation == "Analyze URLs": analyze_urls(items, start_index=current_index) # زر التوقف الكامل if stop_button: stopped = True st.write("Process stopped.") # عرض النتائج بناءً على الخيار المختار if operation == "Filter Keywords": # عرض النتائج للكلمات المفتاحية st.header("Shopping Keywords") if 'shopping_text' not in st.session_state: st.session_state.shopping_text = "" st.text_area("Copy the shopping keywords here:", value=st.session_state.shopping_text, height=200, key="shopping") st.button("Export Shopping Keywords", on_click=export_results, args=("shopping_text", "shopping_keywords.txt")) st.header("Gaming Keywords") if 'gaming_text' not in st.session_state: st.session_state.gaming_text = "" st.text_area("Copy the gaming keywords here:", value=st.session_state.gaming_text, height=200, key="gaming") st.button("Export Gaming Keywords", on_click=export_results, args=("gaming_text", "gaming_keywords.txt")) st.header("Streaming Keywords") if 'streaming_text' not in st.session_state: st.session_state.streaming_text = "" st.text_area("Copy the streaming keywords here:", value=st.session_state.streaming_text, height=200, key="streaming") st.button("Export Streaming Keywords", on_click=export_results, args=("streaming_text", "streaming_keywords.txt")) st.header("Unknown Keywords") if 'unknown_text' not in st.session_state: st.session_state.unknown_text = "" st.text_area("Copy the unknown keywords here:", value=st.session_state.unknown_text, height=200, key="unknown") st.button("Export Unknown Keywords", on_click=export_results, args=("unknown_text", "unknown_keywords.txt")) elif operation == "Analyze URLs": # عرض النتائج للروابط st.header("Parameters") if 'parameters' not in st.session_state: st.session_state.parameters = "" st.text_area("Copy the parameters here:", value=st.session_state.parameters, height=200, key="parameters") st.button("Export Parameters", on_click=export_results, args=("parameters", "parameters.txt")) st.header("Domains") if 'domains' not in st.session_state: st.session_state.domains = "" st.text_area("Copy the domains here:", value=st.session_state.domains, height=200, key="domains") st.button("Export Domains", on_click=export_results, args=("domains", "domains.txt")) st.header("Full PageType") if 'full_page_types' not in st.session_state: st.session_state.full_page_types = "" st.text_area("Copy the full page types here:", value=st.session_state.full_page_types, height=200, key="full_page_types") st.button("Export Full PageTypes", on_click=export_results, args=("full_page_types", "full_page_types.txt")) st.header("File Extensions") if 'file_extensions' not in st.session_state: st.session_state.file_extensions = "" st.text_area("Copy the file extensions here:", value=st.session_state.file_extensions, height=200, key="file_extensions") st.button("Export File Extensions", on_click=export_results, args=("file_extensions", "file_extensions.txt")) else: st.warning("Please upload a text file to start analysis.")