RAG_test_1 / app.py
la04's picture
Update app.py
2925149 verified
raw
history blame
3.38 kB
import gradio as gr
import os
import pdfplumber
from langchain.vectorstores import Chroma
from langchain_community.embeddings import HuggingFaceEmbeddings
from langchain.chains import RetrievalQA
from langchain.prompts import PromptTemplate
from langchain.document_loaders import TextLoader
# Funktion zum Extrahieren von Text aus einer PDF mit pdfplumber
def extract_text_from_pdf(pdf_path):
with pdfplumber.open(pdf_path) as pdf:
text_pages = []
for page_num, page in enumerate(pdf.pages):
text = page.extract_text()
if text:
text_pages.append({'page': page_num + 1, 'text': text})
return text_pages
# RAG Funktion zum Verarbeiten der PDF und Beantworten der Frage
def process_pdf_and_query(pdf_path, question):
# Extrahiere den Text aus der PDF
text_pages = extract_text_from_pdf(pdf_path)
# Alle Seiten in einem Dokument zusammenführen
documents = [doc['text'] for doc in text_pages]
# Embedding mit Hugging Face Embeddings
embeddings = HuggingFaceEmbeddings(model_name="sentence-transformers/all-MiniLM-L6-v2")
# Chroma Vektor-Datenbank erstellen
vectordb = Chroma.from_documents(documents, embeddings)
# Erstellen eines Retrievers
retriever = vectordb.as_retriever()
# Prompt Template erstellen
prompt_template = "Beantworte die folgende Frage basierend auf dem Dokument: {context}\nFrage: {question}\nAntwort:"
prompt = PromptTemplate(input_variables=["context", "question"], template=prompt_template)
# RetrievalQA Chain erstellen
qa_chain = RetrievalQA.from_chain_type(llm=None, retriever=retriever, chain_type_kwargs={"prompt": prompt})
# Antwort generieren
answer = qa_chain.run(input_documents=documents, question=question)
return answer, text_pages
# Funktion für den Gradio Chatbot
def chatbot_response(pdf, question):
# Gradio gibt uns die PDF als NamedString, wir extrahieren den Inhalt als Byte-Stream
pdf_path = "/tmp/uploaded_pdf.pdf"
# Speichern des Byte-Streams von der Datei
with open(pdf_path, "wb") as f:
f.write(pdf.read())
# Frage beantworten basierend auf der PDF und den extrahierten Inhalten
answer, text_pages = process_pdf_and_query(pdf_path, question)
# Ermitteln, auf welcher Seite der relevante Text gefunden wurde
# Wir können den relevanten Text aus der Antwort extrahieren und auf die Seite referenzieren
referenced_page = None
for doc in text_pages:
if doc['text'] in answer:
referenced_page = doc['page']
break
# Temporäre Datei löschen
os.remove(pdf_path)
# Antwort und Seitenreferenz zurückgeben
if referenced_page:
return f"Antwort: {answer}\n(Referenz zur Seite {referenced_page})"
else:
return f"Antwort: {answer}\n(Seitenreferenz nicht verfügbar)"
# Gradio Interface
pdf_input = gr.File(label="PDF-Datei hochladen")
question_input = gr.Textbox(label="Frage eingeben")
response_output = gr.Textbox(label="Antwort")
interface = gr.Interface(
fn=chatbot_response,
inputs=[pdf_input, question_input],
outputs=response_output,
title="RAG Chatbot mit PDF-Unterstützung",
description="Lade eine PDF-Datei hoch und stelle Fragen zu ihrem Inhalt."
)
if __name__ == "__main__":
interface.launch()