File size: 3,748 Bytes
a56a0d0
 
 
8b16906
 
 
 
a56a0d0
 
 
 
8b16906
a56a0d0
8b16906
 
a56a0d0
82ce806
8b16906
82ce806
a56a0d0
 
 
 
 
 
 
 
 
 
 
 
 
 
8b16906
a56a0d0
82ce806
 
a56a0d0
047ea71
1301e19
 
 
 
a56a0d0
1301e19
8b16906
a56a0d0
 
 
 
 
 
8b16906
 
1301e19
a56a0d0
 
1301e19
a56a0d0
 
8b16906
 
 
 
 
 
a56a0d0
8b16906
a56a0d0
 
 
 
 
1301e19
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
8b16906
1301e19
 
 
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
76
77
78
79
80
81
82
83
84
85
86
87
88
89
90
91
92
93
94

import streamlit as st
import faiss
import langchain
from llama_index.callbacks import CallbackManager
from llama_index import  ServiceContext,VectorStoreIndex
from llama_index.chat_engine import CondenseQuestionChatEngine
from llama_index.node_parser import SimpleNodeParser
from llama_index.langchain_helpers.text_splitter import TokenTextSplitter
from llama_index.constants import DEFAULT_CHUNK_OVERLAP
from llama_index.response_synthesizers import get_response_synthesizer
from llama_index import  SimpleWebPageReader

# from llama_index.prompts import Prompt
from llama_index import Prompt
import tiktoken
import common
langchain.verbose = True

custom_prompt = Prompt("""\
  以下はこれまでの会話履歴と、ドキュメントを検索して回答する必要がある、ユーザーからの会話文です。
  会話と新しい会話文に基づいて、検索クエリを作成します。回答は日本語で行います。
  新しい会話文が挨拶の場合、挨拶を返してください。
  新しい会話文が質問の場合、検索した結果の回答を返してください。
  答えがわからない場合は正直にわからないと回答してください。
  会話履歴:
  {chat_history}
  新しい会話文:
  {question}
  Search query:
""")
chat_history = []

from log import logger

common.check_login()

st.title("💬 ChatbotWebRead")

URLtext = st.text_input(
    "読み込むURLを入力してください",
    placeholder="https://",
)

if st.button("URL reading",use_container_width=True):
    text_splitter = TokenTextSplitter( chunk_size=1500
      , chunk_overlap=DEFAULT_CHUNK_OVERLAP
      , tokenizer=tiktoken.encoding_for_model("gpt-3.5-turbo").encode)
    node_parser = SimpleNodeParser(text_splitter=text_splitter)
    d = 1536
    k=2
    faiss_index = faiss.IndexFlatL2(d)

    callback_manager = CallbackManager([st.session_state.llama_debug_handler])
    service_context = ServiceContext.from_defaults(node_parser=node_parser,callback_manager=callback_manager)

    webDocuments = SimpleWebPageReader(html_to_text=True).load_data(
        [URLtext]
    )
    logger.info(webDocuments)
    webIndex = VectorStoreIndex.from_documents(webDocuments,service_context=service_context)
    response_synthesizer = get_response_synthesizer(response_mode='refine')
    st.session_state.webQuery_engine = webIndex.as_query_engine(
        response_synthesizer=response_synthesizer,
        service_context=service_context,
    )
    st.session_state.web_chat_engine = CondenseQuestionChatEngine.from_defaults(
        query_engine=st.session_state.webQuery_engine, 
        condense_question_prompt=custom_prompt,
        chat_history=chat_history,
        verbose=True
    )

if st.button("リセット",use_container_width=True,disabled = not URLtext):
    st.session_state.web_chat_engine.reset()
    st.session_state.webmessages = [{"role": "assistant", "content": "お困りごとはございますか?"}]
    st.experimental_rerun()
    logger.info("reset")

if "webmessages" not in st.session_state:
    st.session_state["webmessages"] = [{"role": "assistant", "content": "お困りごとはございますか?"}]

for msg in st.session_state.webmessages:
    st.chat_message(msg["role"]).write(msg["content"])

if prompt := st.chat_input(disabled = not URLtext):
    st.session_state.webmessages.append({"role": "user", "content": prompt})
    st.chat_message("user").write(prompt)
    response = st.session_state.web_chat_engine.chat(prompt)
    logger.debug(st.session_state.llama_debug_handler.get_llm_inputs_outputs())
    msg = str(response)
    st.session_state.webmessages.append({"role": "assistant", "content": msg})
    st.chat_message("assistant").write(msg)