File size: 1,318 Bytes
b4a415a
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
from langchain.prompts.prompt import PromptTemplate
from langchain.llms import OpenAI
from langchain.chains import ChatVectorDBChain

_template = """鑑於以下對話和後續問題,將後續問題改寫為獨立問題。
您可以假設這是有關中草藥和疾病與健康相關的問題。

Chat History:
{chat_history}
Follow Up Input: {question}
Standalone question:"""
CONDENSE_QUESTION_PROMPT = PromptTemplate.from_template(_template)

template = """你是一名 AI 助手,負責回答有關中草藥與健康相關的問題。
您將獲得一份長文檔的以下提取部分和一個問題。 提供對話答案。
如果你不知道答案,就說“我不確定。” 不要試圖編造答案。
如果問題不是關於中草藥與疾病健康的知識,請禮貌地告訴他們你只能回答關於中草藥相關的問題。
Question: {question}
=========
{context}
=========
Answer in Markdown:"""
QA_PROMPT = PromptTemplate(template=template, input_variables=["question", "context"])


def get_chain(vectorstore):
    llm = OpenAI(temperature=0,model_name="gpt-4")
    qa_chain = ChatVectorDBChain.from_llm(
        llm,
        vectorstore,
#        qa_prompt=QA_PROMPT,
        condense_question_prompt=CONDENSE_QUESTION_PROMPT,
        return_source_documents=True
    )
    return qa_chain