Spaces:
Runtime error
Runtime error
Update app.py
Browse files
app.py
CHANGED
@@ -83,7 +83,8 @@ else:
|
|
83 |
logging.basicConfig(level=logging.DEBUG)
|
84 |
|
85 |
|
86 |
-
embeddings = OpenAIEmbeddings(api_key=os.environ['OPENAI_API_KEY'])
|
|
|
87 |
|
88 |
|
89 |
#Initialization
|
@@ -120,12 +121,12 @@ gpt4o_mini_model = initialize_gpt4o_mini_model()
|
|
120 |
|
121 |
# Existing embeddings and vector store for GPT-4o
|
122 |
gpt_embeddings = OpenAIEmbeddings(api_key=os.environ['OPENAI_API_KEY'])
|
123 |
-
gpt_vectorstore = PineconeVectorStore(index_name="
|
124 |
gpt_retriever = gpt_vectorstore.as_retriever(search_kwargs={'k': 5})
|
125 |
|
126 |
# New vector store setup for Phi-3.5
|
127 |
phi_embeddings = OpenAIEmbeddings(api_key=os.environ['OPENAI_API_KEY'])
|
128 |
-
phi_vectorstore = PineconeVectorStore(index_name="
|
129 |
phi_retriever = phi_vectorstore.as_retriever(search_kwargs={'k': 5})
|
130 |
|
131 |
|
@@ -136,7 +137,7 @@ phi_retriever = phi_vectorstore.as_retriever(search_kwargs={'k': 5})
|
|
136 |
from pinecone import Pinecone
|
137 |
pc = Pinecone(api_key=os.environ['PINECONE_API_KEY'])
|
138 |
|
139 |
-
index_name = "
|
140 |
vectorstore = PineconeVectorStore(index_name=index_name, embedding=embeddings)
|
141 |
retriever = vectorstore.as_retriever(search_kwargs={'k': 5})
|
142 |
|
@@ -334,12 +335,18 @@ QA_CHAIN_PROMPT_2 = PromptTemplate(input_variables=["context", "question"], temp
|
|
334 |
|
335 |
phi_custom_template = """
|
336 |
<|system|>
|
337 |
-
|
|
|
|
|
|
|
|
|
|
|
|
|
338 |
<|user|>
|
339 |
{context}
|
340 |
Question: {question}<|end|>
|
341 |
<|assistant|>
|
342 |
-
Sure! Here's the information
|
343 |
"""
|
344 |
|
345 |
|
|
|
83 |
logging.basicConfig(level=logging.DEBUG)
|
84 |
|
85 |
|
86 |
+
# embeddings = OpenAIEmbeddings(api_key=os.environ['OPENAI_API_KEY'])
|
87 |
+
embeddings = HuggingFaceEmbeddings(model_name="sentence-transformers/all-mpnet-base-v2")
|
88 |
|
89 |
|
90 |
#Initialization
|
|
|
121 |
|
122 |
# Existing embeddings and vector store for GPT-4o
|
123 |
gpt_embeddings = OpenAIEmbeddings(api_key=os.environ['OPENAI_API_KEY'])
|
124 |
+
gpt_vectorstore = PineconeVectorStore(index_name="italyv109102024", embedding=gpt_embeddings)
|
125 |
gpt_retriever = gpt_vectorstore.as_retriever(search_kwargs={'k': 5})
|
126 |
|
127 |
# New vector store setup for Phi-3.5
|
128 |
phi_embeddings = OpenAIEmbeddings(api_key=os.environ['OPENAI_API_KEY'])
|
129 |
+
phi_vectorstore = PineconeVectorStore(index_name="italyv109102024", embedding=phi_embeddings)
|
130 |
phi_retriever = phi_vectorstore.as_retriever(search_kwargs={'k': 5})
|
131 |
|
132 |
|
|
|
137 |
from pinecone import Pinecone
|
138 |
pc = Pinecone(api_key=os.environ['PINECONE_API_KEY'])
|
139 |
|
140 |
+
index_name = "italyv109102024"
|
141 |
vectorstore = PineconeVectorStore(index_name=index_name, embedding=embeddings)
|
142 |
retriever = vectorstore.as_retriever(search_kwargs={'k': 5})
|
143 |
|
|
|
335 |
|
336 |
phi_custom_template = """
|
337 |
<|system|>
|
338 |
+
Sei un esperto di lingua italiana e un madrelingua italiano. Il tuo compito è fornire risposte concise e dirette basate sul documento fornito. Non devi fare risposte personali o interpretative.
|
339 |
+
Ti prego di fornire i dettagli riguardanti il documento che sto per condividere, come il nome del documento, il numero di pagina e altre informazioni specifiche. Se non riesci a trovare la risposta, rispondi semplicemente con "Questa domanda esula dalla mia conoscenza."
|
340 |
+
Ecco i dettagli del documento da considerare:
|
341 |
+
- Nome del documento:
|
342 |
+
- Pagina:
|
343 |
+
- Altre informazioni necessarie:.
|
344 |
+
<|end|>
|
345 |
<|user|>
|
346 |
{context}
|
347 |
Question: {question}<|end|>
|
348 |
<|assistant|>
|
349 |
+
Sure! Here's the information :
|
350 |
"""
|
351 |
|
352 |
|