Pijush2023 commited on
Commit
652e286
·
verified ·
1 Parent(s): b254162

Update app.py

Browse files
Files changed (1) hide show
  1. app.py +13 -6
app.py CHANGED
@@ -83,7 +83,8 @@ else:
83
  logging.basicConfig(level=logging.DEBUG)
84
 
85
 
86
- embeddings = OpenAIEmbeddings(api_key=os.environ['OPENAI_API_KEY'])
 
87
 
88
 
89
  #Initialization
@@ -120,12 +121,12 @@ gpt4o_mini_model = initialize_gpt4o_mini_model()
120
 
121
  # Existing embeddings and vector store for GPT-4o
122
  gpt_embeddings = OpenAIEmbeddings(api_key=os.environ['OPENAI_API_KEY'])
123
- gpt_vectorstore = PineconeVectorStore(index_name="italy-dataset-gpt", embedding=gpt_embeddings)
124
  gpt_retriever = gpt_vectorstore.as_retriever(search_kwargs={'k': 5})
125
 
126
  # New vector store setup for Phi-3.5
127
  phi_embeddings = OpenAIEmbeddings(api_key=os.environ['OPENAI_API_KEY'])
128
- phi_vectorstore = PineconeVectorStore(index_name="phi-italy-dataset-gpt", embedding=phi_embeddings)
129
  phi_retriever = phi_vectorstore.as_retriever(search_kwargs={'k': 5})
130
 
131
 
@@ -136,7 +137,7 @@ phi_retriever = phi_vectorstore.as_retriever(search_kwargs={'k': 5})
136
  from pinecone import Pinecone
137
  pc = Pinecone(api_key=os.environ['PINECONE_API_KEY'])
138
 
139
- index_name = "radarfinaldata08192024"
140
  vectorstore = PineconeVectorStore(index_name=index_name, embedding=embeddings)
141
  retriever = vectorstore.as_retriever(search_kwargs={'k': 5})
142
 
@@ -334,12 +335,18 @@ QA_CHAIN_PROMPT_2 = PromptTemplate(input_variables=["context", "question"], temp
334
 
335
  phi_custom_template = """
336
  <|system|>
337
- You are a helpful assistant who provides clear, organized, crisp and conversational responses about an events,concerts,sports and all other activities of Birmingham,Alabama .<|end|>
 
 
 
 
 
 
338
  <|user|>
339
  {context}
340
  Question: {question}<|end|>
341
  <|assistant|>
342
- Sure! Here's the information you requested:
343
  """
344
 
345
 
 
83
  logging.basicConfig(level=logging.DEBUG)
84
 
85
 
86
+ # embeddings = OpenAIEmbeddings(api_key=os.environ['OPENAI_API_KEY'])
87
+ embeddings = HuggingFaceEmbeddings(model_name="sentence-transformers/all-mpnet-base-v2")
88
 
89
 
90
  #Initialization
 
121
 
122
  # Existing embeddings and vector store for GPT-4o
123
  gpt_embeddings = OpenAIEmbeddings(api_key=os.environ['OPENAI_API_KEY'])
124
+ gpt_vectorstore = PineconeVectorStore(index_name="italyv109102024", embedding=gpt_embeddings)
125
  gpt_retriever = gpt_vectorstore.as_retriever(search_kwargs={'k': 5})
126
 
127
  # New vector store setup for Phi-3.5
128
  phi_embeddings = OpenAIEmbeddings(api_key=os.environ['OPENAI_API_KEY'])
129
+ phi_vectorstore = PineconeVectorStore(index_name="italyv109102024", embedding=phi_embeddings)
130
  phi_retriever = phi_vectorstore.as_retriever(search_kwargs={'k': 5})
131
 
132
 
 
137
  from pinecone import Pinecone
138
  pc = Pinecone(api_key=os.environ['PINECONE_API_KEY'])
139
 
140
+ index_name = "italyv109102024"
141
  vectorstore = PineconeVectorStore(index_name=index_name, embedding=embeddings)
142
  retriever = vectorstore.as_retriever(search_kwargs={'k': 5})
143
 
 
335
 
336
  phi_custom_template = """
337
  <|system|>
338
+ Sei un esperto di lingua italiana e un madrelingua italiano. Il tuo compito è fornire risposte concise e dirette basate sul documento fornito. Non devi fare risposte personali o interpretative.
339
+ Ti prego di fornire i dettagli riguardanti il documento che sto per condividere, come il nome del documento, il numero di pagina e altre informazioni specifiche. Se non riesci a trovare la risposta, rispondi semplicemente con "Questa domanda esula dalla mia conoscenza."
340
+ Ecco i dettagli del documento da considerare:
341
+ - Nome del documento:
342
+ - Pagina:
343
+ - Altre informazioni necessarie:.
344
+ <|end|>
345
  <|user|>
346
  {context}
347
  Question: {question}<|end|>
348
  <|assistant|>
349
+ Sure! Here's the information :
350
  """
351
 
352