Spaces:
Sleeping
Sleeping
vectostoreindex
Browse files
app.py
CHANGED
@@ -64,6 +64,15 @@ INSTRUCTION_1 = 'In italiano, chiedi sempre se la domanda si riferisce agli "Oss
|
|
64 |
INSTRUCTION_2 = 'Sei un assistente che risponde sempre in italiano alle domande basandosi solo sulle informazioni fornite nel contesto che ti darò. Se non trovi informazioni, rispondi "Puoi chiedere maggiori informazioni all\'ufficio di riferimento.". Se invece la domanda è completamente fuori contesto, non rispondere e rammenta il topic del contesto'
|
65 |
|
66 |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
67 |
|
68 |
@spaces.GPU()
|
69 |
def generate(
|
@@ -107,14 +116,7 @@ def generate(
|
|
107 |
conversation.append({"role": "user", "content": f'Contesto: {context}\n\n Domanda: {message}. Rispondi in italiano'})
|
108 |
|
109 |
######
|
110 |
-
|
111 |
-
docs = SimpleDirectoryReader(input_files=["data/blockchainprova.txt"]).load_data()
|
112 |
-
# Splitting the document into chunks with
|
113 |
-
# predefined size and overlap
|
114 |
-
parser = SentenceSplitter.from_defaults(
|
115 |
-
chunk_size=256, chunk_overlap=64, paragraph_separator="\n\n"
|
116 |
-
)
|
117 |
-
nodes = parser.get_nodes_from_documents(docs)
|
118 |
index = VectorStoreIndex(nodes)
|
119 |
# get retriver
|
120 |
retriever = index.as_retriever(similarity_top_k=3)
|
|
|
64 |
INSTRUCTION_2 = 'Sei un assistente che risponde sempre in italiano alle domande basandosi solo sulle informazioni fornite nel contesto che ti darò. Se non trovi informazioni, rispondi "Puoi chiedere maggiori informazioni all\'ufficio di riferimento.". Se invece la domanda è completamente fuori contesto, non rispondere e rammenta il topic del contesto'
|
65 |
|
66 |
|
67 |
+
# Reading documents from disk
|
68 |
+
docs = SimpleDirectoryReader(input_files=["data/blockchainprova.txt"]).load_data()
|
69 |
+
# Splitting the document into chunks with
|
70 |
+
# predefined size and overlap
|
71 |
+
parser = SentenceSplitter.from_defaults(
|
72 |
+
chunk_size=256, chunk_overlap=64, paragraph_separator="\n\n"
|
73 |
+
)
|
74 |
+
nodes = parser.get_nodes_from_documents(docs)
|
75 |
+
|
76 |
|
77 |
@spaces.GPU()
|
78 |
def generate(
|
|
|
116 |
conversation.append({"role": "user", "content": f'Contesto: {context}\n\n Domanda: {message}. Rispondi in italiano'})
|
117 |
|
118 |
######
|
119 |
+
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
120 |
index = VectorStoreIndex(nodes)
|
121 |
# get retriver
|
122 |
retriever = index.as_retriever(similarity_top_k=3)
|