Spaces:
Running
Running
luanpoppe
commited on
Commit
·
9ee4c9e
1
Parent(s):
250b607
fix: validação de erro nos prompts 2 e 3
Browse files
_utils/gerar_documento_utils/GerarDocumento.py
CHANGED
@@ -271,7 +271,10 @@ class GerarDocumento:
|
|
271 |
self.prompt_gerar_documento_etapa_2,
|
272 |
dynamic_dict={"context": context_do_prompt_primeira_etapa},
|
273 |
)
|
274 |
-
documento_gerado = llm.invoke(prompt_etapa_2).content
|
|
|
|
|
|
|
275 |
resposta_segunda_etapa = documento_gerado
|
276 |
texto_final_juntando_as_etapas += (
|
277 |
f"\n\nresposta_segunda_etapa:{resposta_segunda_etapa}"
|
@@ -286,7 +289,10 @@ class GerarDocumento:
|
|
286 |
"context": f"{resposta_primeira_etapa}\n\n{resposta_segunda_etapa}"
|
287 |
},
|
288 |
)
|
289 |
-
documento_gerado = llm.invoke(prompt_etapa_3).content
|
|
|
|
|
|
|
290 |
texto_final_juntando_as_etapas += f"\n\n{documento_gerado}"
|
291 |
self.axiom_instance.send_axiom(f"RESULTADO ETAPA 3: {documento_gerado}")
|
292 |
|
@@ -316,6 +322,9 @@ class GerarDocumento:
|
|
316 |
try:
|
317 |
resposta = llm.invoke(prompt)
|
318 |
if hasattr(resposta, "content") and resposta.content.strip(): # type: ignore
|
|
|
|
|
|
|
319 |
documento_gerado = resposta.content.strip() # type: ignore
|
320 |
else:
|
321 |
print(f"Tentativa {tentativas}: resposta vazia ou inexistente.")
|
|
|
271 |
self.prompt_gerar_documento_etapa_2,
|
272 |
dynamic_dict={"context": context_do_prompt_primeira_etapa},
|
273 |
)
|
274 |
+
# documento_gerado = llm.invoke(prompt_etapa_2).content
|
275 |
+
documento_gerado = self.checar_se_resposta_vazia_do_documento_final(
|
276 |
+
llm_ultimas_requests, prompt_etapa_2.to_string()
|
277 |
+
)
|
278 |
resposta_segunda_etapa = documento_gerado
|
279 |
texto_final_juntando_as_etapas += (
|
280 |
f"\n\nresposta_segunda_etapa:{resposta_segunda_etapa}"
|
|
|
289 |
"context": f"{resposta_primeira_etapa}\n\n{resposta_segunda_etapa}"
|
290 |
},
|
291 |
)
|
292 |
+
# documento_gerado = llm.invoke(prompt_etapa_3).content
|
293 |
+
documento_gerado = self.checar_se_resposta_vazia_do_documento_final(
|
294 |
+
llm_ultimas_requests, prompt_etapa_3.to_string()
|
295 |
+
)
|
296 |
texto_final_juntando_as_etapas += f"\n\n{documento_gerado}"
|
297 |
self.axiom_instance.send_axiom(f"RESULTADO ETAPA 3: {documento_gerado}")
|
298 |
|
|
|
322 |
try:
|
323 |
resposta = llm.invoke(prompt)
|
324 |
if hasattr(resposta, "content") and resposta.content.strip(): # type: ignore
|
325 |
+
if isinstance(resposta.content, list):
|
326 |
+
resposta.content = "\n".join(resposta.content) # type: ignore
|
327 |
+
|
328 |
documento_gerado = resposta.content.strip() # type: ignore
|
329 |
else:
|
330 |
print(f"Tentativa {tentativas}: resposta vazia ou inexistente.")
|
_utils/gerar_documento_utils/llm_calls.py
CHANGED
@@ -65,4 +65,8 @@ async def agemini_answer(
|
|
65 |
) -> str:
|
66 |
gemini = llm.google_gemini(model)
|
67 |
resposta = await gemini.ainvoke([HumanMessage(content=prompt)])
|
|
|
|
|
|
|
|
|
68 |
return cast(str, resposta.content)
|
|
|
65 |
) -> str:
|
66 |
gemini = llm.google_gemini(model)
|
67 |
resposta = await gemini.ainvoke([HumanMessage(content=prompt)])
|
68 |
+
|
69 |
+
if isinstance(resposta.content, list):
|
70 |
+
resposta.content = "\n".join(resposta.content) # type: ignore
|
71 |
+
|
72 |
return cast(str, resposta.content)
|