luanpoppe commited on
Commit
9ee4c9e
·
1 Parent(s): 250b607

fix: validação de erro nos prompts 2 e 3

Browse files
_utils/gerar_documento_utils/GerarDocumento.py CHANGED
@@ -271,7 +271,10 @@ class GerarDocumento:
271
  self.prompt_gerar_documento_etapa_2,
272
  dynamic_dict={"context": context_do_prompt_primeira_etapa},
273
  )
274
- documento_gerado = llm.invoke(prompt_etapa_2).content
 
 
 
275
  resposta_segunda_etapa = documento_gerado
276
  texto_final_juntando_as_etapas += (
277
  f"\n\nresposta_segunda_etapa:{resposta_segunda_etapa}"
@@ -286,7 +289,10 @@ class GerarDocumento:
286
  "context": f"{resposta_primeira_etapa}\n\n{resposta_segunda_etapa}"
287
  },
288
  )
289
- documento_gerado = llm.invoke(prompt_etapa_3).content
 
 
 
290
  texto_final_juntando_as_etapas += f"\n\n{documento_gerado}"
291
  self.axiom_instance.send_axiom(f"RESULTADO ETAPA 3: {documento_gerado}")
292
 
@@ -316,6 +322,9 @@ class GerarDocumento:
316
  try:
317
  resposta = llm.invoke(prompt)
318
  if hasattr(resposta, "content") and resposta.content.strip(): # type: ignore
 
 
 
319
  documento_gerado = resposta.content.strip() # type: ignore
320
  else:
321
  print(f"Tentativa {tentativas}: resposta vazia ou inexistente.")
 
271
  self.prompt_gerar_documento_etapa_2,
272
  dynamic_dict={"context": context_do_prompt_primeira_etapa},
273
  )
274
+ # documento_gerado = llm.invoke(prompt_etapa_2).content
275
+ documento_gerado = self.checar_se_resposta_vazia_do_documento_final(
276
+ llm_ultimas_requests, prompt_etapa_2.to_string()
277
+ )
278
  resposta_segunda_etapa = documento_gerado
279
  texto_final_juntando_as_etapas += (
280
  f"\n\nresposta_segunda_etapa:{resposta_segunda_etapa}"
 
289
  "context": f"{resposta_primeira_etapa}\n\n{resposta_segunda_etapa}"
290
  },
291
  )
292
+ # documento_gerado = llm.invoke(prompt_etapa_3).content
293
+ documento_gerado = self.checar_se_resposta_vazia_do_documento_final(
294
+ llm_ultimas_requests, prompt_etapa_3.to_string()
295
+ )
296
  texto_final_juntando_as_etapas += f"\n\n{documento_gerado}"
297
  self.axiom_instance.send_axiom(f"RESULTADO ETAPA 3: {documento_gerado}")
298
 
 
322
  try:
323
  resposta = llm.invoke(prompt)
324
  if hasattr(resposta, "content") and resposta.content.strip(): # type: ignore
325
+ if isinstance(resposta.content, list):
326
+ resposta.content = "\n".join(resposta.content) # type: ignore
327
+
328
  documento_gerado = resposta.content.strip() # type: ignore
329
  else:
330
  print(f"Tentativa {tentativas}: resposta vazia ou inexistente.")
_utils/gerar_documento_utils/llm_calls.py CHANGED
@@ -65,4 +65,8 @@ async def agemini_answer(
65
  ) -> str:
66
  gemini = llm.google_gemini(model)
67
  resposta = await gemini.ainvoke([HumanMessage(content=prompt)])
 
 
 
 
68
  return cast(str, resposta.content)
 
65
  ) -> str:
66
  gemini = llm.google_gemini(model)
67
  resposta = await gemini.ainvoke([HumanMessage(content=prompt)])
68
+
69
+ if isinstance(resposta.content, list):
70
+ resposta.content = "\n".join(resposta.content) # type: ignore
71
+
72
  return cast(str, resposta.content)