luanpoppe commited on
Commit
9d333bd
·
1 Parent(s): 91028c0

fix: contextuals com gemini

Browse files
_utils/gerar_relatorio_modelo_usuario/contextual_retriever.py CHANGED
@@ -13,7 +13,7 @@ import asyncio
13
  from typing import List
14
  from dataclasses import dataclass
15
 
16
- from _utils.gerar_relatorio_modelo_usuario.llm_calls import aclaude_answer, agpt_answer
17
  from _utils.gerar_relatorio_modelo_usuario.prompts import contextual_prompt
18
  from _utils.models.gerar_relatorio import (
19
  ContextualizedChunk,
@@ -86,9 +86,8 @@ class ContextualRetriever:
86
  f"\n\nTENTATIVA FORMATAÇÃO CHUNKS NÚMERO {attempt + 1}"
87
  )
88
  print("\nCOMEÇANDO UMA REQUISIÇÃO DO CONTEXTUAL")
89
- llms = LLM()
90
  # raw_response = await agpt_answer(prompt)
91
- raw_response = await llms.google_gemini("gemini-2.0-flash-lite-preview-02-05").ainvoke([HumanMessage(content=prompt)])
92
 
93
  print("\nTERMINOU UMA REQUISIÇÃO DO CONTEXTUAL")
94
  response = cast(str, raw_response)
 
13
  from typing import List
14
  from dataclasses import dataclass
15
 
16
+ from _utils.gerar_relatorio_modelo_usuario.llm_calls import aclaude_answer, agemini_answer, agpt_answer
17
  from _utils.gerar_relatorio_modelo_usuario.prompts import contextual_prompt
18
  from _utils.models.gerar_relatorio import (
19
  ContextualizedChunk,
 
86
  f"\n\nTENTATIVA FORMATAÇÃO CHUNKS NÚMERO {attempt + 1}"
87
  )
88
  print("\nCOMEÇANDO UMA REQUISIÇÃO DO CONTEXTUAL")
 
89
  # raw_response = await agpt_answer(prompt)
90
+ raw_response = await agemini_answer(prompt, "gemini-2.0-flash-lite-preview-02-05")
91
 
92
  print("\nTERMINOU UMA REQUISIÇÃO DO CONTEXTUAL")
93
  response = cast(str, raw_response)
_utils/gerar_relatorio_modelo_usuario/llm_calls.py CHANGED
@@ -1,10 +1,12 @@
1
  import os
2
 
3
  from pydantic import SecretStr
 
4
  from setup.environment import default_model
5
  from langchain_core.messages import HumanMessage
6
  from langchain_openai import ChatOpenAI
7
 
 
8
 
9
  async def aclaude_answer(claude_client, claude_context_model, prompt):
10
  print("\n\nComeçou uma requisição pelo Claude")
@@ -51,3 +53,8 @@ def gpt_answer(
51
  return response
52
  else:
53
  return response.content
 
 
 
 
 
 
1
  import os
2
 
3
  from pydantic import SecretStr
4
+ from _utils.LLMs.LLM_class import LLM
5
  from setup.environment import default_model
6
  from langchain_core.messages import HumanMessage
7
  from langchain_openai import ChatOpenAI
8
 
9
+ llm = LLM()
10
 
11
  async def aclaude_answer(claude_client, claude_context_model, prompt):
12
  print("\n\nComeçou uma requisição pelo Claude")
 
53
  return response
54
  else:
55
  return response.content
56
+
57
+ async def agemini_answer(prompt, model="gemini-2.0-flash"):
58
+ gemini = llm.google_gemini(model)
59
+ resposta = await gemini.ainvoke([HumanMessage(content=prompt)])
60
+ return resposta.content