Spaces:
Sleeping
Sleeping
luanpoppe
commited on
Commit
·
9d333bd
1
Parent(s):
91028c0
fix: contextuals com gemini
Browse files
_utils/gerar_relatorio_modelo_usuario/contextual_retriever.py
CHANGED
@@ -13,7 +13,7 @@ import asyncio
|
|
13 |
from typing import List
|
14 |
from dataclasses import dataclass
|
15 |
|
16 |
-
from _utils.gerar_relatorio_modelo_usuario.llm_calls import aclaude_answer, agpt_answer
|
17 |
from _utils.gerar_relatorio_modelo_usuario.prompts import contextual_prompt
|
18 |
from _utils.models.gerar_relatorio import (
|
19 |
ContextualizedChunk,
|
@@ -86,9 +86,8 @@ class ContextualRetriever:
|
|
86 |
f"\n\nTENTATIVA FORMATAÇÃO CHUNKS NÚMERO {attempt + 1}"
|
87 |
)
|
88 |
print("\nCOMEÇANDO UMA REQUISIÇÃO DO CONTEXTUAL")
|
89 |
-
llms = LLM()
|
90 |
# raw_response = await agpt_answer(prompt)
|
91 |
-
raw_response = await
|
92 |
|
93 |
print("\nTERMINOU UMA REQUISIÇÃO DO CONTEXTUAL")
|
94 |
response = cast(str, raw_response)
|
|
|
13 |
from typing import List
|
14 |
from dataclasses import dataclass
|
15 |
|
16 |
+
from _utils.gerar_relatorio_modelo_usuario.llm_calls import aclaude_answer, agemini_answer, agpt_answer
|
17 |
from _utils.gerar_relatorio_modelo_usuario.prompts import contextual_prompt
|
18 |
from _utils.models.gerar_relatorio import (
|
19 |
ContextualizedChunk,
|
|
|
86 |
f"\n\nTENTATIVA FORMATAÇÃO CHUNKS NÚMERO {attempt + 1}"
|
87 |
)
|
88 |
print("\nCOMEÇANDO UMA REQUISIÇÃO DO CONTEXTUAL")
|
|
|
89 |
# raw_response = await agpt_answer(prompt)
|
90 |
+
raw_response = await agemini_answer(prompt, "gemini-2.0-flash-lite-preview-02-05")
|
91 |
|
92 |
print("\nTERMINOU UMA REQUISIÇÃO DO CONTEXTUAL")
|
93 |
response = cast(str, raw_response)
|
_utils/gerar_relatorio_modelo_usuario/llm_calls.py
CHANGED
@@ -1,10 +1,12 @@
|
|
1 |
import os
|
2 |
|
3 |
from pydantic import SecretStr
|
|
|
4 |
from setup.environment import default_model
|
5 |
from langchain_core.messages import HumanMessage
|
6 |
from langchain_openai import ChatOpenAI
|
7 |
|
|
|
8 |
|
9 |
async def aclaude_answer(claude_client, claude_context_model, prompt):
|
10 |
print("\n\nComeçou uma requisição pelo Claude")
|
@@ -51,3 +53,8 @@ def gpt_answer(
|
|
51 |
return response
|
52 |
else:
|
53 |
return response.content
|
|
|
|
|
|
|
|
|
|
|
|
1 |
import os
|
2 |
|
3 |
from pydantic import SecretStr
|
4 |
+
from _utils.LLMs.LLM_class import LLM
|
5 |
from setup.environment import default_model
|
6 |
from langchain_core.messages import HumanMessage
|
7 |
from langchain_openai import ChatOpenAI
|
8 |
|
9 |
+
llm = LLM()
|
10 |
|
11 |
async def aclaude_answer(claude_client, claude_context_model, prompt):
|
12 |
print("\n\nComeçou uma requisição pelo Claude")
|
|
|
53 |
return response
|
54 |
else:
|
55 |
return response.content
|
56 |
+
|
57 |
+
async def agemini_answer(prompt, model="gemini-2.0-flash"):
|
58 |
+
gemini = llm.google_gemini(model)
|
59 |
+
resposta = await gemini.ainvoke([HumanMessage(content=prompt)])
|
60 |
+
return resposta.content
|