vella-backend / _utils /LLMs /LLM_class.py
luanpoppe
feat: adicionando possibilidade de requisição com gemini, adicionando possibilidade de requsição com deepseek, colocando como padrão não utilizar o llama parse, mudar o padrão para realizar poucas requisições do contextual e lidar com as respostas contendo vários chunks de uma vez só
e70ffc1
raw
history blame
977 Bytes
# from langchain_openai import OpenAI
from typing import cast
from openai import OpenAI
from pydantic import SecretStr
from setup.environment import default_model
from setup.easy_imports import ChatOpenAI, ChatGoogleGenerativeAI
import os
deepseek_api_key = cast(str, os.environ.get("DEEPSEEKK_API_KEY"))
google_api_key = cast(str, os.environ.get("GOOGLE_API_KEY_PEIXE"))
class LLM:
def __init__(self):
pass
# def create_GPT_model(self, model=default_model):
# return ChatOpen()
def deepseek(self):
return ChatOpenAI(
api_key=SecretStr(deepseek_api_key),
base_url="https://api.deepseek.com/v1",
model="deepseek-chat",
)
def googleGemini(self):
return ChatGoogleGenerativeAI(
api_key=SecretStr(google_api_key),
model="gemini-1.5-flash",
temperature=0,
max_tokens=None,
timeout=None,
max_retries=2,
)