Spaces:
Running
Running
luanpoppe
feat: adicionando possibilidade de requisição com gemini, adicionando possibilidade de requsição com deepseek, colocando como padrão não utilizar o llama parse, mudar o padrão para realizar poucas requisições do contextual e lidar com as respostas contendo vários chunks de uma vez só
e70ffc1
# from langchain_openai import OpenAI | |
from typing import cast | |
from openai import OpenAI | |
from pydantic import SecretStr | |
from setup.environment import default_model | |
from setup.easy_imports import ChatOpenAI, ChatGoogleGenerativeAI | |
import os | |
deepseek_api_key = cast(str, os.environ.get("DEEPSEEKK_API_KEY")) | |
google_api_key = cast(str, os.environ.get("GOOGLE_API_KEY_PEIXE")) | |
class LLM: | |
def __init__(self): | |
pass | |
# def create_GPT_model(self, model=default_model): | |
# return ChatOpen() | |
def deepseek(self): | |
return ChatOpenAI( | |
api_key=SecretStr(deepseek_api_key), | |
base_url="https://api.deepseek.com/v1", | |
model="deepseek-chat", | |
) | |
def googleGemini(self): | |
return ChatGoogleGenerativeAI( | |
api_key=SecretStr(google_api_key), | |
model="gemini-1.5-flash", | |
temperature=0, | |
max_tokens=None, | |
timeout=None, | |
max_retries=2, | |
) | |