File size: 749 Bytes
d3d8124
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
# config.py
import torch

# Configuración del dispositivo
DEVICE = torch.device("cuda" if torch.cuda.is_available() else "cpu")

# Ruta al modelo de Hugging Face Hub que quieres usar para el análisis
# Asegúrate de que tienes acceso a este modelo y que es compatible con AutoModelForCausalLM
MODEL_PATH = "Qwen/Qwen2-7B-Instruct" # Ejemplo, Qwen2-7B-Instruct es un buen modelo.
# MODEL_PATH = "mistralai/Mistral-7B-Instruct-v0.2" # Otro ejemplo
# MODEL_PATH = "01-ai/Yi-1.5-9B-Chat" # Si prefieres Yi y es accesible

# Longitud máxima para NUEVOS tokens generados por el LLM
MAX_LENGTH = 1024 # Aumentado para permitir análisis más detallados

# Temperatura para la generación de texto (ajusta según la creatividad deseada)
TEMPERATURE = 0.5