C2MV commited on
Commit
18507c5
verified
1 Parent(s): 50560b1

Update app.py

Browse files
Files changed (1) hide show
  1. app.py +9 -9
app.py CHANGED
@@ -18,12 +18,12 @@ def medir_tiempo(func):
18
  return resultado
19
  return wrapper
20
 
21
- # Verificar si CUDA est谩 disponible
22
  device = "cuda" if torch.cuda.is_available() else "cpu"
23
  if device == "cpu":
24
  print("Advertencia: CUDA no est谩 disponible. Se usar谩 la CPU, lo que puede ser lento.")
25
 
26
- # Cargar el tokenizador y el modelo desde HuggingFace
27
  model_name = "dmis-lab/selfbiorag_7b"
28
 
29
  try:
@@ -42,12 +42,12 @@ except Exception as e:
42
  print(f"Error al cargar el modelo: {e}")
43
  sys.exit(1)
44
 
45
- # Cargar el modelo de traducci贸n
46
  try:
47
- print("Cargando el tokenizador y el modelo de traducci贸n...")
48
  translation_model_name = "Helsinki-NLP/opus-mt-en-es"
49
  translator_tokenizer = MarianTokenizer.from_pretrained(translation_model_name)
50
- translator_model = MarianMTModel.from_pretrained(translation_model_name).to(device)
51
  except Exception as e:
52
  print(f"Error al cargar el modelo de traducci贸n: {e}")
53
  sys.exit(1)
@@ -68,9 +68,9 @@ def generar_respuesta(consulta):
68
  # Configurar los par谩metros de generaci贸n
69
  generation_kwargs = {
70
  "max_new_tokens": 100, # Ajustado a 100
71
- "do_sample": False # Configura seg煤n la opci贸n deseada
72
- # "temperature": 0.0, # Comenta o elimina si do_sample=False
73
- # "top_p": 1.0 # Comenta o elimina si do_sample=False
74
  }
75
 
76
  # Generar la respuesta
@@ -93,7 +93,7 @@ def traducir_texto(texto):
93
  return "No hay texto para traducir."
94
 
95
  # Tokenizar el texto a traducir
96
- translated = translator_model.generate(**translator_tokenizer(texto, return_tensors="pt", padding=True).to(device))
97
 
98
  # Decodificar la traducci贸n
99
  traduccion = translator_tokenizer.decode(translated[0], skip_special_tokens=True)
 
18
  return resultado
19
  return wrapper
20
 
21
+ # Verificar si CUDA est谩 disponible para el modelo principal
22
  device = "cuda" if torch.cuda.is_available() else "cpu"
23
  if device == "cpu":
24
  print("Advertencia: CUDA no est谩 disponible. Se usar谩 la CPU, lo que puede ser lento.")
25
 
26
+ # Cargar el tokenizador y el modelo principal desde HuggingFace
27
  model_name = "dmis-lab/selfbiorag_7b"
28
 
29
  try:
 
42
  print(f"Error al cargar el modelo: {e}")
43
  sys.exit(1)
44
 
45
+ # Cargar el modelo de traducci贸n en CPU
46
  try:
47
+ print("Cargando el tokenizador y el modelo de traducci贸n en CPU...")
48
  translation_model_name = "Helsinki-NLP/opus-mt-en-es"
49
  translator_tokenizer = MarianTokenizer.from_pretrained(translation_model_name)
50
+ translator_model = MarianMTModel.from_pretrained(translation_model_name).to("cpu") # Forzar a CPU
51
  except Exception as e:
52
  print(f"Error al cargar el modelo de traducci贸n: {e}")
53
  sys.exit(1)
 
68
  # Configurar los par谩metros de generaci贸n
69
  generation_kwargs = {
70
  "max_new_tokens": 100, # Ajustado a 100
71
+ "do_sample": False # No usar sampling
72
+ # "temperature": 0.6, # Eliminado para evitar advertencias
73
+ # "top_p": 0.9 # Eliminado para evitar advertencias
74
  }
75
 
76
  # Generar la respuesta
 
93
  return "No hay texto para traducir."
94
 
95
  # Tokenizar el texto a traducir
96
+ translated = translator_model.generate(**translator_tokenizer(texto, return_tensors="pt", padding=True))
97
 
98
  # Decodificar la traducci贸n
99
  traduccion = translator_tokenizer.decode(translated[0], skip_special_tokens=True)