Hjgugugjhuhjggg commited on
Commit
9aa1233
verified
1 Parent(s): e8ade9f

Update app.py

Browse files
Files changed (1) hide show
  1. app.py +3 -2
app.py CHANGED
@@ -24,9 +24,9 @@ try:
24
  import psutil
25
  import resource
26
  total_memory = psutil.virtual_memory().total
27
- limit = int(total_memory * 0.01) # 1% del total en bytes
28
  resource.setrlimit(resource.RLIMIT_AS, (limit, limit))
29
- # print(f"Memory limit set to {limit} bytes (1% of total system memory).")
30
  except Exception as e:
31
  print("No se pudo establecer el l铆mite de memoria:", e)
32
  # --- Fin del bloque de limitaci贸n de RAM ---
@@ -171,6 +171,7 @@ async def stream_text(model, tokenizer, input_text, generation_config, stopping_
171
  stopping_criteria=stopping_criteria_list,
172
  return_dict_in_generate=True,
173
  output_scores=True,
 
174
  ):
175
  # Se extraen solo los tokens generados (excluyendo la entrada)
176
  new_tokens = output.sequences[:, encoded_input_len:]
 
24
  import psutil
25
  import resource
26
  total_memory = psutil.virtual_memory().total
27
+ limit = int(total_memory * 0.01) # 1% del total en bytes # Correcci贸n: Usar 0.01 para 1%
28
  resource.setrlimit(resource.RLIMIT_AS, (limit, limit))
29
+ print(f"Memory limit set to {limit} bytes (1% of total system memory).") # Imprimir para verificar el l铆mite aplicado
30
  except Exception as e:
31
  print("No se pudo establecer el l铆mite de memoria:", e)
32
  # --- Fin del bloque de limitaci贸n de RAM ---
 
171
  stopping_criteria=stopping_criteria_list,
172
  return_dict_in_generate=True,
173
  output_scores=True,
174
+ # stream=True, # Eliminar 'stream=True' aqu铆, ya que GenerationConfig lo maneja
175
  ):
176
  # Se extraen solo los tokens generados (excluyendo la entrada)
177
  new_tokens = output.sequences[:, encoded_input_len:]