C2MV commited on
Commit
820a0dd
verified
1 Parent(s): 5a798cc

Update app.py

Browse files
Files changed (1) hide show
  1. app.py +16 -1
app.py CHANGED
@@ -1,6 +1,20 @@
1
  import gradio as gr
2
  import torch
3
  from transformers import AutoModelForCausalLM, AutoTokenizer
 
 
 
 
 
 
 
 
 
 
 
 
 
 
4
 
5
  # Verificar si CUDA est谩 disponible
6
  device = "cuda" if torch.cuda.is_available() else "cpu"
@@ -16,6 +30,7 @@ model = AutoModelForCausalLM.from_pretrained(
16
  torch_dtype=torch.float16 if device == "cuda" else torch.float32
17
  ).to(device)
18
 
 
19
  def generar_respuesta(consulta):
20
  """
21
  Funci贸n que genera una respuesta a partir de una consulta dada.
@@ -25,7 +40,7 @@ def generar_respuesta(consulta):
25
 
26
  # Configurar los par谩metros de generaci贸n
27
  generation_kwargs = {
28
- "max_new_tokens": 200,
29
  "temperature": 0.0,
30
  "top_p": 1.0,
31
  "do_sample": False,
 
1
  import gradio as gr
2
  import torch
3
  from transformers import AutoModelForCausalLM, AutoTokenizer
4
+ import time
5
+ from functools import wraps
6
+
7
+ # Decorador para medir el tiempo de ejecuci贸n
8
+ def medir_tiempo(func):
9
+ @wraps(func)
10
+ def wrapper(*args, **kwargs):
11
+ inicio = time.time()
12
+ resultado = func(*args, **kwargs)
13
+ fin = time.time()
14
+ tiempo_transcurrido = fin - inicio
15
+ print(f"Tiempo de ejecuci贸n de '{func.__name__}': {tiempo_transcurrido:.2f} segundos")
16
+ return resultado
17
+ return wrapper
18
 
19
  # Verificar si CUDA est谩 disponible
20
  device = "cuda" if torch.cuda.is_available() else "cpu"
 
30
  torch_dtype=torch.float16 if device == "cuda" else torch.float32
31
  ).to(device)
32
 
33
+ @medir_tiempo
34
  def generar_respuesta(consulta):
35
  """
36
  Funci贸n que genera una respuesta a partir de una consulta dada.
 
40
 
41
  # Configurar los par谩metros de generaci贸n
42
  generation_kwargs = {
43
+ "max_new_tokens": 100, # Ajustado a 100
44
  "temperature": 0.0,
45
  "top_p": 1.0,
46
  "do_sample": False,