Update app.py
Browse files
app.py
CHANGED
@@ -1,6 +1,20 @@
|
|
1 |
import gradio as gr
|
2 |
import torch
|
3 |
from transformers import AutoModelForCausalLM, AutoTokenizer
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
4 |
|
5 |
# Verificar si CUDA est谩 disponible
|
6 |
device = "cuda" if torch.cuda.is_available() else "cpu"
|
@@ -16,6 +30,7 @@ model = AutoModelForCausalLM.from_pretrained(
|
|
16 |
torch_dtype=torch.float16 if device == "cuda" else torch.float32
|
17 |
).to(device)
|
18 |
|
|
|
19 |
def generar_respuesta(consulta):
|
20 |
"""
|
21 |
Funci贸n que genera una respuesta a partir de una consulta dada.
|
@@ -25,7 +40,7 @@ def generar_respuesta(consulta):
|
|
25 |
|
26 |
# Configurar los par谩metros de generaci贸n
|
27 |
generation_kwargs = {
|
28 |
-
"max_new_tokens":
|
29 |
"temperature": 0.0,
|
30 |
"top_p": 1.0,
|
31 |
"do_sample": False,
|
|
|
1 |
import gradio as gr
|
2 |
import torch
|
3 |
from transformers import AutoModelForCausalLM, AutoTokenizer
|
4 |
+
import time
|
5 |
+
from functools import wraps
|
6 |
+
|
7 |
+
# Decorador para medir el tiempo de ejecuci贸n
|
8 |
+
def medir_tiempo(func):
|
9 |
+
@wraps(func)
|
10 |
+
def wrapper(*args, **kwargs):
|
11 |
+
inicio = time.time()
|
12 |
+
resultado = func(*args, **kwargs)
|
13 |
+
fin = time.time()
|
14 |
+
tiempo_transcurrido = fin - inicio
|
15 |
+
print(f"Tiempo de ejecuci贸n de '{func.__name__}': {tiempo_transcurrido:.2f} segundos")
|
16 |
+
return resultado
|
17 |
+
return wrapper
|
18 |
|
19 |
# Verificar si CUDA est谩 disponible
|
20 |
device = "cuda" if torch.cuda.is_available() else "cpu"
|
|
|
30 |
torch_dtype=torch.float16 if device == "cuda" else torch.float32
|
31 |
).to(device)
|
32 |
|
33 |
+
@medir_tiempo
|
34 |
def generar_respuesta(consulta):
|
35 |
"""
|
36 |
Funci贸n que genera una respuesta a partir de una consulta dada.
|
|
|
40 |
|
41 |
# Configurar los par谩metros de generaci贸n
|
42 |
generation_kwargs = {
|
43 |
+
"max_new_tokens": 100, # Ajustado a 100
|
44 |
"temperature": 0.0,
|
45 |
"top_p": 1.0,
|
46 |
"do_sample": False,
|