Spaces:
Sleeping
Sleeping
Upload app.py
Browse files
app.py
CHANGED
@@ -5,7 +5,7 @@ from transformers import pipeline
|
|
5 |
import time
|
6 |
import torch
|
7 |
|
8 |
-
generate_story_pipe = pipeline("text-generation", model="
|
9 |
|
10 |
# Para medir el rendimiento de los métodos, voy a crear este decorador, que simplemente imprime en nuestra terminal el tiempo de ejecucion de los metodos que tengan los modelos y los usen, de esta manera podremos estudiar el tiempo que este cada modelo activo
|
11 |
def measure_performance(func):
|
@@ -28,7 +28,7 @@ examples = [
|
|
28 |
|
29 |
@measure_performance
|
30 |
def generate_story(theme):
|
31 |
-
prompt = f"
|
32 |
story = generate_story_pipe(prompt, max_length=400, num_return_sequences=1, temperature=0.7, do_sample=True, repetition_penalty=3.0, eos_token_id=generate_story_pipe.model.config.eos_token_id, pad_token_id=generate_story_pipe.model.config.pad_token_id)
|
33 |
generated_story = story[0]["generated_text"]
|
34 |
return generated_story
|
|
|
5 |
import time
|
6 |
import torch
|
7 |
|
8 |
+
generate_story_pipe = pipeline("text-generation", model="Qwen/Qwen2.5-1.5B-Instruct")
|
9 |
|
10 |
# Para medir el rendimiento de los métodos, voy a crear este decorador, que simplemente imprime en nuestra terminal el tiempo de ejecucion de los metodos que tengan los modelos y los usen, de esta manera podremos estudiar el tiempo que este cada modelo activo
|
11 |
def measure_performance(func):
|
|
|
28 |
|
29 |
@measure_performance
|
30 |
def generate_story(theme):
|
31 |
+
prompt = [{"role": "user", "content": f"Tell me a storie about {theme}"}]
|
32 |
story = generate_story_pipe(prompt, max_length=400, num_return_sequences=1, temperature=0.7, do_sample=True, repetition_penalty=3.0, eos_token_id=generate_story_pipe.model.config.eos_token_id, pad_token_id=generate_story_pipe.model.config.pad_token_id)
|
33 |
generated_story = story[0]["generated_text"]
|
34 |
return generated_story
|