RafaelJaime commited on
Commit
a3311b3
·
verified ·
1 Parent(s): 8c97c14

Upload app.py

Browse files
Files changed (1) hide show
  1. app.py +2 -2
app.py CHANGED
@@ -5,7 +5,7 @@ from transformers import pipeline
5
  import time
6
  import torch
7
 
8
- generate_story_pipe = pipeline("text-generation", model="openai-community/gpt2")
9
 
10
  # Para medir el rendimiento de los métodos, voy a crear este decorador, que simplemente imprime en nuestra terminal el tiempo de ejecucion de los metodos que tengan los modelos y los usen, de esta manera podremos estudiar el tiempo que este cada modelo activo
11
  def measure_performance(func):
@@ -28,7 +28,7 @@ examples = [
28
 
29
  @measure_performance
30
  def generate_story(theme):
31
- prompt = f"Crea una historia {theme} en español"
32
  story = generate_story_pipe(prompt, max_length=400, num_return_sequences=1, temperature=0.7, do_sample=True, repetition_penalty=3.0, eos_token_id=generate_story_pipe.model.config.eos_token_id, pad_token_id=generate_story_pipe.model.config.pad_token_id)
33
  generated_story = story[0]["generated_text"]
34
  return generated_story
 
5
  import time
6
  import torch
7
 
8
+ generate_story_pipe = pipeline("text-generation", model="Qwen/Qwen2.5-1.5B-Instruct")
9
 
10
  # Para medir el rendimiento de los métodos, voy a crear este decorador, que simplemente imprime en nuestra terminal el tiempo de ejecucion de los metodos que tengan los modelos y los usen, de esta manera podremos estudiar el tiempo que este cada modelo activo
11
  def measure_performance(func):
 
28
 
29
  @measure_performance
30
  def generate_story(theme):
31
+ prompt = [{"role": "user", "content": f"Tell me a storie about {theme}"}]
32
  story = generate_story_pipe(prompt, max_length=400, num_return_sequences=1, temperature=0.7, do_sample=True, repetition_penalty=3.0, eos_token_id=generate_story_pipe.model.config.eos_token_id, pad_token_id=generate_story_pipe.model.config.pad_token_id)
33
  generated_story = story[0]["generated_text"]
34
  return generated_story