eloi commited on
Commit
b5a1cb6
·
1 Parent(s): 149c5be

Update app.py

Browse files
Files changed (1) hide show
  1. app.py +2 -2
app.py CHANGED
@@ -4,14 +4,14 @@ import torch
4
 
5
  ## Cargar el modelo
6
  model_id = "stablediffusionapi/epicrealism-natural-sin-r" # Reemplazar con el ID de tu modelo en Hugging Face
7
- pipe = StableDiffusionPipeline.from_pretrained(model_id, torch_dtype=torch.float16)
8
  #pipe = StableDiffusionPipeline.from_pretrained(model_id, torch_dtype=torch.float32)
9
  pipe = pipe.to("cuda") # Asegúrate de tener una GPU disponible o cambia esto a "cpu"
10
  #pipe = pipe.to("cpu") # Asegúrate de tener una GPU disponible o cambia esto a "cpu"
11
 
12
  def inferencia(prompt):
13
  # Realizar la inferencia
14
- imagen = pipe(prompt).images[0]
15
 
16
  # Convertir la imagen a un formato que Gradio pueda utilizar, si es necesario
17
  # Esto podría incluir convertir un tensor de PyTorch a una imagen PIL y luego a una matriz NumPy, por ejemplo
 
4
 
5
  ## Cargar el modelo
6
  model_id = "stablediffusionapi/epicrealism-natural-sin-r" # Reemplazar con el ID de tu modelo en Hugging Face
7
+ pipe = StableDiffusionPipeline.from_pretrained(model_id, torch_dtype=torch.float16, safety_checker=None)
8
  #pipe = StableDiffusionPipeline.from_pretrained(model_id, torch_dtype=torch.float32)
9
  pipe = pipe.to("cuda") # Asegúrate de tener una GPU disponible o cambia esto a "cpu"
10
  #pipe = pipe.to("cpu") # Asegúrate de tener una GPU disponible o cambia esto a "cpu"
11
 
12
  def inferencia(prompt):
13
  # Realizar la inferencia
14
+ imagen = pipe(prompt, num_inference_steps=32, cfg_scale=8).images[0] # Modifica num_inference_steps según sea necesario
15
 
16
  # Convertir la imagen a un formato que Gradio pueda utilizar, si es necesario
17
  # Esto podría incluir convertir un tensor de PyTorch a una imagen PIL y luego a una matriz NumPy, por ejemplo