LEIDIA commited on
Commit
29de57f
·
verified ·
1 Parent(s): e856d2d

Update app.py

Browse files
Files changed (1) hide show
  1. app.py +6 -9
app.py CHANGED
@@ -1,7 +1,5 @@
1
  import gradio as gr
2
  import torch
3
- import json
4
- import os
5
  from diffusers import DiffusionPipeline
6
  from datasets import load_dataset
7
  from PIL import Image
@@ -15,16 +13,16 @@ model_repo_id = "stabilityai/stable-diffusion-xl-base-1.0" # Continuando com o
15
  pipe = DiffusionPipeline.from_pretrained(model_repo_id)
16
  pipe = pipe.to(device)
17
 
18
- # Carregando o dataset do Hugging Face
19
- dataset = load_dataset("LEIDIA/Data_Womleimg", split="train")# Carrega o dataset de imagens
20
 
21
  # Acessando as descrições corretamente (assumindo que estejam no arquivo JSON)
22
  descriptions = {}
23
- for item in dataset:
24
- image_id = item['image'] # Acessa a imagem diretamente
25
  # Aqui você pode acessar as descrições da maneira correta, dependendo de como os dados estão estruturados
26
  description = item.get("Wom_dataset", "Descrição não encontrada") # Exemplo de campo de descrição
27
- descriptions[image_id] = description # Mapeando ID da imagem para a descrição
28
 
29
  # Exibe algumas amostras com suas descrições
30
  for i, (image_id, description) in enumerate(descriptions.items()):
@@ -32,8 +30,7 @@ for i, (image_id, description) in enumerate(descriptions.items()):
32
  print(f"ID da imagem: {image_id}, Descrição: {description}")
33
 
34
 
35
-
36
- # Definir parâmetros padrão para geração rápida
37
  DEFAULT_PROMPT = "A beautiful brunette woman wearing a blue leather pants "
38
  DEFAULT_INFERENCE_STEPS = 6
39
  IMAGE_WIDTH = 512
 
1
  import gradio as gr
2
  import torch
 
 
3
  from diffusers import DiffusionPipeline
4
  from datasets import load_dataset
5
  from PIL import Image
 
13
  pipe = DiffusionPipeline.from_pretrained(model_repo_id)
14
  pipe = pipe.to(device)
15
 
16
+ # Carregar o dataset do Hugging Face
17
+ dataset = load_dataset("LEIDIA/Data_Womleimg", split="train") # Carrega o dataset de imagens
18
 
19
  # Acessando as descrições corretamente (assumindo que estejam no arquivo JSON)
20
  descriptions = {}
21
+ for idx, item in enumerate(dataset):
22
+ image_id = idx # Usar o índice como chave única
23
  # Aqui você pode acessar as descrições da maneira correta, dependendo de como os dados estão estruturados
24
  description = item.get("Wom_dataset", "Descrição não encontrada") # Exemplo de campo de descrição
25
+ descriptions[image_id] = description # Mapeando o índice da imagem para a descrição
26
 
27
  # Exibe algumas amostras com suas descrições
28
  for i, (image_id, description) in enumerate(descriptions.items()):
 
30
  print(f"ID da imagem: {image_id}, Descrição: {description}")
31
 
32
 
33
+ # Definir parâmetros padrão para geração rápida
 
34
  DEFAULT_PROMPT = "A beautiful brunette woman wearing a blue leather pants "
35
  DEFAULT_INFERENCE_STEPS = 6
36
  IMAGE_WIDTH = 512