File size: 6,058 Bytes
75b503f
6c1f991
 
 
 
 
 
 
8ab6152
6c1f991
 
8ab6152
6c1f991
 
8ab6152
6c1f991
8ab6152
6c1f991
 
 
 
 
8ab6152
6c1f991
 
 
8ab6152
7d81189
6c1f991
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
8ab6152
6c1f991
8ab6152
 
 
6c1f991
 
8ab6152
6c1f991
8ab6152
 
 
 
 
 
 
 
 
 
 
 
 
 
 
6c1f991
8ab6152
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
6c1f991
 
 
8ab6152
 
 
 
6c1f991
 
8ab6152
 
 
 
 
 
 
6c1f991
8ab6152
 
6c1f991
 
8ab6152
 
 
 
 
 
 
 
 
 
 
 
6c1f991
8ab6152
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
6c1f991
8ab6152
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
6c1f991
8ab6152
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
6c1f991
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
76
77
78
79
80
81
82
83
84
85
86
87
88
89
90
91
92
93
94
95
96
97
98
99
100
101
102
103
104
105
106
107
108
109
110
111
112
113
114
115
116
117
118
119
120
121
122
123
124
125
126
127
128
129
130
131
132
133
134
135
136
137
138
139
140
141
142
143
144
145
146
147
148
149
150
151
152
153
154
155
156
157
158
159
160
161
162
163
164
165
166
167
168
169
170
171
172
173
174
175
176
177
178
179
180
181
182
183
184
185
186
187
188
189
190
191
192
193
194
195
196
197
198
199
200
201
import spaces
import torch
from diffusers import FluxPipeline
import gradio as gr
import random
import numpy as np
import os

# GPU 사용 가능 여부 확인
if torch.cuda.is_available():
    device = "cuda"
    print("GPU를 사용합니다")
else:
    device = "cpu"
    print("CPU를 사용합니다")

# HuggingFace 토큰 로그인
HF_TOKEN = os.getenv("HF_TOKEN")

MAX_SEED = np.iinfo(np.int32).max
CACHE_EXAMPLES = torch.cuda.is_available() and os.getenv("CACHE_EXAMPLES", "0") == "1"

# 파이프라인 초기화 및 모델 다운로드
pipe = FluxPipeline.from_pretrained("black-forest-labs/FLUX.1-dev", torch_dtype=torch.bfloat16)
pipe.to(device)

# 이미지 생성 함수 정의
@spaces.GPU(duration=160)
def generate_image(prompt, num_inference_steps, height, width, guidance_scale, seed, num_images_per_prompt, progress=gr.Progress(track_tqdm=True)):
    if seed == 0:
        seed = random.randint(1, MAX_SEED)

    generator = torch.Generator().manual_seed(seed)
    
    with torch.inference_mode():
        output = pipe(
            prompt=prompt,
            num_inference_steps=num_inference_steps,
            height=height,
            width=width,
            guidance_scale=guidance_scale,
            generator=generator,
            num_images_per_prompt=num_images_per_prompt
        ).images
    
    return output

# 예제 프롬프트
examples = [
    ["안녕하는 팻말을 들고 있는 고양이"],
    ["달에서 알을 깨고 나오는 작은 우주인"],
    ["미래적인 사이보그 슈트를 입고 화성에 있는 우주인"],
]

# 커스텀 CSS
css = '''
.gradio-container {
    max-width: 1000px !important;
    margin: auto;
}
h1 {
    text-align: center;
    font-family: 'Pretendard', sans-serif;
    color: #EA580C;
}
.gr-button-primary {
    background-color: #F97316 !important;
}
.gr-button-primary:hover {
    background-color: #EA580C !important;
}
'''

# Gradio 인터페이스 생성
with gr.Blocks(
    theme=gr.themes.Soft(
        primary_hue=gr.themes.Color(
            c50="#FFF7ED",
            c100="#FFEDD5",
            c200="#FED7AA",
            c300="#FDBA74",
            c400="#FB923C",
            c500="#F97316",
            c600="#EA580C",
            c700="#C2410C",
            c800="#9A3412",
            c900="#7C2D12",
            c950="#431407",
        ),
        secondary_hue="zinc",
        neutral_hue="zinc",
        font=("Pretendard", "sans-serif")
    ),
    css=css
) as demo:
    with gr.Row():
        with gr.Column():
            gr.HTML(
                """
                <h1>FLUX.1-dev 이미지 생성기</h1>
                """
            )
            gr.HTML(
                """
                <div style='text-align: center'>
                제작: <a href='https://linktr.ee/Nick088' target='_blank'>Nick088</a>
                <br> 
                <a href="https://discord.gg/AQsmBmgEPy">
                    <img src="https://img.shields.io/discord/1198701940511617164?color=%23738ADB&label=디스코드&style=for-the-badge" alt="Discord">
                </a>
                </div>
                """
            )
    
    with gr.Group():
        with gr.Column():
            prompt = gr.Textbox(
                label="프롬프트",
                info="원하는 이미지를 설명해주세요",
                placeholder="고양이..."
            )
            run_button = gr.Button("생성하기", variant="primary")
        result = gr.Gallery(
            label="생성된 AI 이미지",
            elem_id="gallery"
        )
    
    with gr.Accordion("고급 설정", open=False):
        with gr.Row():
            num_inference_steps = gr.Slider(
                label="추론 단계 수",
                info="이미지의 디노이징 단계 수입니다. 더 많은 단계는 더 높은 품질의 이미지를 생성하지만 시간이 더 걸립니다",
                minimum=1,
                maximum=50,
                value=25,
                step=1
            )
            guidance_scale = gr.Slider(
                label="가이던스 스케일",
                info="텍스트 프롬프트를 얼마나 충실히 따를지 제어합니다. 높은 값은 입력 텍스트에 더 가깝게 생성됩니다",
                minimum=0.0,
                maximum=7.0,
                value=3.5,
                step=0.1
            )
        
        with gr.Row():
            width = gr.Slider(
                label="너비",
                info="이미지의 너비",
                minimum=256,
                maximum=1024,
                step=32,
                value=1024
            )
            height = gr.Slider(
                label="높이",
                info="이미지의 높이",
                minimum=256,
                maximum=1024,
                step=32,
                value=1024
            )
        
        with gr.Row():
            seed = gr.Slider(
                value=42,
                minimum=0,
                maximum=MAX_SEED,
                step=1,
                label="시드",
                info="생성 과정의 시작점입니다. 0을 입력하면 랜덤한 시드가 사용됩니다"
            )
            num_images_per_prompt = gr.Slider(
                label="프롬프트당 이미지 수",
                info="설정된 값으로 생성할 이미지의 수",
                minimum=1,
                maximum=4,
                step=1,
                value=2
            )

    gr.Examples(
        examples=examples,
        fn=generate_image,
        inputs=[prompt, num_inference_steps, height, width, guidance_scale, seed, num_images_per_prompt],
        outputs=[result],
        cache_examples=CACHE_EXAMPLES
    )

    gr.on(
        triggers=[
            prompt.submit,
            run_button.click,
        ],
        fn=generate_image,
        inputs=[prompt, num_inference_steps, height, width, guidance_scale, seed, num_images_per_prompt],
        outputs=[result],
    )

demo.queue().launch(share=False)