yanranxiaoxi commited on
Commit
908cc60
·
verified ·
1 Parent(s): 997b811

chore: update app.py

Browse files
Files changed (1) hide show
  1. app.py +10 -13
app.py CHANGED
@@ -8,7 +8,7 @@ import mcubes
8
  import imageio
9
  from torchvision.utils import save_image
10
  from PIL import Image
11
- from transformers import AutoModel, AutoConfig, AutoImageProcessor
12
  from rembg import remove, new_session
13
  from functools import partial
14
  from kiui.op import recenter
@@ -247,9 +247,7 @@ with gr.Blocks() as demo:
247
  with gr.Row():
248
  gr.Markdown("""
249
  # 图像升维计算模型:EMU Video 的衍生尝试
250
-
251
  我们利用视频扩散模型作为多视图数据生成器,从而促进可扩展 3D 生成模型的学习。以下展示了视频扩散模型作为多视图数据引擎的潜力,能够生成无限规模的合成数据以支持可扩展的训练。我们提出的模型从合成数据中学习,在生成 3D 资产方面表现出卓越的性能。
252
-
253
  除了当前状态之外,我们的模型还具有高度可扩展性,并且可以根据合成数据和 3D 数据的数量进行扩展,为 3D 生成模型铺平了新的道路。
254
  """)
255
 
@@ -259,6 +257,7 @@ with gr.Blocks() as demo:
259
  examples_component = gr.Examples(examples=examples, inputs=img_input, outputs=None, examples_per_page=5)
260
  generate_mesh_button = gr.Button("生成模型")
261
  generate_video_button = gr.Button("生成视频")
 
262
  with gr.Column():
263
  # model_output = LitModel3D(
264
  # clear_color=[0, 0, 0, 0], # 可调整背景颜色,以获得更好的对比度
@@ -273,7 +272,7 @@ with gr.Blocks() as demo:
273
  # interactive=False # 这样用户就可以与模型进行交互
274
  # )
275
  model_output = gr.Model3D(
276
- clear_color=[0, 0, 0, 0], # 可调整背景颜色,以获得更好的对比度
277
  label="模型可视化",
278
  scale=1,
279
  camera_position=(0, 0, 2), # 将设置初始摄像机位置,使模型居中
@@ -289,20 +288,18 @@ with gr.Blocks() as demo:
289
  with gr.Column():
290
  video_output = gr.Video(label="360° 视频")
291
 
292
-
293
  # 清除输出
294
  def clear_model_viewer():
295
  """在加载新模型前重置 Gradio。"""
296
- update_output = gr.update(value=None)
297
- return update_output, update_output
298
 
299
- # 首先清除输出的数据
300
- img_input.change(clear_model_viewer, inputs=None, outputs=[model_output, video_output])
301
 
302
- # 然后生成模型和视频
303
- generate_mesh_button.click(step_2_generate_obj, inputs=img_input, outputs=[obj_file_output, model_output])
304
- generate_video_button.click(step_3_generate_video, inputs=img_input, outputs=[video_file_output, video_output])
305
 
306
  demo.launch(
307
  # auth=(os.environ.get('AUTH_USERNAME'), os.environ.get('AUTH_PASSWORD'))
308
- )
 
8
  import imageio
9
  from torchvision.utils import save_image
10
  from PIL import Image
11
+ from transformers import AutoModel, AutoConfig
12
  from rembg import remove, new_session
13
  from functools import partial
14
  from kiui.op import recenter
 
247
  with gr.Row():
248
  gr.Markdown("""
249
  # 图像升维计算模型:EMU Video 的衍生尝试
 
250
  我们利用视频扩散模型作为多视图数据生成器,从而促进可扩展 3D 生成模型的学习。以下展示了视频扩散模型作为多视图数据引擎的潜力,能够生成无限规模的合成数据以支持可扩展的训练。我们提出的模型从合成数据中学习,在生成 3D 资产方面表现出卓越的性能。
 
251
  除了当前状态之外,我们的模型还具有高度可扩展性,并且可以根据合成数据和 3D 数据的数量进行扩展,为 3D 生成模型铺平了新的道路。
252
  """)
253
 
 
257
  examples_component = gr.Examples(examples=examples, inputs=img_input, outputs=None, examples_per_page=5)
258
  generate_mesh_button = gr.Button("生成模型")
259
  generate_video_button = gr.Button("生成视频")
260
+
261
  with gr.Column():
262
  # model_output = LitModel3D(
263
  # clear_color=[0, 0, 0, 0], # 可调整背景颜色,以获得更好的对比度
 
272
  # interactive=False # 这样用户就可以与模型进行交互
273
  # )
274
  model_output = gr.Model3D(
275
+ clear_color=(0.0, 0.0, 0.0, 0.0), # 可调整背景颜色,以获得更好的对比度
276
  label="模型可视化",
277
  scale=1,
278
  camera_position=(0, 0, 2), # 将设置初始摄像机位置,使模型居中
 
288
  with gr.Column():
289
  video_output = gr.Video(label="360° 视频")
290
 
 
291
  # 清除输出
292
  def clear_model_viewer():
293
  """在加载新模型前重置 Gradio。"""
294
+ return None, None
 
295
 
296
+ # 清除输出的数据
297
+ img_input.change(fn=clear_model_viewer, outputs=[model_output, video_output])
298
 
299
+ # 生成模型和视频
300
+ generate_mesh_button.click(fn=step_2_generate_obj, inputs=img_input, outputs=[obj_file_output, model_output])
301
+ generate_video_button.click(fn=step_3_generate_video, inputs=img_input, outputs=[video_file_output, video_output])
302
 
303
  demo.launch(
304
  # auth=(os.environ.get('AUTH_USERNAME'), os.environ.get('AUTH_PASSWORD'))
305
+ )