DanLeBossDeESGI commited on
Commit
82d5983
·
1 Parent(s): d31f289

Update app.py

Browse files
Files changed (1) hide show
  1. app.py +14 -29
app.py CHANGED
@@ -41,6 +41,9 @@ st.title("Générateur de Diaporama Vidéo et Musique")
41
  # Sélectionnez les images
42
  uploaded_files = st.file_uploader("Sélectionnez des images (PNG, JPG, JPEG)", type=["png", "jpg", "jpeg"], accept_multiple_files=True)
43
 
 
 
 
44
  if uploaded_files:
45
  # Créez un répertoire temporaire pour stocker les images
46
  temp_dir = tempfile.mkdtemp()
@@ -65,9 +68,17 @@ if uploaded_files:
65
  except Exception as e:
66
  descriptions.append("Erreur lors de la génération de la légende")
67
 
68
- # Affichez les images avec leurs descriptions
69
- for i, image_path in enumerate(image_paths):
70
- st.image(image_path, caption=f"Description : {descriptions[i]}", use_column_width=True)
 
 
 
 
 
 
 
 
71
 
72
  # Générez de la musique à partir des descriptions
73
  st.header("Génération de Musique à partir des Descriptions")
@@ -83,29 +94,3 @@ if uploaded_files:
83
  n_candidates = st.slider("Number waveforms to generate", 1, 3, 3, 1)
84
 
85
  def score_waveforms(text, waveforms):
86
- inputs = processor(text=text, audios=list(waveforms), return_tensors="pt", padding=True)
87
- inputs = {key: inputs[key].to(device) for key in inputs}
88
- with torch.no_grad():
89
- logits_per_text = clap_model(**inputs).logits_per_text # this is the audio-text similarity score
90
- probs = logits_per_text.softmax(dim=-1) # we can take the softmax to get the label probabilities
91
- most_probable = torch.argmax(probs) # and now select the most likely audio waveform
92
- waveform = waveforms[most_probable]
93
- return waveform
94
-
95
- if st.button("Générer de la musique"):
96
- waveforms = pipe(
97
- music_input,
98
- audio_length_in_s=duration,
99
- guidance_scale=guidance_scale,
100
- num_inference_steps=100,
101
- num_waveforms_per_prompt=n_candidates if n_candidates else 1,
102
- generator=generator.manual_seed(int(seed)),
103
- )["audios"]
104
-
105
- if waveforms.shape[0] > 1:
106
- waveform = score_waveforms(music_input, waveforms)
107
- else:
108
- waveform = waveforms[0]
109
-
110
- # Afficher le lecteur audio
111
- st.audio(waveform, format="audio/wav", sample_rate=16000)
 
41
  # Sélectionnez les images
42
  uploaded_files = st.file_uploader("Sélectionnez des images (PNG, JPG, JPEG)", type=["png", "jpg", "jpeg"], accept_multiple_files=True)
43
 
44
+ # Sélection de la durée d'affichage de chaque image avec une barre horizontale (en secondes)
45
+ image_duration = st.slider("Durée de chaque image (en secondes)", 1, 10, 4)
46
+
47
  if uploaded_files:
48
  # Créez un répertoire temporaire pour stocker les images
49
  temp_dir = tempfile.mkdtemp()
 
68
  except Exception as e:
69
  descriptions.append("Erreur lors de la génération de la légende")
70
 
71
+ # Créez une diapositive vidéo à partir des images
72
+ st.header("Diaporama Vidéo")
73
+
74
+ st.write("Création de la diapositive vidéo en cours...")
75
+ image_clips = [ImageSequenceClip([image_path], fps=1/image_duration, durations=[image_duration]) for image_path in image_paths]
76
+ final_clip = concatenate_videoclips(image_clips, method="compose")
77
+ video_path = os.path.join(temp_dir, "slideshow.mp4")
78
+ final_clip.write_videofile(video_path, codec='libx264', fps=1/image_duration)
79
+
80
+ # Afficher la vidéo
81
+ st.video(open(video_path, 'rb').read())
82
 
83
  # Générez de la musique à partir des descriptions
84
  st.header("Génération de Musique à partir des Descriptions")
 
94
  n_candidates = st.slider("Number waveforms to generate", 1, 3, 3, 1)
95
 
96
  def score_waveforms(text, waveforms):