M4xjunior commited on
Commit
849ade7
·
verified ·
1 Parent(s): dce6ff7

Update app.py

Browse files
Files changed (1) hide show
  1. app.py +18 -22
app.py CHANGED
@@ -179,12 +179,11 @@ with gr.Blocks(css=custom_css) as app:
179
 
180
  # Processar cada chunk
181
  audio_segments = []
182
- ref_text_accumulated = "" # Acumular o texto de referência
183
  for chunk in chunks:
184
- audio_out, spectrogram_path, ref_text_out = infer(
185
  ref_audio_input,
186
- ref_text_input,
187
- chunk, # Passa o chunk atual
188
  remove_silence,
189
  cross_fade_duration_slider,
190
  speed_slider,
@@ -192,35 +191,32 @@ with gr.Blocks(css=custom_css) as app:
192
  sr, audio_data = audio_out
193
  audio_segments.append(audio_data)
194
 
195
- # Acumular texto de referência gerado
196
- ref_text_accumulated += f"{ref_text_out.strip()} "
197
-
198
  # Concatenar os segmentos de áudio gerados
199
  if audio_segments:
200
  final_audio_data = np.concatenate(audio_segments)
201
  return (
202
  (sr, final_audio_data), # Áudio final
203
  spectrogram_path, # Espectrograma
204
- gr.update(value=ref_text_accumulated.strip()), # Texto de Referência
205
  )
206
  else:
207
  gr.Warning("Nenhum áudio gerado.")
208
- return None, None, gr.update(value="")
209
-
210
 
211
  generate_btn.click(
212
- process_chunks,
213
- inputs=[
214
- ref_audio_input,
215
- ref_text_input,
216
- gen_text_input,
217
- remove_silence,
218
- cross_fade_duration_slider,
219
- speed_slider,
220
- chunk_size_slider,
221
- ],
222
- outputs=[audio_output, spectrogram_output],
223
- )
 
224
 
225
 
226
 
 
179
 
180
  # Processar cada chunk
181
  audio_segments = []
 
182
  for chunk in chunks:
183
+ audio_out, spectrogram_path, _ = infer(
184
  ref_audio_input,
185
+ ref_text_input, # Utiliza o Texto de Referência como está
186
+ chunk, # Processa o chunk atual
187
  remove_silence,
188
  cross_fade_duration_slider,
189
  speed_slider,
 
191
  sr, audio_data = audio_out
192
  audio_segments.append(audio_data)
193
 
 
 
 
194
  # Concatenar os segmentos de áudio gerados
195
  if audio_segments:
196
  final_audio_data = np.concatenate(audio_segments)
197
  return (
198
  (sr, final_audio_data), # Áudio final
199
  spectrogram_path, # Espectrograma
200
+ gr.update(), # Nenhuma mudança no Texto de Referência
201
  )
202
  else:
203
  gr.Warning("Nenhum áudio gerado.")
204
+ return None, None, gr.update()
 
205
 
206
  generate_btn.click(
207
+ process_chunks,
208
+ inputs=[
209
+ ref_audio_input,
210
+ ref_text_input,
211
+ gen_text_input,
212
+ remove_silence,
213
+ cross_fade_duration_slider,
214
+ speed_slider,
215
+ chunk_size_slider, # Define o tamanho dos chunks
216
+ ],
217
+ outputs=[audio_output, spectrogram_output, ref_text_input], # Ref_text_input permanece inalterado
218
+ )
219
+
220
 
221
 
222