M4xjunior commited on
Commit
dce6ff7
·
verified ·
1 Parent(s): 26a9ffe

Update app.py

Browse files
Files changed (1) hide show
  1. app.py +14 -5
app.py CHANGED
@@ -170,15 +170,16 @@ with gr.Blocks(css=custom_css) as app:
170
  ):
171
  # Dividir o texto em sentenças
172
  sentences = analyzer.split_into_sentences(gen_text_input)
173
-
174
  # Agrupar sentenças em chunks
175
  chunks = [
176
  " ".join(sentences[i : i + chunk_size_slider])
177
  for i in range(0, len(sentences), chunk_size_slider)
178
  ]
179
-
180
  # Processar cada chunk
181
  audio_segments = []
 
182
  for chunk in chunks:
183
  audio_out, spectrogram_path, ref_text_out = infer(
184
  ref_audio_input,
@@ -190,14 +191,22 @@ with gr.Blocks(css=custom_css) as app:
190
  )
191
  sr, audio_data = audio_out
192
  audio_segments.append(audio_data)
193
-
 
 
 
194
  # Concatenar os segmentos de áudio gerados
195
  if audio_segments:
196
  final_audio_data = np.concatenate(audio_segments)
197
- return (sr, final_audio_data), spectrogram_path, gr.update(value=ref_text_out)
 
 
 
 
198
  else:
199
  gr.Warning("Nenhum áudio gerado.")
200
- return None, None, gr.update(value=ref_text_out)
 
201
 
202
  generate_btn.click(
203
  process_chunks,
 
170
  ):
171
  # Dividir o texto em sentenças
172
  sentences = analyzer.split_into_sentences(gen_text_input)
173
+
174
  # Agrupar sentenças em chunks
175
  chunks = [
176
  " ".join(sentences[i : i + chunk_size_slider])
177
  for i in range(0, len(sentences), chunk_size_slider)
178
  ]
179
+
180
  # Processar cada chunk
181
  audio_segments = []
182
+ ref_text_accumulated = "" # Acumular o texto de referência
183
  for chunk in chunks:
184
  audio_out, spectrogram_path, ref_text_out = infer(
185
  ref_audio_input,
 
191
  )
192
  sr, audio_data = audio_out
193
  audio_segments.append(audio_data)
194
+
195
+ # Acumular texto de referência gerado
196
+ ref_text_accumulated += f"{ref_text_out.strip()} "
197
+
198
  # Concatenar os segmentos de áudio gerados
199
  if audio_segments:
200
  final_audio_data = np.concatenate(audio_segments)
201
+ return (
202
+ (sr, final_audio_data), # Áudio final
203
+ spectrogram_path, # Espectrograma
204
+ gr.update(value=ref_text_accumulated.strip()), # Texto de Referência
205
+ )
206
  else:
207
  gr.Warning("Nenhum áudio gerado.")
208
+ return None, None, gr.update(value="")
209
+
210
 
211
  generate_btn.click(
212
  process_chunks,