File size: 25,151 Bytes
77591a2
 
 
 
 
 
 
 
 
 
7bc1736
77591a2
 
7bc1736
77591a2
 
 
 
 
 
 
7bc1736
 
77591a2
7bc1736
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
77591a2
7bc1736
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
77591a2
 
7bc1736
 
 
 
 
 
 
 
 
 
 
77591a2
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
7bc1736
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
77591a2
7bc1736
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
77591a2
0dbd483
7bc1736
 
77591a2
7bc1736
 
 
0dbd483
7bc1736
 
 
77591a2
7bc1736
d8bbfec
7bc1736
d8bbfec
 
 
 
 
 
7bc1736
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
d8bbfec
 
 
 
 
 
 
64a73ca
 
 
 
d8bbfec
 
 
 
 
 
7bc1736
 
d8bbfec
 
64a73ca
 
 
 
d8bbfec
7bc1736
d8bbfec
7bc1736
 
 
d8bbfec
77591a2
0dbd483
7bc1736
 
 
 
 
 
0dbd483
7bc1736
 
 
 
 
0dbd483
7bc1736
 
 
 
 
 
 
 
 
 
77591a2
7bc1736
 
 
 
 
 
 
 
 
 
77591a2
7bc1736
 
 
 
 
 
 
77591a2
 
7bc1736
 
 
 
 
 
77591a2
7bc1736
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
77591a2
7bc1736
 
 
 
 
 
 
 
 
 
0dbd483
7bc1736
 
 
 
 
0dbd483
7bc1736
 
0dbd483
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
7bc1736
 
 
 
 
 
77591a2
0dbd483
7bc1736
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
77591a2
 
 
 
 
 
 
 
7bc1736
77591a2
7bc1736
 
77591a2
7bc1736
77591a2
 
 
 
7bc1736
77591a2
7bc1736
 
77591a2
 
7bc1736
 
77591a2
7bc1736
77591a2
 
 
 
 
 
 
 
 
a49984b
 
7bc1736
 
 
 
 
 
 
a49984b
 
 
 
 
 
 
 
 
7bc1736
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
76
77
78
79
80
81
82
83
84
85
86
87
88
89
90
91
92
93
94
95
96
97
98
99
100
101
102
103
104
105
106
107
108
109
110
111
112
113
114
115
116
117
118
119
120
121
122
123
124
125
126
127
128
129
130
131
132
133
134
135
136
137
138
139
140
141
142
143
144
145
146
147
148
149
150
151
152
153
154
155
156
157
158
159
160
161
162
163
164
165
166
167
168
169
170
171
172
173
174
175
176
177
178
179
180
181
182
183
184
185
186
187
188
189
190
191
192
193
194
195
196
197
198
199
200
201
202
203
204
205
206
207
208
209
210
211
212
213
214
215
216
217
218
219
220
221
222
223
224
225
226
227
228
229
230
231
232
233
234
235
236
237
238
239
240
241
242
243
244
245
246
247
248
249
250
251
252
253
254
255
256
257
258
259
260
261
262
263
264
265
266
267
268
269
270
271
272
273
274
275
276
277
278
279
280
281
282
283
284
285
286
287
288
289
290
291
292
293
294
295
296
297
298
299
300
301
302
303
304
305
306
307
308
309
310
311
312
313
314
315
316
317
318
319
320
321
322
323
324
325
326
327
328
329
330
331
332
333
334
335
336
337
338
339
340
341
342
343
344
345
346
347
348
349
350
351
352
353
354
355
356
357
358
359
360
361
362
363
364
365
366
367
368
369
370
371
372
373
374
375
376
377
378
379
380
381
382
383
384
385
386
387
388
389
390
391
392
393
394
395
396
397
398
399
400
401
402
403
404
405
406
407
408
409
410
411
412
413
414
415
416
417
418
419
420
421
422
423
424
425
426
427
428
429
430
431
432
433
434
435
436
437
438
439
440
441
442
443
444
445
446
447
448
449
450
451
452
453
454
455
456
457
458
459
460
461
462
463
464
465
466
467
468
469
470
471
472
473
474
475
476
477
478
479
480
481
482
483
484
485
486
487
488
489
490
491
492
493
494
495
496
497
498
499
500
501
502
503
504
505
506
507
508
509
510
511
512
513
514
515
516
517
518
519
520
521
522
523
524
525
526
527
528
529
530
531
532
533
534
535
536
537
538
539
import os
import shutil
import numpy as np
import string
import random
from datetime import datetime
from pyannote.audio import Model, Inference
from pydub import AudioSegment
import base64
import binascii
import warnings

class AudioProcessor():
    def __init__(self, cache_dir="/tmp/hf_cache", standard_duration=5.0):
        hf_token = os.environ.get("HF")
        if hf_token is None:
            raise ValueError("HUGGINGFACE_HUB_TOKEN が設定されていません。")
        os.makedirs(cache_dir, exist_ok=True)
        # pyannote モデルの読み込み
        model = Model.from_pretrained("pyannote/embedding", use_auth_token=hf_token, cache_dir=cache_dir)
        self.inference = Inference(model)
        # 標準の音声長さ(秒)
        self.standard_duration = standard_duration

    def normalize_audio_duration(self, input_path, target_duration_seconds=None, output_path=None):
        """

        音声ファイルの長さを指定された時間(秒)にそろえる関数

        短すぎる場合は無音を追加し、長すぎる場合は切り詰める

        

        Parameters:

        input_path (str): 入力音声ファイルのパス

        target_duration_seconds (float, optional): 目標となる音声の長さ(秒)。Noneの場合はself.standard_durationを使用

        output_path (str, optional): 出力先のパス。Noneの場合は一時ファイルを生成

        

        Returns:

        str: 処理された音声ファイルのパス

        """
        try:
            # デフォルト値の設定
            if target_duration_seconds is None:
                target_duration_seconds = self.standard_duration
                
            # 音声ファイルを読み込む
            audio = AudioSegment.from_file(input_path)
            
            # 現在の長さ(ミリ秒)
            current_duration_ms = len(audio)
            target_duration_ms = int(target_duration_seconds * 1000)
            
            # 出力パスが指定されていない場合は一時ファイルを生成
            if output_path is None:
                random_str = ''.join(random.choices(string.ascii_lowercase + string.digits, k=8))
                timestamp = datetime.now().strftime("%Y%m%d%H%M%S")
                output_dir = os.path.dirname(input_path) if os.path.dirname(input_path) else '/tmp'
                output_path = os.path.join(output_dir, f"normalized_{timestamp}_{random_str}.wav")
            
            # 長さの調整
            if current_duration_ms < target_duration_ms:
                # 短い場合は無音を追加
                silence_duration = target_duration_ms - current_duration_ms
                silence = AudioSegment.silent(duration=silence_duration)
                normalized_audio = audio + silence
            else:
                # 長い場合は切り詰め
                normalized_audio = audio[:target_duration_ms]
            
            # ファイルに保存
            normalized_audio.export(output_path, format="wav")
            
            return output_path
        
        except Exception as e:
            print(f"音声の長さをそろえる処理でエラーが発生しました: {e}")
            return None

    def batch_normalize_audio_duration(self, input_directory, target_duration_seconds=None, output_directory=None):
        """

        ディレクトリ内の全音声ファイルの長さをそろえる関数

        

        Parameters:

        input_directory (str): 入力音声ファイルが格納されているディレクトリ

        target_duration_seconds (float, optional): 目標となる音声の長さ(秒)。Noneの場合はself.standard_durationを使用

        output_directory (str, optional): 出力先のディレクトリ。Noneの場合は入力と同じディレクトリに処理結果を保存

        

        Returns:

        list: 処理された音声ファイルのパスのリスト

        """
        try:
            # デフォルト値の設定
            if target_duration_seconds is None:
                target_duration_seconds = self.standard_duration
                
            # 出力ディレクトリが指定されていない場合は入力ディレクトリを使用
            if output_directory is None:
                output_directory = input_directory
            else:
                os.makedirs(output_directory, exist_ok=True)
            
            output_files = []
            
            # ディレクトリ内の全ファイルを処理
            for filename in os.listdir(input_directory):
                if filename.lower().endswith(('.wav', '.mp3', '.webm', '.ogg', '.flac')):
                    input_path = os.path.join(input_directory, filename)
                    output_filename = f"normalized_{filename}"
                    output_path = os.path.join(output_directory, output_filename)
                    
                    # 音声の長さをそろえる
                    processed_file = self.normalize_audio_duration(
                        input_path, 
                        target_duration_seconds, 
                        output_path
                    )
                    
                    if processed_file:
                        output_files.append(processed_file)
            
            return output_files
        
        except Exception as e:
            print(f"バッチ処理でエラーが発生しました: {e}")
            return []

    def cosine_similarity(self, vec1, vec2):
        """

        2つのベクトル間のコサイン類似度を計算する

        次元数が異なる場合はエラーを発生させる

        

        Parameters:

        vec1, vec2: 比較する2つのベクトル

        

        Returns:

        float: コサイン類似度 (-1 から 1 の範囲)

        """
        try:
            # 次元数チェック
            if vec1.shape != vec2.shape:
                raise ValueError(f"ベクトルの次元数が一致しません: {vec1.shape} vs {vec2.shape}")
                
            # 正規化
            vec1 = vec1 / np.linalg.norm(vec1)
            vec2 = vec2 / np.linalg.norm(vec2)
            
            return np.dot(vec1, vec2)
        except Exception as e:
            print(f"コサイン類似度計算でエラーが発生しました: {e}")
            return None

    def segment_audio(self, path, target_path='/tmp/setup_voice', seg_duration=1.0):
        """

        音声ファイルを一定の長さのセグメントに分割する

        

        Parameters:

        path (str): 入力音声ファイルのパス

        target_path (str): 分割されたセグメントを保存するディレクトリ

        seg_duration (float): 各セグメントの長さ(秒)

        

        Returns:

        tuple: (セグメントが保存されたディレクトリのパス, 元の音声の総時間(ミリ秒))

        """
        # 出力先ディレクトリが存在していれば中身をクリアする
        if os.path.exists(target_path):
            for file in os.listdir(target_path):
                file_path = os.path.join(target_path, file)
                if os.path.isfile(file_path):
                    os.remove(file_path)
        else:
            os.makedirs(target_path, exist_ok=True)

        base_sound = AudioSegment.from_file(path)
        duration_ms = len(base_sound)
        seg_duration_ms = int(seg_duration * 1000)
        
        for i, start in enumerate(range(0, duration_ms, seg_duration_ms)):
            end = min(start + seg_duration_ms, duration_ms)
            segment = base_sound[start:end]
            # セグメントが指定長さに満たない場合、無音でパディングする
            if len(segment) < seg_duration_ms:
                silence = AudioSegment.silent(duration=(seg_duration_ms - len(segment)))
                segment = segment + silence
            
            segment.export(os.path.join(target_path, f'{i}.wav'), format="wav")
        
        return target_path, duration_ms

    def calculate_embedding(self, audio_path):
        """

        音声ファイルからエンベディングを計算する

        必要に応じて音声の長さを標準化する

        

        Parameters:

        audio_path (str): 音声ファイルのパス

        

        Returns:

        numpy.ndarray: 計算されたエンベディング

        """
        try:
            # 一時的に長さを標準化した音声ファイルを作成
            normalized_path = self.normalize_audio_duration(audio_path)
            if normalized_path is None:
                raise ValueError("音声の長さの標準化に失敗しました")
                
            # エンベディングを計算
            embedding = self.inference(normalized_path)
            
            # 一時ファイルを削除(必要に応じて)
            if normalized_path != audio_path:
                try:
                    os.remove(normalized_path)
                except Exception as e:
                    warnings.warn(f"一時ファイルの削除に失敗しました: {e}")
                
            return embedding.data.flatten()
            
        except Exception as e:
            print(f"エンベディング計算でエラーが発生しました: {e}")
            return None

    def calculate_similarity(self, path1, path2):
        """

        2つの音声ファイル間の類似度を計算する

        音声の長さを標準化してからエンベディングを計算

        

        Parameters:

        path1, path2 (str): 比較する2つの音声ファイルのパス

        

        Returns:

        float: コサイン類似度 (-1 から 1 の範囲)、エラー時はNone

        """
        try:
            # エンベディングを計算
            embedding1 = self.calculate_embedding(path1)
            embedding2 = self.calculate_embedding(path2)
            
            if embedding1 is None or embedding2 is None:
                raise ValueError("エンベディングの計算に失敗しました")
            
            # 次元数チェック(念のため)
            if embedding1.shape != embedding2.shape:
                raise ValueError(f"エンベディングの次元数が一致しません: {embedding1.shape} vs {embedding2.shape}")
                
            # 類似度を計算
            return float(self.cosine_similarity(embedding1, embedding2))
        except Exception as e:
            print(f"類似度計算でエラーが発生しました: {e}")
            return None

    def process_audio(self, reference_path, input_path, user, output_folder='/tmp/data/matched_segments', seg_duration=1.0, threshold=0.5):
        """

        入力音声からリファレンス音声に類似したセグメントを抽出する

        

        Parameters:

        reference_path (str): リファレンス音声のパス

        input_path (str): 入力音声のパス

        user(str): ユーザー名

        output_folder (str): 類似セグメントを保存するディレクトリ

        seg_duration (float): セグメントの長さ(秒)

        threshold (float): 類似度の閾値

        

        Returns:

        tuple: (マッチした時間(ミリ秒), マッチしなかった時間(ミリ秒), 分類済みのセグメント)

        """

        isSpeaking = None
        wasSpeaking = None
        current_segment=[]
        merged_segments=[]

        try:
            # リファレンス音声のエンベディングを計算(長さを標準化)
            reference_embedding = self.calculate_embedding(reference_path)
            if reference_embedding is None:
                raise ValueError("リファレンス音声のエンベディング計算に失敗しました")
            
            # 出力先ディレクトリの中身をクリアする
            if os.path.exists(output_folder):
                for file in os.listdir(output_folder):
                    file_path = os.path.join(output_folder, file)
                    if os.path.isfile(file_path):
                        os.remove(file_path)
            else:
                os.makedirs(output_folder, exist_ok=True)

            # 入力音声をセグメントに分割
            segmented_path, total_duration_ms = self.segment_audio(input_path, seg_duration=seg_duration)
            
            matched_time_ms = 0
            for file in sorted(os.listdir(segmented_path)):
                segment_file = os.path.join(segmented_path, file)
                
                # セグメントのエンベディングを計算
                segment_embedding = self.calculate_embedding(segment_file)
                if segment_embedding is None:
                    print(f"警告: セグメント {file} のエンベディング計算に失敗しました。スキップします。")
                    continue
                
                try:
                    # 類似度を計算
                    similarity = float(self.cosine_similarity(segment_embedding, reference_embedding))
                    
                    if similarity > threshold:
                        shutil.copy(segment_file, output_folder)
                        matched_time_ms += len(AudioSegment.from_file(segment_file))
                        isSpeaking = True
                    else:
                        isSpeaking = False

                    # 話者が変わった場合、保存
                    if wasSpeaking != isSpeaking:
                        if current_segment:
                            if wasSpeaking:
                                merged_segments.append((user, current_segment))
                            else:
                                merged_segments.append(("other",current_segment))
                        wasSpeaking = isSpeaking
                        current_segment = [segment_file]
                    # 変わらなかった場合、結合 
                    else:
                        current_segment.append(segment_file)
                    
                except Exception as e:
                    print(f"セグメント {file} の類似度計算でエラーが発生しました: {e}")
            # 余りを保存
            if current_segment:
                if wasSpeaking:
                    merged_segments.append((user, current_segment))
                else:
                    merged_segments.append(("other",current_segment))

            unmatched_time_ms = total_duration_ms - matched_time_ms
            return matched_time_ms, unmatched_time_ms, merged_segments
            
        except Exception as e:
            print(f"音声処理でエラーが発生しました: {e}")
            return 0, 0, merged_segments

    def process_multi_audio(self, reference_pathes, input_path, users, output_folder='/tmp/data/matched_multi_segments', seg_duration=1.0, threshold=0.5):
        """

        入力音声から複数のリファレンス音声に類似したセグメントを抽出する

        

        Parameters:

        reference_pathes (list): リファレンス音声のパスのリスト

        input_path (str): 入力音声のパス

        users(list): ユーザーのリスト

        output_folder (str): 類似セグメントを保存するディレクトリ

        seg_duration (float): セグメントの長さ(秒)

        threshold (float): 類似度の閾値

        

        Returns:

        tuple: (各リファレンスごとのマッチした時間のリスト, 分類済みのセグメント)

        """
        try:
            # 出力先ディレクトリの中身をクリアする
            if os.path.exists(output_folder):
                for file in os.listdir(output_folder):
                    file_path = os.path.join(output_folder, file)
                    if os.path.isfile(file_path):
                        os.remove(file_path)
            else:
                os.makedirs(output_folder, exist_ok=True)

            # リファレンス音声のエンベディングを事前計算
            reference_embeddings = []
            for ref_path in reference_pathes:
                embedding = self.calculate_embedding(ref_path)
                if embedding is None:
                    print(f"警告: リファレンス {ref_path} のエンベディング計算に失敗しました")
                    # ダミーエンベディングを挿入(後で処理をスキップ)
                    reference_embeddings.append(None)
                else:
                    reference_embeddings.append(embedding)

            # 入力音声をセグメントに分割
            segmented_path, total_duration_ms = self.segment_audio(input_path, seg_duration=seg_duration)
            segment_files = sorted(os.listdir(segmented_path))
            num_segments = len(segment_files)

            # 各セグメントのエンベディングを計算
            segment_embeddings = []
            for file in segment_files:
                segment_file = os.path.join(segmented_path, file)
                embedding = self.calculate_embedding(segment_file)
                if embedding is None:
                    print(f"警告: セグメント {file} のエンベディング計算に失敗しました")
                    segment_embeddings.append(None)
                else:
                    segment_embeddings.append(embedding)

            # 各リファレンスごとにセグメントとの類似度を計算
            similarity = []
            for ref_embedding in reference_embeddings:
                if ref_embedding is None:
                    # リファレンスのエンベディングが計算できなかった場合
                    similarity.append([0.0] * num_segments)
                    continue
                    
                ref_similarity = []
                for seg_embedding in segment_embeddings:
                    if seg_embedding is None:
                        # セグメントのエンベディングが計算できなかった場合
                        ref_similarity.append(0.0)
                        continue
                        
                    try:
                        # 次元数チェック
                        if ref_embedding.shape != seg_embedding.shape:
                            print(f"警告: エンベディングの次元数が一致しません: {ref_embedding.shape} vs {seg_embedding.shape}")
                            ref_similarity.append(0.0)
                            continue
                            
                        # 類似度を計算
                        sim = float(self.cosine_similarity(seg_embedding, ref_embedding))
                        ref_similarity.append(sim)
                    except Exception as e:
                        print(f"類似度計算でエラーが発生しました: {e}")
                        ref_similarity.append(0.0)
                
                similarity.append(ref_similarity)

            # 転置行列を作成 (rows: segment, columns: reference)
            similarity_transposed = []
            for seg_idx in range(num_segments):
                seg_sim = []
                for ref_idx in range(len(reference_pathes)):
                    seg_sim.append(similarity[ref_idx][seg_idx])
                similarity_transposed.append(seg_sim)

            # 各セグメントについて、最も高い類似度のリファレンスを選択
            best_matches = []
            speakers = []
            for seg_sim in similarity_transposed:
                best_ref = np.argmax(seg_sim)  # 最も類似度の高いリファレンスのインデックス
                # 閾値チェック
                if seg_sim[best_ref] < threshold:
                    best_matches.append(None)  # 閾値未満の場合はマッチなしとする
                    speakers.append(-1) # Noneは都合が悪いので-1
                else:
                    best_matches.append(best_ref)
                    speakers.append(best_ref)

            current_speaker = None
            current_segments = []
            merged_segments = []
            for index,file in enumerate(segment_files,start=0):
                file_path = os.path.join(segmented_path, file)
                speaker = users[speakers[index]]
                if speaker == -1:
                    continue
                if current_speaker != speaker:
                    if current_segments:
                        merged_segments.append((current_speaker,current_segments))
                    current_speaker = speaker
                    current_segments = [file_path]
                else:
                    current_segments.append(file_path)
            if current_segments:
                merged_segments.append((current_speaker,current_segments))

            # 各リファレンスごとに一致時間を集計
            matched_time = [0] * len(reference_pathes)
            for match in best_matches:
                if match is not None:
                    matched_time[match] += seg_duration

            return matched_time, merged_segments
            
        except Exception as e:
            print(f"マルチ音声処理でエラーが発生しました: {e}")
            return [0] * len(reference_pathes), None

    def save_audio_from_base64(self, base64_audio, output_dir, output_filename, temp_format='webm'):
        """

        Base64エンコードされた音声データをデコードして保存する

        

        Parameters:

        base64_audio (str): Base64エンコードされた音声データ

        output_dir (str): 出力先ディレクトリ

        output_filename (str): 出力ファイル名

        temp_format (str): 一時ファイルのフォーマット

        

        Returns:

        str: 保存された音声ファイルのパス、エラー時はNone

        """
        try:
            # Base64デコードして音声バイナリを取得
            try:
                audio_binary = base64.b64decode(base64_audio)
            except binascii.Error:
                raise ValueError("Invalid Base64 input data")
            
            # 保存するディレクトリを作成
            os.makedirs(output_dir, exist_ok=True)

            # 一時ファイルに保存
            temp_audio_path = os.path.join(output_dir, "temp_audio")
            try:
                with open(temp_audio_path, 'wb') as f:
                    f.write(audio_binary)
            
                # pydub を使って一時ファイルを WAV に変換
                try:
                    audio = AudioSegment.from_file(temp_audio_path, format=temp_format)
                except Exception as e:
                    # 形式が不明な場合は自動判別
                    audio = AudioSegment.from_file(temp_audio_path)
            
                # 音声ファイルを保存
                wav_audio_path = os.path.join(output_dir, output_filename) 
                audio.export(wav_audio_path, format="wav")
            finally:
                # 一時ファイルを削除
                if os.path.exists(temp_audio_path):
                    os.remove(temp_audio_path)
            return wav_audio_path
        except ValueError as e:
            print(f"Value Error: {e}")
        except FileNotFoundError as e:
            print(f"File Not Found Error: {e}")
        except Exception as e:
            print(f"Unexpected Error: {e}")
        return None

    def delete_files_in_directory(self, directory_path):
        """

        ディレクトリ内のすべてのファイルを削除する

        

        Parameters:

        directory_path (str): 削除対象のディレクトリパス

        """
        try:
            # ディレクトリ内のすべてのファイルを取得
            for filename in os.listdir(directory_path):
                file_path = os.path.join(directory_path, filename)
                # ファイルのみ削除する
                if os.path.isfile(file_path):
                    os.remove(file_path)
                    print(f"{file_path} を削除しました")
        except Exception as e:
            print(f"ファイル削除でエラーが発生しました: {e}")