File size: 1,987 Bytes
5c30e04
f1e09ef
c672237
5c30e04
 
 
4561589
5c30e04
4561589
5c30e04
 
 
 
 
5777e51
 
5c30e04
 
 
 
 
 
5eb8c24
 
 
5c30e04
c672237
 
 
5c30e04
5777e51
5c30e04
 
 
 
 
 
 
5777e51
 
 
 
 
f1e09ef
 
5777e51
f1e09ef
 
 
 
5c30e04
f1e09ef
 
 
 
 
5c30e04
 
 
 
 
 
 
 
 
f1e09ef
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
import torch
import numpy as np
import librosa
import time
from transformers import set_seed, Wav2Vec2ForCTC, AutoProcessor

device = 0 if torch.cuda.is_available() else "cpu"

def goai_stt(fichier):
    """
    Transcrire un fichier audio donné.
    
    Paramètres
    ---------- 
    fichier: str | np.ndarray
        Le chemin d'accès au fichier audio ou le tableau numpy.
        
    Return
    ---------- 
    transcript: str
        Le texte transcrit.
    """


    print("Fichier entré en entréé ---------> ", fichier)
    
    if fichier is None:
        raise ValueError("Le fichier audio est manquant.")

    ### assurer reproducibilité
    set_seed(2024)
    
    start_time = time.time()
    
    ### charger le modèle de transcription 
    model_id = "anyantudre/wav2vec2-large-mms-1b-mos-V1"

    processor = AutoProcessor.from_pretrained(model_id)
    model = Wav2Vec2ForCTC.from_pretrained(model_id, target_lang="mos", ignore_mismatched_sizes=True).to(device)

    if isinstance(fichier, str):
        ### preprocessing de l'audio à partir d'un fichier
        signal, sampling_rate = librosa.load(fichier, sr=16000)
        
    elif isinstance(fichier, np.ndarray):
        ### preprocessing de l'audio à partir d'un tableau numpy
        signal = fichier
        sampling_rate = 16000
    else:
        raise ValueError("Le type de fichier audio est invalide.")

    # Ensure the signal is a numpy array and has correct dimensions
    if not isinstance(signal, np.ndarray):
        raise TypeError("Le signal audio doit être un tableau numpy.")
    
    inputs = processor(signal, sampling_rate=sampling_rate, return_tensors="pt", padding=True).to(device)
    
    ### faire l'inference
    with torch.no_grad():
        outputs = model(**inputs).logits
    
    pred_ids = torch.argmax(outputs, dim=-1)[0]
    transcription = processor.decode(pred_ids)

    print("Temps écoulé: ", int(time.time() - start_time), " secondes")
    return transcription