Update README.md
Browse files
README.md
CHANGED
@@ -42,7 +42,8 @@ Duville, Mathilde Marie; Alonso-Valerdi, Luz Maria; Ibarra, David (2022), “Mex
|
|
42 |
|
43 |
Contiene los datos de la base MESD procesados para hacer 'finetuning' de un modelo 'Wav2Vec' en el Hackaton organizado por 'Somos NLP'.
|
44 |
|
45 |
-
Ejemplo de referencia:
|
|
|
46 |
|
47 |
Hemos accedido a la base MESD para obtener ejemplos.
|
48 |
|
@@ -51,9 +52,7 @@ Breve descripción de los autores de la base MESD:
|
|
51 |
|
52 |
Las grabaciones de audio se realizaron en un estudio profesional con los siguientes materiales (1) un micrófono Sennheiser e835 con una respuesta de frecuencia plana (100 Hz a 10 kHz), (2) una interfaz de audio Focusrite Scarlett 2i4 conectada al micrófono con un cable XLR y al ordenador, y (3) la estación de trabajo de audio digital REAPER (Rapid Environment for Audio Production, Engineering, and Recording). Los archivos de audio se almacenaron como una secuencia de 24 bits con una frecuencia de muestreo de 48000Hz. La amplitud de las formas de onda acústicas se reescaló entre -1 y 1.
|
53 |
|
54 |
-
Se crearon dos versiones con reducción de la naturalidad de los locutores a partir de expresiones emocionales humanas para voces femeninas del corpus B. En concreto, la naturalidad se redujo progresivamente de las voces humanas al nivel 1 al nivel 2. En particular, se editaron la duración y el tono medio en las sílabas acentuadas para reducir la diferencia entre las sílabas acentuadas y las no acentuadas. En los enunciados completos, se redujeron las relaciones F2/F1 y F3/F1 editando las frecuencias F2 y F3. También se redujo la intensidad de los armónicos 1 y 4.
|
55 |
-
|
56 |
-
Traducción realizada con la versión gratuita del traductor www.DeepL.com/Translator"
|
57 |
|
58 |
|
59 |
### Supported Tasks and Leaderboards
|
@@ -84,9 +83,11 @@ AudioArray: audio array, remuestreado a 16 Khz.
|
|
84 |
|
85 |
### Data Splits
|
86 |
|
87 |
-
|
|
|
|
|
88 |
|
89 |
-
|
90 |
|
91 |
## Dataset Creation
|
92 |
|
@@ -101,15 +102,11 @@ Unir los tres subconjuntos de datos y procesarlos para la tarea de finetuning, a
|
|
101 |
Acceso a los datos en bruto:
|
102 |
https://data.mendeley.com/datasets/cy34mh68j9/5
|
103 |
|
104 |
-
Conversión a audio
|
105 |
-
|
106 |
-
Remuestreo a 16 Khz.
|
107 |
-
|
108 |
-
|
109 |
|
110 |
#### Who are the source language producers?
|
111 |
|
112 |
-
|
113 |
|
114 |
### Annotations
|
115 |
|
|
|
42 |
|
43 |
Contiene los datos de la base MESD procesados para hacer 'finetuning' de un modelo 'Wav2Vec' en el Hackaton organizado por 'Somos NLP'.
|
44 |
|
45 |
+
Ejemplo de referencia:
|
46 |
+
https://colab.research.google.com/github/huggingface/notebooks/blob/master/examples/audio_classification.ipynb
|
47 |
|
48 |
Hemos accedido a la base MESD para obtener ejemplos.
|
49 |
|
|
|
52 |
|
53 |
Las grabaciones de audio se realizaron en un estudio profesional con los siguientes materiales (1) un micrófono Sennheiser e835 con una respuesta de frecuencia plana (100 Hz a 10 kHz), (2) una interfaz de audio Focusrite Scarlett 2i4 conectada al micrófono con un cable XLR y al ordenador, y (3) la estación de trabajo de audio digital REAPER (Rapid Environment for Audio Production, Engineering, and Recording). Los archivos de audio se almacenaron como una secuencia de 24 bits con una frecuencia de muestreo de 48000Hz. La amplitud de las formas de onda acústicas se reescaló entre -1 y 1.
|
54 |
|
55 |
+
Se crearon dos versiones con reducción de la naturalidad de los locutores a partir de expresiones emocionales humanas para voces femeninas del corpus B. En concreto, la naturalidad se redujo progresivamente de las voces humanas al nivel 1 al nivel 2. En particular, se editaron la duración y el tono medio en las sílabas acentuadas para reducir la diferencia entre las sílabas acentuadas y las no acentuadas. En los enunciados completos, se redujeron las relaciones F2/F1 y F3/F1 editando las frecuencias F2 y F3. También se redujo la intensidad de los armónicos 1 y 4. "
|
|
|
|
|
56 |
|
57 |
|
58 |
### Supported Tasks and Leaderboards
|
|
|
83 |
|
84 |
### Data Splits
|
85 |
|
86 |
+
Train: 891 ejemplos, mezcla de casos MESD y 'Speaker-embedded naturalness-reduced female voices'.
|
87 |
+
|
88 |
+
Validation: 130 ejemplos, todos casos MESD.
|
89 |
|
90 |
+
Test: 129 ejemplos, todos casos MESD.
|
91 |
|
92 |
## Dataset Creation
|
93 |
|
|
|
102 |
Acceso a los datos en bruto:
|
103 |
https://data.mendeley.com/datasets/cy34mh68j9/5
|
104 |
|
105 |
+
Conversión a audio arra y remuestreo a 16 Khz.
|
|
|
|
|
|
|
|
|
106 |
|
107 |
#### Who are the source language producers?
|
108 |
|
109 |
+
Duville, Mathilde Marie; Alonso-Valerdi, Luz Maria; Ibarra, David (2022), “Mexican Emotional Speech Database (MESD)”, Mendeley Data, V5, doi: 10.17632/cy34mh68j9.5
|
110 |
|
111 |
### Annotations
|
112 |
|