LMartinezEXEX commited on
Commit
0cbc1ea
·
1 Parent(s): 971d785

Text changes

Browse files
Files changed (3) hide show
  1. index.html +5 -5
  2. languages/en.js +3 -3
  3. languages/es.js +4 -4
index.html CHANGED
@@ -22,8 +22,8 @@
22
  <button id="translate" onclick="translatePage()"><img id="flag-translate" src="images/united-states.png" alt=""> English</button>
23
  </div>
24
  <div id="description-container">
25
- <p id="intro_1">Los modelos de lenguaje y las representaciones de palabras obtenidas con aprendizaje automatizado contienen estereotipos discriminatorios. Aquí presentamos el proyecto EDIA (Estereotipos y Discriminación en Inteligencia Artificial). El objetivo de este proyecto es diseñar y evaluar una metodología que permita a comunidades de ciencias sociales y personas expertas de dominio en Latinoamérica, explorar sesgos y estereotipos discriminatorios presentes en word embeddings y modelos de lenguaje. También les permite definir el tipo de sesgo a explorar y acercarse a un enfoque interseccional desde dos dimensiones binarias de análisis (por ejemplo, <i>mujer-hombre</i> vs <i>gordo-flaco</i>).</p>
26
- <p id="intro_2">EDIA contiene diversas funciones que sirven para detectar e inspeccionar sesgos en sistemas de procesamiento de lenguaje natural basados en modelos de lenguaje o word embeddings. Contamos con modelos en español e inglés para trabajar y explorar los sesgos en diferentes idiomas a requerimiento de las personas usuarias. Cada una de las siguientes pestañas son funciones distintas que nos acercan a un aspecto particular de la problemática del sesgo y a la vez, nos permiten entender partes diferentes pero complementarias del mismo.</p>
27
  </div>
28
  <div id="main-buttons-flex-container">
29
  <a class="button" id="hf" target="_blank" href="https://huggingface.co/spaces/vialibre/edia_full_es">Pruebalo en HuggingFace🤗!</a>
@@ -40,8 +40,8 @@
40
  <a class="button demo" id="word-bias-demo" target="_blank" href="https://huggingface.co/spaces/vialibre/edia_we_es">Demo</a>
41
  <a class="button tuto" target="_blank" id="word-bias-tutorial" href="#">Tutorial: Explorar listas de palabras</a>
42
  <div class="divided-buttons-flex-container">
43
- <a class="button manual" id="word-bias-manual-1" target="_blank" href="https://shorturl.at/cgwxJ">Manual:<br>Explorar palabras</a>
44
- <a class="button manual" id="word-bias-manual-2" target="_blank" href="https://shorturl.at/htuEI">Manual:<br>Explorar sesgos</a>
45
  </div>
46
  </div>
47
  </div>
@@ -58,7 +58,7 @@
58
  <a class="button tuto" id="phrase-bias-tutorial-2" target="_blank" href="#">Tutorial:<br>Crows-Pairs</a>
59
  </div>
60
  <div class="divided-buttons-flex-container">
61
- <a class="button manual" id="phrase-bias-manual-1" target="_blank" href="https://shorturl.at/fkBL3">Manual:<br>Sesgos en frase</a>
62
  <a class="button manual" id="phrase-bias-manual-2" target="_blank" href="https://shorturl.at/gJLTU">Manual:<br>Crows-Pairs</a>
63
  </div>
64
  </div>
 
22
  <button id="translate" onclick="translatePage()"><img id="flag-translate" src="images/united-states.png" alt=""> English</button>
23
  </div>
24
  <div id="description-container">
25
+ <p id="intro_1">Los modelos de lenguaje y las representaciones de palabras obtenidas con aprendizaje automatizado han demostrado contener estereotipos discriminatorios. Aquí presentamos un conjunto de herramientas de inspección: EDIA (Estereotipos y Discriminación en Inteligencia Artificial). El objetivo de este proyecto es diseñar y evaluar una metodología que permita a comunidades de ciencias sociales y personas expertas de dominio en Latinoamérica, explorar sesgos y estereotipos discriminatorios presentes en word embeddings y modelos de lenguaje. También les permite definir el tipo de sesgo a explorar y acercarse a un enfoque interseccional desde dos dimensiones binarias de análisis (por ejemplo, <i>mujer-hombre</i> vs <i>gordo-flaco</i>).</p>
26
+ <p id="intro_2">EDIA contiene diversas herramientas que sirven para detectar e inspeccionar sesgos en sistemas de procesamiento de lenguaje natural basados en modelos de lenguaje o word embeddings. Contamos con modelos en español e inglés para trabajar y explorar los sesgos en diferentes idiomas a requerimiento de las personas usuarias. Cada una de las siguientes herramientas son funciones distintas que nos acercan a un aspecto particular de la problemática del sesgo y a la vez, nos permiten entender partes diferentes pero complementarias del mismo.</p>
27
  </div>
28
  <div id="main-buttons-flex-container">
29
  <a class="button" id="hf" target="_blank" href="https://huggingface.co/spaces/vialibre/edia_full_es">Pruebalo en HuggingFace🤗!</a>
 
40
  <a class="button demo" id="word-bias-demo" target="_blank" href="https://huggingface.co/spaces/vialibre/edia_we_es">Demo</a>
41
  <a class="button tuto" target="_blank" id="word-bias-tutorial" href="#">Tutorial: Explorar listas de palabras</a>
42
  <div class="divided-buttons-flex-container">
43
+ <a class="button manual" id="word-bias-manual-1" target="_blank" href="https://shorturl.at/cgwxJ">Manual:<br>Explorar listas de palabras</a>
44
+ <a class="button manual" id="word-bias-manual-2" target="_blank" href="https://shorturl.at/htuEI">Manual:<br>Explorar sesgos en listas</a>
45
  </div>
46
  </div>
47
  </div>
 
58
  <a class="button tuto" id="phrase-bias-tutorial-2" target="_blank" href="#">Tutorial:<br>Crows-Pairs</a>
59
  </div>
60
  <div class="divided-buttons-flex-container">
61
+ <a class="button manual" id="phrase-bias-manual-1" target="_blank" href="https://shorturl.at/fkBL3">Manual:<br>Sesgos en frases</a>
62
  <a class="button manual" id="phrase-bias-manual-2" target="_blank" href="https://shorturl.at/gJLTU">Manual:<br>Crows-Pairs</a>
63
  </div>
64
  </div>
languages/en.js CHANGED
@@ -1,14 +1,14 @@
1
  const english_data = {
2
  "toolName": "EDIA: Stereotypes and Discrimination in Artificial Intelligence",
3
  "toolSubname": "Stereotypes and Discrimination in Artificial Intelligence",
4
- "introduction_1": "Language models and word representations obtained with machine learning contain discriminatory stereotypes. Here we present the EDIA project (Stereotypes and Discrimination in Artificial Intelligence). This project aimed to design and evaluate a methodology that allows social scientists and domain experts in Latin America to explore biases and discriminatory stereotypes present in word embeddings (WE) and language models (LM). It also allowed them to define the type of bias to explore and do an intersectional analysis using two binary dimensions (for example, <i>female-male</i> intersected with <i>fat-skinny</i>).",
5
  "introduction_2": "EDIA contains several functions that serve to detect and inspect biases in natural language processing systems based on language models or word embeddings. We have models in Spanish and English to work with and explore biases in different languages ​​at the user's request. Each of the following spaces contains different functions that bring us closer to a particular aspect of the problem of bias and they allow us to understand different but complementary parts of it.",
6
  "wordBias": {
7
  "title": "Biases in words",
8
  "description": "Based on a technique to detect biases in WE, this function allows us to visualize the distribution of words in 2D space and thus observe the distance between them. The more occurrence contexts they share, the closer they will be, and the fewer occurrence contexts they share, the further they will be. This usually makes words with a similar meaning appear close. From the creation of word lists to define semantic fields, we will be able to observe biases and explore neighboring words between those meanings.",
9
  "tutorial": "Tutorial: Word lists exploration",
10
- "manual-1": "Handbook:<br>Word exploration",
11
- "manual-2":"Handbook:<br>Word bias"
12
  },
13
  "phraseBias": {
14
  "title": "Sentence biases",
 
1
  const english_data = {
2
  "toolName": "EDIA: Stereotypes and Discrimination in Artificial Intelligence",
3
  "toolSubname": "Stereotypes and Discrimination in Artificial Intelligence",
4
+ "introduction_1": "Language models and word representations obtained with machine learning have been shown to contain discriminatory stereotypes. Here we present a set of inspection tools: EDIA (Stereotypes and Discrimination in Artificial Intelligence). This project aimed to design and evaluate a methodology that allows social scientists and domain experts in Latin America to explore biases and discriminatory stereotypes present in word embeddings (WE) and language models (LM). It also allowed them to define the type of bias to explore and do an intersectional analysis using two binary dimensions (for example, <i>female-male</i> intersected with <i>fat-skinny</i>).",
5
  "introduction_2": "EDIA contains several functions that serve to detect and inspect biases in natural language processing systems based on language models or word embeddings. We have models in Spanish and English to work with and explore biases in different languages ​​at the user's request. Each of the following spaces contains different functions that bring us closer to a particular aspect of the problem of bias and they allow us to understand different but complementary parts of it.",
6
  "wordBias": {
7
  "title": "Biases in words",
8
  "description": "Based on a technique to detect biases in WE, this function allows us to visualize the distribution of words in 2D space and thus observe the distance between them. The more occurrence contexts they share, the closer they will be, and the fewer occurrence contexts they share, the further they will be. This usually makes words with a similar meaning appear close. From the creation of word lists to define semantic fields, we will be able to observe biases and explore neighboring words between those meanings.",
9
  "tutorial": "Tutorial: Word lists exploration",
10
+ "manual-1": "Handbook:<br>Word lists exploration",
11
+ "manual-2":"Handbook:<br>Word lists bias exploration"
12
  },
13
  "phraseBias": {
14
  "title": "Sentence biases",
languages/es.js CHANGED
@@ -1,14 +1,14 @@
1
  const spanish_data = {
2
  "toolName": "EDIA: Estereotipos y Discriminación en Inteligencia Artificial",
3
  "toolSubname": "Estereotipos y Discriminación en Inteligencia Artificial",
4
- "introduction_1": "Los modelos de lenguaje y las representaciones de palabras obtenidas con aprendizaje automatizado contienen estereotipos discriminatorios. Aquí presentamos el proyecto EDIA (Estereotipos y Discriminación en Inteligencia Artificial). El objetivo de este proyecto es diseñar y evaluar una metodología que permita a comunidades de ciencias sociales y personas expertas de dominio en Latinoamérica, explorar sesgos y estereotipos discriminatorios presentes en word embeddings y modelos de lenguaje. También les permite definir el tipo de sesgo a explorar y acercarse a un enfoque interseccional desde dos dimensiones binarias de análisis (por ejemplo, <i>mujer-hombre</i> vs <i>gordo-flaco</i>).",
5
- "introduction_2": "EDIA contiene diversas funciones que sirven para detectar e inspeccionar sesgos en sistemas de procesamiento de lenguaje natural basados en modelos de lenguaje o word embeddings. Contamos con modelos en español e inglés para trabajar y explorar los sesgos en diferentes idiomas a requerimiento de las personas usuarias. Cada una de las siguientes pestañas son funciones distintas que nos acercan a un aspecto particular de la problemática del sesgo y a la vez, nos permiten entender partes diferentes pero complementarias del mismo.",
6
  "wordBias": {
7
  "title": "Sesgos en listas de palabras",
8
  "description": "Basada en una técnica para detectar sesgos en WE, esta función nos permite visualizar la distribución de palabras en un espacio 2D y con ello observar la distancia entre ellas. Entre más contextos de ocurrencia compartan, estarán más cerca, y entre menos contextos de ocurrencia compartan, estarán más lejos. Esto, generalmente, hace que las palabras con un significado parecido aparezcan cercanas. A partir de la creación de listas de palabras que nos sirven para definir campos semánticos, podremos observar sesgos y explorar palabras vecinas entre esos significados.",
9
  "tutorial": "Tutorial: Explorar listas de palabras",
10
- "manual-1": "Manual:<br>Explorar palabras",
11
- "manual-2":"Manual:<br>Explorar sesgos"
12
  },
13
  "phraseBias": {
14
  "title": "Sesgos en frases",
 
1
  const spanish_data = {
2
  "toolName": "EDIA: Estereotipos y Discriminación en Inteligencia Artificial",
3
  "toolSubname": "Estereotipos y Discriminación en Inteligencia Artificial",
4
+ "introduction_1": "Los modelos de lenguaje y las representaciones de palabras obtenidas con aprendizaje automatizado han demostrado contener estereotipos discriminatorios. Aquí presentamos un conjunto de herramientas de inspección: EDIA (Estereotipos y Discriminación en Inteligencia Artificial). El objetivo de este proyecto es diseñar y evaluar una metodología que permita a comunidades de ciencias sociales y personas expertas de dominio en Latinoamérica, explorar sesgos y estereotipos discriminatorios presentes en word embeddings y modelos de lenguaje. También les permite definir el tipo de sesgo a explorar y acercarse a un enfoque interseccional desde dos dimensiones binarias de análisis (por ejemplo, <i>mujer-hombre</i> vs <i>gordo-flaco</i>).",
5
+ "introduction_2": "EDIA contiene diversas herramientas que sirven para detectar e inspeccionar sesgos en sistemas de procesamiento de lenguaje natural basados en modelos de lenguaje o word embeddings. Contamos con modelos en español e inglés para trabajar y explorar los sesgos en diferentes idiomas a requerimiento de las personas usuarias. Cada una de las siguientes herramientas son funciones distintas que nos acercan a un aspecto particular de la problemática del sesgo y a la vez, nos permiten entender partes diferentes pero complementarias del mismo.",
6
  "wordBias": {
7
  "title": "Sesgos en listas de palabras",
8
  "description": "Basada en una técnica para detectar sesgos en WE, esta función nos permite visualizar la distribución de palabras en un espacio 2D y con ello observar la distancia entre ellas. Entre más contextos de ocurrencia compartan, estarán más cerca, y entre menos contextos de ocurrencia compartan, estarán más lejos. Esto, generalmente, hace que las palabras con un significado parecido aparezcan cercanas. A partir de la creación de listas de palabras que nos sirven para definir campos semánticos, podremos observar sesgos y explorar palabras vecinas entre esos significados.",
9
  "tutorial": "Tutorial: Explorar listas de palabras",
10
+ "manual-1": "Manual:<br>Explorar listas de palabras",
11
+ "manual-2":"Manual:<br>Explorar sesgos en listas"
12
  },
13
  "phraseBias": {
14
  "title": "Sesgos en frases",