Squad_PT / README.md
vitorandrade's picture
Upload 5 files
ab5253d verified
metadata
license: mit
language:
  - pt
size_categories:
  - 100K<n<1M

Dataset Card para o SQuAD 1.1 em Português Brasil

O conjunto de dados "Stanford Question Answering Dataset" (SQuAD), para tarefa de perguntas e respostas extrativas, foi desenvolvido em 2016. Ele utiliza perguntas geradas a partir de 536 artigos da Wikipedia* com mais de 100.000 linhas de dados. É construído na forma de uma pergunta e um contexto dos artigos da Wikipedia contendo a resposta à pergunta. [1]
Originalmente este dataset foi construído no idioma inglês, contudo, o grupo Deep Learning Brasil o traduziu automaticamente e fez os ajustes manuais, gastando para isto cerca de 2 meses. [2]

Dataset Details

Dataset Description

O desenvolvedores fornecem dois arquivos: squad-train-v1.1.json e squad-dev-v1.1.json, sendo o primeiro para treinamento e o segundo para validação. Os arquivos possuem, respectivamente, as seguintes quantidades de registros: 87.510 e 17.853, totalizando assim: 105.363 registros. Percentualmente isto equivale a 83% dos dados para treinamento e 17% dos dados para validação. Após Análise Exploratória do dataset, verificou-se a existência de 7.283 'Id's repetidos no conjunto de validação, assim, ao invés de 17.853 registros, o conjunto de validação possuí 10.570 'Id's únicos. Desta forma, os 7.283 'Id's repetidos foram excluídos do dataset de validação original.

No universo de Machine Learning, é comum a divisão dos datasets em: Treinamento; Validação; e Testes. Assim, por que aqui não foi fornecido os dados de Testes? Pesquisando em [1], temos:

"[...] Utilizamos 80% do conjunto de dados para treinar o modelo, 10% para validação e ajuste hiperparâmetro. Os 10% finais do conjunto de dados são reservados para testes e mantidos privados pelos criadores da equipe com o objetivo de preservar a integridade dos modelos de resposta a perguntas."

Portanto, os autores não disponibilizaram os 10% de dados para testes. Sendo assim, este dataset faz os seguintes ajustes: Mantem os dados originais do conjunto de treinamento e dividi o conjunto de validação em duas partes: validação (5.500 registros (5,6%) dos dados) e testes (5070 registros (5,2%) dos dados).

  • Curated by: [More Information Needed]
  • Funded by [optional]: [More Information Needed]
  • Shared by [optional]: [More Information Needed]
  • Language(s) (NLP): [More Information Needed]
  • License: [More Information Needed]

Dataset Sources [optional]

  • Repository: [More Information Needed]
  • Paper [optional]: [More Information Needed]
  • Demo [optional]: [More Information Needed]

Uses

Direct Use

[More Information Needed]

Out-of-Scope Use

[More Information Needed]

Dataset Structure

features: 'Id', 'title', 'context', 'question', 'ans_start', 'text'
'Id': identificador único
'title': Assunto do qual o contexto trata
'context': Texto que contém a resposta para a questão
'question': Questão respondida por meio do contexto
'ans_start': Posição inicial da resposta à questão
'text': Resposta à questão

[More Information Needed]

Dataset Creation

Curation Rationale

[More Information Needed]

Source Data

Wikipedia

Data Collection and Processing

[More Information Needed]

Who are the source data producers?

[More Information Needed]

Annotations [optional]

Annotation process

[More Information Needed]

Who are the annotators?

[More Information Needed]

Personal and Sensitive Information

[More Information Needed]

Bias, Risks, and Limitations

[More Information Needed]

Recommendations

Users should be made aware of the risks, biases and limitations of the dataset. More information needed for further recommendations.

Citation [optional]

BibTeX:

[More Information Needed]

APA:

[More Information Needed]

Glossary [optional]

[More Information Needed]

More Information [optional]

[More Information Needed]

Dataset Card Authors [optional]

[More Information Needed]

Dataset Card Contact

[More Information Needed]