Datasets:
license: mit
language:
- pt
size_categories:
- 100K<n<1M
Dataset Card para o SQuAD 1.1 em Português Brasil
O conjunto de dados "Stanford Question Answering Dataset" (SQuAD),
para tarefa de perguntas e respostas extrativas, foi desenvolvido em 2016. Ele utiliza perguntas geradas a partir de
536 artigos da Wikipedia* com mais de 100.000 linhas de dados. É construído na forma de uma pergunta e um contexto dos artigos da
Wikipedia contendo a resposta à pergunta. [1]
Originalmente este dataset foi construído no idioma inglês, contudo, o grupo Deep Learning Brasil o
traduziu automaticamente e fez os ajustes manuais, gastando para isto cerca de 2 meses. [2]
Dataset Details
Dataset Description
O desenvolvedores fornecem dois arquivos: squad-train-v1.1.json e squad-dev-v1.1.json, sendo o primeiro para treinamento e o segundo para validação. Os arquivos possuem, respectivamente, as seguintes quantidades de registros: 87.510 e 17.853, totalizando assim: 105.363 registros. Percentualmente isto equivale a 83% dos dados para treinamento e 17% dos dados para validação. Após Análise Exploratória do dataset, verificou-se a existência de 7.283 'Id's repetidos no conjunto de validação, assim, ao invés de 17.853 registros, o conjunto de validação possuí 10.570 'Id's únicos. Desta forma, os 7.283 'Id's repetidos foram excluídos do dataset de validação original.
No universo de Machine Learning, é comum a divisão dos datasets em: Treinamento; Validação; e Testes. Assim, por que aqui não foi fornecido os dados de Testes? Pesquisando em [1], temos:
"[...] Utilizamos 80% do conjunto de dados para treinar o modelo, 10% para validação e ajuste hiperparâmetro. Os 10% finais do conjunto de dados são reservados para testes e mantidos privados pelos criadores da equipe com o objetivo de preservar a integridade dos modelos de resposta a perguntas."
Portanto, os autores não disponibilizaram os 10% de dados para testes. Sendo assim, este dataset faz os seguintes ajustes: Mantem os dados originais do conjunto de treinamento e dividi o conjunto de validação em duas partes: validação (5.500 registros (5,6%) dos dados) e testes (5070 registros (5,2%) dos dados).
- Curated by: [More Information Needed]
- Funded by [optional]: [More Information Needed]
- Shared by [optional]: [More Information Needed]
- Language(s) (NLP): [More Information Needed]
- License: [More Information Needed]
Dataset Sources [optional]
- Repository: [More Information Needed]
- Paper [optional]: [More Information Needed]
- Demo [optional]: [More Information Needed]
Uses
Direct Use
[More Information Needed]
Out-of-Scope Use
[More Information Needed]
Dataset Structure
features: 'Id', 'title', 'context', 'question', 'ans_start', 'text'
'Id': identificador único
'title': Assunto do qual o contexto trata
'context': Texto que contém a resposta para a questão
'question': Questão respondida por meio do contexto
'ans_start': Posição inicial da resposta à questão
'text': Resposta à questão
[More Information Needed]
Dataset Creation
Curation Rationale
[More Information Needed]
Source Data
Wikipedia
Data Collection and Processing
[More Information Needed]
Who are the source data producers?
[More Information Needed]
Annotations [optional]
Annotation process
[More Information Needed]
Who are the annotators?
[More Information Needed]
Personal and Sensitive Information
[More Information Needed]
Bias, Risks, and Limitations
[More Information Needed]
Recommendations
Users should be made aware of the risks, biases and limitations of the dataset. More information needed for further recommendations.
Citation [optional]
BibTeX:
[More Information Needed]
APA:
[More Information Needed]
Glossary [optional]
[More Information Needed]
More Information [optional]
[More Information Needed]
Dataset Card Authors [optional]
[More Information Needed]
Dataset Card Contact
[More Information Needed]