Search is not available for this dataset
image
imagewidth (px) 512
915
|
---|
End of preview. Expand
in Data Studio
YAML Metadata
Warning:
empty or missing yaml metadata in repo card
(https://huggingface.co/docs/hub/datasets-cards)
Avaliação - MME-Perception
Estrutura do Diretório
main
├── MME_Benchmark
│ ├── artwork
│ │ ├── images
│ │ │ ├── 1.jpg
│ │ │ ├── 2.jpg
│ │ │ ├── ...
│ │ ├── question_answers_YN
│ │ │ ├── 1.txt
│ │ │ ├── 2.txt
│ │ │ ├── ...
│ ├── celebrity
│ ├── code_reasoning
│ ├── ...
├── calculation.py
├── translate_MME
Estrutura dos Arquivos TXT
Cada arquivo num.txt
contém as perguntas correspondentes à imagem num.jpg
.
Formato do arquivo:
pergunta\tresposta(sim ou não)\t
(Pode conter múltiplas perguntas para a mesma imagem.)
Processo de Inferência
- Iterar sobre as imagens e seus respectivos arquivos
.txt
. - Acumular, ao longo do processo, um único arquivo
.txt
, para cada task, os seguintes dados:resposta_esperada{separador}resposta_do_modelo
- O
{separador}
é originalmente\t
, mas pode ser alterado na linha 113 docalculation.py
.
- O
- Ao final, juntar todos os arquivos
.txt
resultantes em uma mesma pasta.
Processo de Avaliação
- Executar o script
calculation.py
, passando como argumento a pasta onde foram salvos os arquivos.txt
de cada tarefa:python calculation.py --results_dir path/para/pasta
- O script exibirá os scores totais e os scores individuais para cada tarefa.
- Para salvar os resultados, é necessário modificar o código.
- O script pega os primeiros caracteres para verificar se a resposta do modelo foi sim ou não para a pergunta, então isso deve ser atentado.
- Downloads last month
- 288