Dataset Viewer
Auto-converted to Parquet
Search is not available for this dataset
image
imagewidth (px)
512
915
End of preview. Expand in Data Studio
YAML Metadata Warning: empty or missing yaml metadata in repo card (https://huggingface.co/docs/hub/datasets-cards)

Avaliação - MME-Perception

Estrutura do Diretório

main
├── MME_Benchmark
│   ├── artwork
│   │   ├── images
│   │   │   ├── 1.jpg
│   │   │   ├── 2.jpg
│   │   │   ├── ...
│   │   ├── question_answers_YN
│   │   │   ├── 1.txt
│   │   │   ├── 2.txt
│   │   │   ├── ...
│   ├── celebrity
│   ├── code_reasoning
│   ├── ...
├── calculation.py
├── translate_MME

Estrutura dos Arquivos TXT

Cada arquivo num.txt contém as perguntas correspondentes à imagem num.jpg.

Formato do arquivo:

pergunta\tresposta(sim ou não)\t

(Pode conter múltiplas perguntas para a mesma imagem.)

Processo de Inferência

  1. Iterar sobre as imagens e seus respectivos arquivos .txt.
  2. Acumular, ao longo do processo, um único arquivo .txt, para cada task, os seguintes dados:
    resposta_esperada{separador}resposta_do_modelo
    
    • O {separador} é originalmente \t, mas pode ser alterado na linha 113 do calculation.py.
  3. Ao final, juntar todos os arquivos .txt resultantes em uma mesma pasta.

Processo de Avaliação

  1. Executar o script calculation.py, passando como argumento a pasta onde foram salvos os arquivos .txt de cada tarefa:
    python calculation.py --results_dir path/para/pasta
    
  2. O script exibirá os scores totais e os scores individuais para cada tarefa.
  3. Para salvar os resultados, é necessário modificar o código.
  4. O script pega os primeiros caracteres para verificar se a resposta do modelo foi sim ou não para a pergunta, então isso deve ser atentado.
Downloads last month
288