Model Card of vocabtrimmer/mbart-large-cc25-trimmed-ko-koquad-qa

This model is fine-tuned version of vocabtrimmer/mbart-large-cc25-trimmed-ko for question answering task on the lmqg/qg_koquad (dataset_name: default) via lmqg.

Overview

Usage

from lmqg import TransformersQG

# initialize model
model = TransformersQG(language="ko", model="vocabtrimmer/mbart-large-cc25-trimmed-ko-koquad-qa")

# model prediction
answers = model.answer_q(list_question="매드 클라운이 참가해 큰 화제를 모았던 프로그램은?", list_context=" 과거 소울 컴퍼니 소속으로 소울 컴퍼니 해체 후 현재의 소속사는 스타쉽 엑스이다. Mad Clown vs Crucial Star (매드 클라운 vs 크루셜 스타)라는 프로젝트 그룹으로 크루셜 스타와 함께 활동하기도 하였으며, 2013년부터는 MC인 저스디스와 팀을 이루어 랩 듀오 커먼콜드로 활동하고 있다. 또한 Mnet 《쇼미더머니 2》에서 참가자로 참가하여 큰 화제를 모았으며, 《쇼미더머니 5》에서는 길 & 매드 클라운 팀으로 프로듀서로 출연하였다., 재발매 물량도 완판되어 추가 제작에 들어갔다. 2016년 4월, 소속사와 자신의 SNS를 통해 2016년 5월 15일 현재 교제 중인 일반인 여자친구와의 결혼을 공식발표하였다.")
  • With transformers
from transformers import pipeline

pipe = pipeline("text2text-generation", "vocabtrimmer/mbart-large-cc25-trimmed-ko-koquad-qa")
output = pipe("question: 매드 클라운이 참가해 큰 화제를 모았던 프로그램은?, context: 과거 소울 컴퍼니 소속으로 소울 컴퍼니 해체 후 현재의 소속사는 스타쉽 엑스이다. Mad Clown vs Crucial Star (매드 클라운 vs 크루셜 스타)라는 프로젝트 그룹으로 크루셜 스타와 함께 활동하기도 하였으며, 2013년부터는 MC인 저스디스와 팀을 이루어 랩 듀오 커먼콜드로 활동하고 있다. 또한 Mnet 《쇼미더머니 2》에서 참가자로 참가하여 큰 화제를 모았으며, 《쇼미더머니 5》에서는 길 & 매드 클라운 팀으로 프로듀서로 출연하였다., 재발매 물량도 완판되어 추가 제작에 들어갔다. 2016년 4월, 소속사와 자신의 SNS를 통해 2016년 5월 15일 현재 교제 중인 일반인 여자친구와의 결혼을 공식발표하였다.")

Evaluation

Score Type Dataset
AnswerExactMatch 77.3 default lmqg/qg_koquad
AnswerF1Score 83.2 default lmqg/qg_koquad
BERTScore 97.66 default lmqg/qg_koquad
Bleu_1 73.17 default lmqg/qg_koquad
Bleu_2 64.81 default lmqg/qg_koquad
Bleu_3 53.63 default lmqg/qg_koquad
Bleu_4 37.22 default lmqg/qg_koquad
METEOR 56.56 default lmqg/qg_koquad
MoverScore 93.1 default lmqg/qg_koquad
ROUGE_L 78.43 default lmqg/qg_koquad

Training hyperparameters

The following hyperparameters were used during fine-tuning:

  • dataset_path: lmqg/qg_koquad
  • dataset_name: default
  • input_types: ['paragraph_question']
  • output_types: ['answer']
  • prefix_types: None
  • model: vocabtrimmer/mbart-large-cc25-trimmed-ko
  • max_length: 512
  • max_length_output: 32
  • epoch: 15
  • batch: 8
  • lr: 0.0001
  • fp16: False
  • random_seed: 1
  • gradient_accumulation_steps: 8
  • label_smoothing: 0.15

The full configuration can be found at fine-tuning config file.

Citation

@inproceedings{ushio-etal-2022-generative,
    title = "{G}enerative {L}anguage {M}odels for {P}aragraph-{L}evel {Q}uestion {G}eneration",
    author = "Ushio, Asahi  and
        Alva-Manchego, Fernando  and
        Camacho-Collados, Jose",
    booktitle = "Proceedings of the 2022 Conference on Empirical Methods in Natural Language Processing",
    month = dec,
    year = "2022",
    address = "Abu Dhabi, U.A.E.",
    publisher = "Association for Computational Linguistics",
}
Downloads last month
12
Inference Examples
This model does not have enough activity to be deployed to Inference API (serverless) yet. Increase its social visibility and check back later, or deploy to Inference Endpoints (dedicated) instead.

Dataset used to train vocabtrimmer/mbart-large-cc25-trimmed-ko-koquad-qa

Evaluation results

  • BLEU4 (Question Answering) on lmqg/qg_koquad
    self-reported
    37.220
  • ROUGE-L (Question Answering) on lmqg/qg_koquad
    self-reported
    78.430
  • METEOR (Question Answering) on lmqg/qg_koquad
    self-reported
    56.560
  • BERTScore (Question Answering) on lmqg/qg_koquad
    self-reported
    97.660
  • MoverScore (Question Answering) on lmqg/qg_koquad
    self-reported
    93.100
  • AnswerF1Score (Question Answering) on lmqg/qg_koquad
    self-reported
    83.200
  • AnswerExactMatch (Question Answering) on lmqg/qg_koquad
    self-reported
    77.300