metadata
language:
- ja
tags:
- japanese
- pos
- dependency-parsing
base_model: KoichiYasuoka/gpt2-small-japanese-upos
datasets:
- universal_dependencies
license: apache-2.0
pipeline_tag: token-classification
widget:
- text: 全学年にわたって小学校の国語の教科書に挿し絵が用いられている
gpt2-small-japanese-ud-causal
Model Description
This is a GPT-2 model pretrained for POS-tagging and dependency-parsing, derived from gpt2-small-japanese-upos and UD_Japanese-GSDLUW.
How to Use
from transformers import pipeline
nlp=pipeline("universal-dependencies","KoichiYasuoka/gpt2-small-japanese-ud-causal",trust_remote_code=True)
print(nlp("全学年にわたって小学校の国語の教科書に挿し絵が用いられている"))
Reference
安岡孝一: GPT系言語モデルによる国語研長単位係り受け解析, 人文科学とコンピュータシンポジウム「じんもんこん2024」論文集 (2024年12月), pp.83-90.