metadata
license: apache-2.0
language:
- ja
base_model: tohoku-nlp/bert-base-japanese-v3
YTLive-JaBERT-Emotion-v1
このモデルは、tohoku-nlp/bert-base-japanese-v3をベースにファインチューニングを行ったものです。 YoutubeLive及びTwitchのライブストリームのチャットを感情分析するアプリ開発のために作成されました。
モデルの概要
- モデル種類: BERT
- 言語: 日本語
- ベースモデル: tohoku-nlp/bert-base-japanese-v3
使用方法
このモデルは、Hugging Faceのtransformers
ライブラリを使用して簡単に利用できます。
!pip install fugashi unidic-lite
import torch
from transformers import AutoTokenizer, AutoModelForSequenceClassification
tokenizer = AutoTokenizer.from_pretrained("tohoku-nlp/bert-base-japanese-v3")
model = AutoModelForSequenceClassification.from_pretrained("iton/YTLive-JaBERT-Emotion-v1")
# モデルの使用例
text = "ここにサンプルテキストを入力してください。"
inputs = tokenizer(text, return_tensors="pt")
outputs = model(**inputs)
prediction = torch.argmax(outputs.logits, dim=-1)
model.config.id2label[prediction.item()]
ファインチューニングの詳細
- タスク: 「喜び」、「悲しみ」、「期待」、「驚き」、「怒り」、「恐れ」、「嫌悪」、「信頼」の基本感情8つに「中立」を加えた9クラスで感情分析
- データセット: 約3600件のYoutubeLiveのチャットをLLMを用いてラベリングした独自のデータセット
パフォーマンス
- eval_accuracy: 0.618
- eval_loss: 1.121
謝辞
このモデルは、東北大学のBERT日本語Pretrained モデルをベースにしています。原著者の皆様に感謝いたします。