YTLive-JaBERT-Emotion-v1

このモデルは、tohoku-nlp/bert-base-japanese-v3をベースにファインチューニングを行ったものです。 YoutubeLive及びTwitchのライブストリームのチャットを感情分析するアプリ開発のために作成されました。

モデルの概要

  • モデル種類: BERT
  • 言語: 日本語
  • ベースモデル: tohoku-nlp/bert-base-japanese-v3

使用方法

このモデルは、Hugging Faceのtransformersライブラリを使用して簡単に利用できます。

!pip install fugashi unidic-lite
import torch
from transformers import AutoTokenizer, AutoModelForSequenceClassification

tokenizer = AutoTokenizer.from_pretrained("tohoku-nlp/bert-base-japanese-v3")
model = AutoModelForSequenceClassification.from_pretrained("iton/YTLive-JaBERT-Emotion-v1")

# モデルの使用例
text = "ここにサンプルテキストを入力してください。"
inputs = tokenizer(text, return_tensors="pt")
outputs = model(**inputs)
prediction = torch.argmax(outputs.logits, dim=-1)
model.config.id2label[prediction.item()]

ファインチューニングの詳細

  • タスク: 「喜び」、「悲しみ」、「期待」、「驚き」、「怒り」、「恐れ」、「嫌悪」、「信頼」の基本感情8つに「中立」を加えた9クラスで感情分析
  • データセット: 約3600件のYoutubeLiveのチャットをLLMを用いてラベリングした独自のデータセット

パフォーマンス

  • eval_accuracy: 0.618
  • eval_loss: 1.121

謝辞

このモデルは、東北大学のBERT日本語Pretrained モデルをベースにしています。原著者の皆様に感謝いたします。

Downloads last month
11
Safetensors
Model size
111M params
Tensor type
F32
·
Inference API
Unable to determine this model's library. Check the docs .

Model tree for iton/YTLive-JaBERT-Emotion-v1

Finetuned
(33)
this model