--- license: apache-2.0 language: - ja base_model: tohoku-nlp/bert-base-japanese-v3 --- # YTLive-JaBERT-Emotion-v1 このモデルは、[tohoku-nlp/bert-base-japanese-v3](https://huggingface.co/tohoku-nlp/bert-base-japanese-v3)をベースにファインチューニングを行ったものです。 [YoutubeLive及びTwitchのライブストリームのチャットを感情分析するアプリ](https://github.com/itwoitwo/jp-stream-chat-sentiment)開発のために作成されました。 ## モデルの概要 - **モデル種類**: BERT - **言語**: 日本語 - **ベースモデル**: tohoku-nlp/bert-base-japanese-v3 ## 使用方法 このモデルは、Hugging Faceの`transformers`ライブラリを使用して簡単に利用できます。 ``` !pip install fugashi unidic-lite ``` ```python import torch from transformers import AutoTokenizer, AutoModelForSequenceClassification tokenizer = AutoTokenizer.from_pretrained("tohoku-nlp/bert-base-japanese-v3") model = AutoModelForSequenceClassification.from_pretrained("iton/YTLive-JaBERT-Emotion-v1") # モデルの使用例 text = "ここにサンプルテキストを入力してください。" inputs = tokenizer(text, return_tensors="pt") outputs = model(**inputs) prediction = torch.argmax(outputs.logits, dim=-1) model.config.id2label[prediction.item()] ``` ## ファインチューニングの詳細 - **タスク**: 「喜び」、「悲しみ」、「期待」、「驚き」、「怒り」、「恐れ」、「嫌悪」、「信頼」の基本感情8つに「中立」を加えた9クラスで感情分析 - **データセット**: 約3600件のYoutubeLiveのチャットをLLMを用いてラベリングした独自のデータセット ## パフォーマンス * eval_accuracy: 0.618 * eval_loss: 1.121 ## 謝辞 このモデルは、東北大学の[BERT日本語Pretrained モデル](https://github.com/cl-tohoku/bert-japanese)をベースにしています。原著者の皆様に感謝いたします。