|
--- |
|
license: apache-2.0 |
|
language: |
|
- ja |
|
base_model: tohoku-nlp/bert-base-japanese-v3 |
|
--- |
|
|
|
# YTLive-JaBERT-Emotion-v1 |
|
|
|
このモデルは、[tohoku-nlp/bert-base-japanese-v3](https://huggingface.co/tohoku-nlp/bert-base-japanese-v3)をベースにファインチューニングを行ったものです。 |
|
[YoutubeLive及びTwitchのライブストリームのチャットを感情分析するアプリ](https://github.com/itwoitwo/jp-stream-chat-sentiment)開発のために作成されました。 |
|
|
|
## モデルの概要 |
|
|
|
- **モデル種類**: BERT |
|
- **言語**: 日本語 |
|
- **ベースモデル**: tohoku-nlp/bert-base-japanese-v3 |
|
|
|
## 使用方法 |
|
|
|
このモデルは、Hugging Faceの`transformers`ライブラリを使用して簡単に利用できます。 |
|
|
|
``` |
|
!pip install fugashi unidic-lite |
|
|
|
``` |
|
|
|
```python |
|
import torch |
|
from transformers import AutoTokenizer, AutoModelForSequenceClassification |
|
|
|
tokenizer = AutoTokenizer.from_pretrained("tohoku-nlp/bert-base-japanese-v3") |
|
model = AutoModelForSequenceClassification.from_pretrained("iton/YTLive-JaBERT-Emotion-v1") |
|
|
|
# モデルの使用例 |
|
text = "ここにサンプルテキストを入力してください。" |
|
inputs = tokenizer(text, return_tensors="pt") |
|
outputs = model(**inputs) |
|
prediction = torch.argmax(outputs.logits, dim=-1) |
|
model.config.id2label[prediction.item()] |
|
``` |
|
|
|
## ファインチューニングの詳細 |
|
|
|
- **タスク**: 「喜び」、「悲しみ」、「期待」、「驚き」、「怒り」、「恐れ」、「嫌悪」、「信頼」の基本感情8つに「中立」を加えた9クラスで感情分析 |
|
- **データセット**: 約3600件のYoutubeLiveのチャットをLLMを用いてラベリングした独自のデータセット |
|
|
|
## パフォーマンス |
|
|
|
* eval_accuracy: 0.618 |
|
* eval_loss: 1.121 |
|
|
|
## 謝辞 |
|
|
|
このモデルは、東北大学の[BERT日本語Pretrained モデル](https://github.com/cl-tohoku/bert-japanese)をベースにしています。原著者の皆様に感謝いたします。 |