iton's picture
Update README.md
7fd9904 verified
---
license: apache-2.0
language:
- ja
base_model: tohoku-nlp/bert-base-japanese-v3
---
# YTLive-JaBERT-Emotion-v1
このモデルは、[tohoku-nlp/bert-base-japanese-v3](https://huggingface.co/tohoku-nlp/bert-base-japanese-v3)をベースにファインチューニングを行ったものです。
[YoutubeLive及びTwitchのライブストリームのチャットを感情分析するアプリ](https://github.com/itwoitwo/jp-stream-chat-sentiment)開発のために作成されました。
## モデルの概要
- **モデル種類**: BERT
- **言語**: 日本語
- **ベースモデル**: tohoku-nlp/bert-base-japanese-v3
## 使用方法
このモデルは、Hugging Faceの`transformers`ライブラリを使用して簡単に利用できます。
```
!pip install fugashi unidic-lite
```
```python
import torch
from transformers import AutoTokenizer, AutoModelForSequenceClassification
tokenizer = AutoTokenizer.from_pretrained("tohoku-nlp/bert-base-japanese-v3")
model = AutoModelForSequenceClassification.from_pretrained("iton/YTLive-JaBERT-Emotion-v1")
# モデルの使用例
text = "ここにサンプルテキストを入力してください。"
inputs = tokenizer(text, return_tensors="pt")
outputs = model(**inputs)
prediction = torch.argmax(outputs.logits, dim=-1)
model.config.id2label[prediction.item()]
```
## ファインチューニングの詳細
- **タスク**: 「喜び」、「悲しみ」、「期待」、「驚き」、「怒り」、「恐れ」、「嫌悪」、「信頼」の基本感情8つに「中立」を加えた9クラスで感情分析
- **データセット**: 約3600件のYoutubeLiveのチャットをLLMを用いてラベリングした独自のデータセット
## パフォーマンス
* eval_accuracy: 0.618
* eval_loss: 1.121
## 謝辞
このモデルは、東北大学の[BERT日本語Pretrained モデル](https://github.com/cl-tohoku/bert-japanese)をベースにしています。原著者の皆様に感謝いたします。