iton commited on
Commit
7fd9904
1 Parent(s): 1309ead

Update README.md

Browse files
Files changed (1) hide show
  1. README.md +55 -3
README.md CHANGED
@@ -1,3 +1,55 @@
1
- ---
2
- license: apache-2.0
3
- ---
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ ---
2
+ license: apache-2.0
3
+ language:
4
+ - ja
5
+ base_model: tohoku-nlp/bert-base-japanese-v3
6
+ ---
7
+
8
+ # YTLive-JaBERT-Emotion-v1
9
+
10
+ このモデルは、[tohoku-nlp/bert-base-japanese-v3](https://huggingface.co/tohoku-nlp/bert-base-japanese-v3)をベースにファインチューニングを行ったものです。
11
+ [YoutubeLive及びTwitchのライブストリームのチャットを感情分析するアプリ](https://github.com/itwoitwo/jp-stream-chat-sentiment)開発のために作成されました。
12
+
13
+ ## モデルの概要
14
+
15
+ - **モデル種類**: BERT
16
+ - **言語**: 日本語
17
+ - **ベースモデル**: tohoku-nlp/bert-base-japanese-v3
18
+
19
+ ## 使用方法
20
+
21
+ このモデルは、Hugging Faceの`transformers`ライブラリを使用して簡単に利用できます。
22
+
23
+ ```
24
+ !pip install fugashi unidic-lite
25
+
26
+ ```
27
+
28
+ ```python
29
+ import torch
30
+ from transformers import AutoTokenizer, AutoModelForSequenceClassification
31
+
32
+ tokenizer = AutoTokenizer.from_pretrained("tohoku-nlp/bert-base-japanese-v3")
33
+ model = AutoModelForSequenceClassification.from_pretrained("iton/YTLive-JaBERT-Emotion-v1")
34
+
35
+ # モデルの使用例
36
+ text = "ここにサンプルテキストを入力してください。"
37
+ inputs = tokenizer(text, return_tensors="pt")
38
+ outputs = model(**inputs)
39
+ prediction = torch.argmax(outputs.logits, dim=-1)
40
+ model.config.id2label[prediction.item()]
41
+ ```
42
+
43
+ ## ファインチューニングの詳細
44
+
45
+ - **タスク**: 「喜び」、「悲しみ」、「期待」、「驚き」、「怒り」、「恐れ」、「嫌悪」、「信頼」の基本感情8つに「中立」を加えた9クラスで感情分析
46
+ - **データセット**: 約3600件のYoutubeLiveのチャットをLLMを用いてラベリングした独自のデータセット
47
+
48
+ ## パフォーマンス
49
+
50
+ * eval_accuracy: 0.618
51
+ * eval_loss: 1.121
52
+
53
+ ## 謝辞
54
+
55
+ このモデルは、東北大学の[BERT日本語Pretrained モデル](https://github.com/cl-tohoku/bert-japanese)をベースにしています。原著者の皆様に感謝いたします。