Fine-Tuning DistilBert on AI Hub ์ฑ์ฉ ๋ฉด์ ์ธํฐ๋ทฐ ๋ฐ์ดํฐ
AI Hub์ ์ฑ์ฉ ๋ฉด์ ์ธํฐ๋ทฐ ๋ฐ์ดํฐ๋ฅผ ์ฌ์ฉํ์ฌ DistilBert ๋ชจ๋ธ์ Fine Tuning
ํ๋ก์ ํธ ๊ฐ์
- ๋ฐ์ดํฐ์ : AI Hub ์ฑ์ฉ ๋ฉด์ ์ธํฐ๋ทฐ ๋ฐ์ดํฐ
- ๋ชจ๋ธ: DistilBert
- ์ฃผ์ ๋ชฉํ: ์ฑ์ฉ ๋ฉด์ ์ธํฐ๋ทฐ ์๋๋ฆฌ์ค์์์ ๋ต๋ณ ๊ฐ์ ๋ถ์
์คํ ์ค์
- Learning Rate: 2e-5
- Epoch ์: 5
- ํ ์คํธ ์ ํ๋: 92%
Label
- Negative: Label_0
- Netural: Label_1
- Positive: Label_2
- Downloads last month
- 19
This model does not have enough activity to be deployed to Inference API (serverless) yet. Increase its social
visibility and check back later, or deploy to Inference Endpoints (dedicated)
instead.