File size: 20,647 Bytes
eabe5ac |
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75 76 77 78 79 80 81 82 83 84 85 86 87 88 89 90 91 92 93 94 95 96 97 98 99 100 101 102 103 104 105 106 107 108 109 110 111 112 113 114 115 116 117 118 119 120 121 122 123 124 125 126 127 128 129 130 131 132 133 134 135 136 137 138 139 140 141 142 143 144 145 146 147 148 149 150 151 152 153 154 155 156 157 158 159 160 161 162 163 164 165 166 167 168 169 170 171 172 173 174 175 176 177 178 179 180 181 182 183 184 185 186 187 188 189 190 191 192 193 194 195 196 197 198 199 200 201 202 203 204 205 206 207 208 209 210 211 212 213 214 215 216 217 218 219 220 221 222 223 224 225 226 227 228 229 230 231 232 233 234 235 236 237 238 239 240 241 242 243 244 245 246 247 248 249 250 251 252 253 254 255 256 257 258 259 260 261 262 263 264 265 266 267 268 269 270 271 272 273 274 275 276 277 278 279 280 281 282 283 284 285 286 287 288 289 290 291 292 293 294 295 296 297 298 299 300 301 302 303 304 305 306 307 308 309 310 311 312 313 314 315 316 317 318 319 320 321 322 323 324 325 326 327 328 329 330 331 332 333 334 335 336 337 338 339 340 341 342 343 344 345 346 347 348 349 350 351 352 353 354 355 356 357 358 359 360 361 362 363 364 365 366 367 368 369 370 371 372 373 374 375 376 377 378 379 380 381 382 383 384 385 386 387 388 |
---
base_model: klue/roberta-base
library_name: setfit
metrics:
- metric
pipeline_tag: text-classification
tags:
- setfit
- sentence-transformers
- text-classification
- generated_from_setfit_trainer
widget:
- text: 닥터 브로너스 그린티 퓨어 캐스틸 바솝 140g 3개 옵션없음 (주)엠아이인터내셔널
- text: 에치앤지 코스노리 아이래쉬 틴팅 세럼 9g 옵션없음 탑서비스
- text: '[VT] 피디알엔 리들샷 옵션없음 (주)지에스리테일 홈쇼핑'
- text: 1950년대 영국체어 옵션없음 4Umall (포유몰)
- text: Tip Top 팁탑 포마드 오리지널 120g [한정수량할인] 바르노 포마드_01 바르노 오리지널(수성) 주식회사 설빈
inference: true
model-index:
- name: SetFit with klue/roberta-base
results:
- task:
type: text-classification
name: Text Classification
dataset:
name: Unknown
type: unknown
split: test
metrics:
- type: metric
value: 0.8909090909090909
name: Metric
---
# SetFit with klue/roberta-base
This is a [SetFit](https://github.com/huggingface/setfit) model that can be used for Text Classification. This SetFit model uses [klue/roberta-base](https://huggingface.co/klue/roberta-base) as the Sentence Transformer embedding model. A [LogisticRegression](https://scikit-learn.org/stable/modules/generated/sklearn.linear_model.LogisticRegression.html) instance is used for classification.
The model has been trained using an efficient few-shot learning technique that involves:
1. Fine-tuning a [Sentence Transformer](https://www.sbert.net) with contrastive learning.
2. Training a classification head with features from the fine-tuned Sentence Transformer.
## Model Details
### Model Description
- **Model Type:** SetFit
- **Sentence Transformer body:** [klue/roberta-base](https://huggingface.co/klue/roberta-base)
- **Classification head:** a [LogisticRegression](https://scikit-learn.org/stable/modules/generated/sklearn.linear_model.LogisticRegression.html) instance
- **Maximum Sequence Length:** 512 tokens
- **Number of Classes:** 13 classes
<!-- - **Training Dataset:** [Unknown](https://huggingface.co/datasets/unknown) -->
<!-- - **Language:** Unknown -->
<!-- - **License:** Unknown -->
### Model Sources
- **Repository:** [SetFit on GitHub](https://github.com/huggingface/setfit)
- **Paper:** [Efficient Few-Shot Learning Without Prompts](https://arxiv.org/abs/2209.11055)
- **Blogpost:** [SetFit: Efficient Few-Shot Learning Without Prompts](https://huggingface.co/blog/setfit)
### Model Labels
| Label | Examples |
|:------|:---------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|
| 1 | <ul><li>'바디콕 발톱솔루션 문제성 발톱 영양제 손발톱 강화제 진정 손톱 케어제 큐어유 [갯수한정] 3개월분 ⭐패밀리 패키지⭐ 주식회사 씨앤알커머스'</li><li>'요거트젤 젤라또 파스텔시럽젤 9종 [단품] S29 네일컴퍼니'</li><li>'그라시아 크레이지 탑 띠크 25g 크레이지탑젤 스탠다드 40g 지구글로벌 스토어'</li></ul> |
| 6 | <ul><li>'래쉬홀릭 3D 속눈썹 영양제 옵션없음 뷰티맨이야'</li><li>'키치캐치 치키 컬러 밤 (8 Colors) PLAYFUL 주식회사 링크스'</li><li>'입큰 플러피 듀얼 립 펜슬 라이너 1호 미닝피치 X 2개 옵션없음 비엔엠코리아'</li></ul> |
| 8 | <ul><li>'에스트라 아스트라 아토베리어 로션 MD 200ml 1개 옵션없음 케이니크'</li><li>'Alpinestars 넥 튜브블랙 레드 플루오 블랙 레드_One 사이즈 브릭스썬'</li><li>'테라로직 정상가 38000원 펜타마이드 리얼 브라이트닝 10C 앰플 50ml 옵션없음 엠비즈에이'</li></ul> |
| 2 | <ul><li>'토시도 아이존 시트 20매 / 면 눈가 전용 아이 시트지 부직포 옵션없음 페이즈'</li><li>'[NEW] 해서린 포어 멜팅 와이드 슈링코팩 4매 옵션없음 휴리빙'</li><li>'하비언니X노모크 수면팩 48구 주식회사 디스토리'</li></ul> |
| 7 | <ul><li>'바나나보트 에프터썬 알로에젤 수딩젤 473ml 3개입 바나나보트 알로에젤 473ml/3개입 스테디세일러'</li><li>'코레스 코코넛-아몬드 키즈 컴포트 썬 스프레이 SPF50 150ml / KORRES 옵션없음 Minsun Kim'</li><li>'바이오가 수딩젤 피토스핑고신 스쿠알렌 글루세린 250ML 1개 바이오가 수딩젤 피토스핑고신 250ML 1개 레몽샵'</li></ul> |
| 5 | <ul><li>'쌍테 누드스킨 슬림형 쌍커풀테이프 쌍커플테이프 쌍거풀테이프 옵션없음 셀렉트림'</li><li>'새로핸즈 스프레이 투명 유리 검정캡 10ml (스크류타입) 옵션없음 (주)새로핸즈'</li><li>'원씽 원형 빅 패드 70매입 옵션없음 (주)원씽'</li></ul> |
| 3 | <ul><li>'Lush Silky Underwear Dusting Powder 러쉬 실키 언더웨어 더스트 더스팅 파우더 60g 2팩 옵션없음 이펄 Effal2'</li><li>'다이나믹스킨 왁싱재료 왁싱부직포 100매 무슬린천 옵션없음 코리안집시'</li><li>'누리네 때비누 황토/쑥 누리네 때비누 황토 주식회사 억조상사'</li></ul> |
| 0 | <ul><li>'니베아 립케어 립밤 5.5ml 모이스처 옵션없음 삼성메디원'</li><li>'라끄베르 옴므 리:차지 2종세트 옵션없음 뷰티트리'</li><li>'피지오겔 DMT 크림150 옵션없음 (주)지에스리테일 홈쇼핑'</li></ul> |
| 4 | <ul><li>'에이지투웨니스 블랙 골드 팩트 본품+리필+커피쿠폰 23호 미디움 베이지+커피쿠폰 주식회사 아이홀릭'</li><li>'입생로랑 NEW 메쉬 핑크 쿠션 12g 리필 B25 옵션없음 쇼핑사거리'</li><li>'힌스 세컨 스킨 메쉬 매트 쿠션(본품+리필) [본품+리필] 17 포슬린 하늘바다너머'</li></ul> |
| 9 | <ul><li>'[본사제품최신제조] 인셀덤 엑티브 클린업 파우더 90g 폼 클렌징 가루 효소 세안제 옵션없음 미라클'</li><li>'[제로이드] 인텐시브 페이셜 크림 클렌저 180ml 옵션없음 주식회사 트리티스'</li><li>'라미 라피네 야채 딥 300ml 옵션없음 행복이'</li></ul> |
| 11 | <ul><li>'미쟝센 스타일 케어 프로 스트롱 홀드 스프레이 300ml/ (2개이상 복수구매시 추가할인) 옵션없음 다판다'</li><li>'웰라프로페셔널 일루미나 컬러 염색약 80g 산화제미포함 일루미나산화제미포함_웰라 일루미나 블로썸-6 [80g] 티비'</li><li>'아모스 에센셜 시스테인 펌 150ml + 150ml 시스테인펌제 옵션없음 티비'</li></ul> |
| 12 | <ul><li>'이브로셰 라즈베리 헤어식초 400ml 8750943 옵션없음 비티엘파트너'</li><li>'이브로쉐 리프레쉬 헤어식초(모링가) 400ml 옵션없음 스루치로 유한책임회사'</li><li>'[우신] R&B(알앤비) 아로마 pH 컨트롤 500ml 피에이치 컨트롤 컬강화제 옵션없음 송이뷰티'</li></ul> |
| 10 | <ul><li>'지미추 플로럴 EDT 40ml+랜덤쇼핑백 옵션없음 아이스큐브'</li><li>'라벤더 프렌치 유기농 에센셜오일 100ml 대용량 고농축 허브 아로마오일 불면증에좋은 숙면 테라피 디퓨저 옵션없음 마이소르 주식회사'</li><li>'조말론 블랙베리 앤 베이 오 드 코롱 50ml 옵션없음 블랑블랑'</li></ul> |
## Evaluation
### Metrics
| Label | Metric |
|:--------|:-------|
| **all** | 0.8909 |
## Uses
### Direct Use for Inference
First install the SetFit library:
```bash
pip install setfit
```
Then you can load this model and run inference.
```python
from setfit import SetFitModel
# Download from the 🤗 Hub
model = SetFitModel.from_pretrained("setfit_model_id")
# Run inference
preds = model("1950년대 영국체어 옵션없음 4Umall (포유몰)")
```
<!--
### Downstream Use
*List how someone could finetune this model on their own dataset.*
-->
<!--
### Out-of-Scope Use
*List how the model may foreseeably be misused and address what users ought not to do with the model.*
-->
<!--
## Bias, Risks and Limitations
*What are the known or foreseeable issues stemming from this model? You could also flag here known failure cases or weaknesses of the model.*
-->
<!--
### Recommendations
*What are recommendations with respect to the foreseeable issues? For example, filtering explicit content.*
-->
## Training Details
### Training Set Metrics
| Training set | Min | Median | Max |
|:-------------|:----|:-------|:----|
| Word count | 3 | 9.8008 | 33 |
| Label | Training Sample Count |
|:------|:----------------------|
| 0 | 1281 |
| 1 | 582 |
| 2 | 681 |
| 3 | 1592 |
| 4 | 587 |
| 5 | 706 |
| 6 | 1206 |
| 7 | 587 |
| 8 | 1081 |
| 9 | 1077 |
| 10 | 224 |
| 11 | 567 |
| 12 | 699 |
### Training Hyperparameters
- batch_size: (512, 512)
- num_epochs: (10, 10)
- max_steps: -1
- sampling_strategy: oversampling
- num_iterations: 20
- body_learning_rate: (2e-05, 2e-05)
- head_learning_rate: 2e-05
- loss: CosineSimilarityLoss
- distance_metric: cosine_distance
- margin: 0.25
- end_to_end: False
- use_amp: False
- warmup_proportion: 0.1
- seed: 42
- eval_max_steps: -1
- load_best_model_at_end: False
### Training Results
| Epoch | Step | Training Loss | Validation Loss |
|:------:|:----:|:-------------:|:---------------:|
| 0.0012 | 1 | 0.4342 | - |
| 0.0588 | 50 | 0.3693 | - |
| 0.1176 | 100 | 0.3229 | - |
| 0.1765 | 150 | 0.2888 | - |
| 0.2353 | 200 | 0.2413 | - |
| 0.2941 | 250 | 0.2136 | - |
| 0.3529 | 300 | 0.1925 | - |
| 0.4118 | 350 | 0.1672 | - |
| 0.4706 | 400 | 0.1529 | - |
| 0.5294 | 450 | 0.13 | - |
| 0.5882 | 500 | 0.1112 | - |
| 0.6471 | 550 | 0.0979 | - |
| 0.7059 | 600 | 0.0873 | - |
| 0.7647 | 650 | 0.0575 | - |
| 0.8235 | 700 | 0.0482 | - |
| 0.8824 | 750 | 0.0729 | - |
| 0.9412 | 800 | 0.0411 | - |
| 1.0 | 850 | 0.0542 | - |
| 1.0588 | 900 | 0.0626 | - |
| 1.1176 | 950 | 0.0385 | - |
| 1.1765 | 1000 | 0.0373 | - |
| 1.2353 | 1050 | 0.0276 | - |
| 1.2941 | 1100 | 0.0205 | - |
| 1.3529 | 1150 | 0.0275 | - |
| 1.4118 | 1200 | 0.0226 | - |
| 1.4706 | 1250 | 0.0231 | - |
| 1.5294 | 1300 | 0.0273 | - |
| 1.5882 | 1350 | 0.0183 | - |
| 1.6471 | 1400 | 0.0158 | - |
| 1.7059 | 1450 | 0.0112 | - |
| 1.7647 | 1500 | 0.0068 | - |
| 1.8235 | 1550 | 0.0098 | - |
| 1.8824 | 1600 | 0.0047 | - |
| 1.9412 | 1650 | 0.0053 | - |
| 2.0 | 1700 | 0.0027 | - |
| 2.0588 | 1750 | 0.0007 | - |
| 2.1176 | 1800 | 0.0015 | - |
| 2.1765 | 1850 | 0.0042 | - |
| 2.2353 | 1900 | 0.002 | - |
| 2.2941 | 1950 | 0.0018 | - |
| 2.3529 | 2000 | 0.0023 | - |
| 2.4118 | 2050 | 0.0025 | - |
| 2.4706 | 2100 | 0.0014 | - |
| 2.5294 | 2150 | 0.0007 | - |
| 2.5882 | 2200 | 0.0005 | - |
| 2.6471 | 2250 | 0.0042 | - |
| 2.7059 | 2300 | 0.0022 | - |
| 2.7647 | 2350 | 0.0028 | - |
| 2.8235 | 2400 | 0.0004 | - |
| 2.8824 | 2450 | 0.0003 | - |
| 2.9412 | 2500 | 0.0009 | - |
| 3.0 | 2550 | 0.0002 | - |
| 3.0588 | 2600 | 0.0011 | - |
| 3.1176 | 2650 | 0.001 | - |
| 3.1765 | 2700 | 0.0003 | - |
| 3.2353 | 2750 | 0.0006 | - |
| 3.2941 | 2800 | 0.0034 | - |
| 3.3529 | 2850 | 0.0002 | - |
| 3.4118 | 2900 | 0.0012 | - |
| 3.4706 | 2950 | 0.0004 | - |
| 3.5294 | 3000 | 0.0004 | - |
| 3.5882 | 3050 | 0.0002 | - |
| 3.6471 | 3100 | 0.0002 | - |
| 3.7059 | 3150 | 0.0002 | - |
| 3.7647 | 3200 | 0.0001 | - |
| 3.8235 | 3250 | 0.002 | - |
| 3.8824 | 3300 | 0.0026 | - |
| 3.9412 | 3350 | 0.0001 | - |
| 4.0 | 3400 | 0.0001 | - |
| 4.0588 | 3450 | 0.0001 | - |
| 4.1176 | 3500 | 0.0003 | - |
| 4.1765 | 3550 | 0.0001 | - |
| 4.2353 | 3600 | 0.0005 | - |
| 4.2941 | 3650 | 0.0002 | - |
| 4.3529 | 3700 | 0.0003 | - |
| 4.4118 | 3750 | 0.0001 | - |
| 4.4706 | 3800 | 0.0025 | - |
| 4.5294 | 3850 | 0.0003 | - |
| 4.5882 | 3900 | 0.0003 | - |
| 4.6471 | 3950 | 0.0002 | - |
| 4.7059 | 4000 | 0.0005 | - |
| 4.7647 | 4050 | 0.0002 | - |
| 4.8235 | 4100 | 0.0022 | - |
| 4.8824 | 4150 | 0.0001 | - |
| 4.9412 | 4200 | 0.0001 | - |
| 5.0 | 4250 | 0.0009 | - |
| 5.0588 | 4300 | 0.0001 | - |
| 5.1176 | 4350 | 0.0001 | - |
| 5.1765 | 4400 | 0.0002 | - |
| 5.2353 | 4450 | 0.0002 | - |
| 5.2941 | 4500 | 0.0013 | - |
| 5.3529 | 4550 | 0.0005 | - |
| 5.4118 | 4600 | 0.0003 | - |
| 5.4706 | 4650 | 0.0001 | - |
| 5.5294 | 4700 | 0.0001 | - |
| 5.5882 | 4750 | 0.0003 | - |
| 5.6471 | 4800 | 0.0002 | - |
| 5.7059 | 4850 | 0.0002 | - |
| 5.7647 | 4900 | 0.0001 | - |
| 5.8235 | 4950 | 0.0001 | - |
| 5.8824 | 5000 | 0.0001 | - |
| 5.9412 | 5050 | 0.0001 | - |
| 6.0 | 5100 | 0.0001 | - |
| 6.0588 | 5150 | 0.0001 | - |
| 6.1176 | 5200 | 0.0009 | - |
| 6.1765 | 5250 | 0.0017 | - |
| 6.2353 | 5300 | 0.0 | - |
| 6.2941 | 5350 | 0.0016 | - |
| 6.3529 | 5400 | 0.0001 | - |
| 6.4118 | 5450 | 0.0004 | - |
| 6.4706 | 5500 | 0.0001 | - |
| 6.5294 | 5550 | 0.0011 | - |
| 6.5882 | 5600 | 0.0001 | - |
| 6.6471 | 5650 | 0.0016 | - |
| 6.7059 | 5700 | 0.0008 | - |
| 6.7647 | 5750 | 0.0001 | - |
| 6.8235 | 5800 | 0.0 | - |
| 6.8824 | 5850 | 0.0 | - |
| 6.9412 | 5900 | 0.0001 | - |
| 7.0 | 5950 | 0.0001 | - |
| 7.0588 | 6000 | 0.0001 | - |
| 7.1176 | 6050 | 0.0001 | - |
| 7.1765 | 6100 | 0.0001 | - |
| 7.2353 | 6150 | 0.0 | - |
| 7.2941 | 6200 | 0.0001 | - |
| 7.3529 | 6250 | 0.0 | - |
| 7.4118 | 6300 | 0.0008 | - |
| 7.4706 | 6350 | 0.0 | - |
| 7.5294 | 6400 | 0.0 | - |
| 7.5882 | 6450 | 0.0 | - |
| 7.6471 | 6500 | 0.0 | - |
| 7.7059 | 6550 | 0.0004 | - |
| 7.7647 | 6600 | 0.0 | - |
| 7.8235 | 6650 | 0.0 | - |
| 7.8824 | 6700 | 0.0 | - |
| 7.9412 | 6750 | 0.0001 | - |
| 8.0 | 6800 | 0.0 | - |
| 8.0588 | 6850 | 0.0 | - |
| 8.1176 | 6900 | 0.0 | - |
| 8.1765 | 6950 | 0.0 | - |
| 8.2353 | 7000 | 0.0 | - |
| 8.2941 | 7050 | 0.0001 | - |
| 8.3529 | 7100 | 0.0001 | - |
| 8.4118 | 7150 | 0.0 | - |
| 8.4706 | 7200 | 0.0 | - |
| 8.5294 | 7250 | 0.0 | - |
| 8.5882 | 7300 | 0.0 | - |
| 8.6471 | 7350 | 0.0 | - |
| 8.7059 | 7400 | 0.0 | - |
| 8.7647 | 7450 | 0.0 | - |
| 8.8235 | 7500 | 0.0 | - |
| 8.8824 | 7550 | 0.0 | - |
| 8.9412 | 7600 | 0.0 | - |
| 9.0 | 7650 | 0.0 | - |
| 9.0588 | 7700 | 0.0 | - |
| 9.1176 | 7750 | 0.0 | - |
| 9.1765 | 7800 | 0.0 | - |
| 9.2353 | 7850 | 0.0 | - |
| 9.2941 | 7900 | 0.0002 | - |
| 9.3529 | 7950 | 0.0 | - |
| 9.4118 | 8000 | 0.0 | - |
| 9.4706 | 8050 | 0.0 | - |
| 9.5294 | 8100 | 0.0 | - |
| 9.5882 | 8150 | 0.0 | - |
| 9.6471 | 8200 | 0.0 | - |
| 9.7059 | 8250 | 0.0 | - |
| 9.7647 | 8300 | 0.0 | - |
| 9.8235 | 8350 | 0.0001 | - |
| 9.8824 | 8400 | 0.0 | - |
| 9.9412 | 8450 | 0.0 | - |
| 10.0 | 8500 | 0.0 | - |
### Framework Versions
- Python: 3.10.12
- SetFit: 1.1.0.dev0
- Sentence Transformers: 3.1.1
- Transformers: 4.45.1
- PyTorch: 2.4.0+cu121
- Datasets: 2.20.0
- Tokenizers: 0.20.0
## Citation
### BibTeX
```bibtex
@article{https://doi.org/10.48550/arxiv.2209.11055,
doi = {10.48550/ARXIV.2209.11055},
url = {https://arxiv.org/abs/2209.11055},
author = {Tunstall, Lewis and Reimers, Nils and Jo, Unso Eun Seo and Bates, Luke and Korat, Daniel and Wasserblat, Moshe and Pereg, Oren},
keywords = {Computation and Language (cs.CL), FOS: Computer and information sciences, FOS: Computer and information sciences},
title = {Efficient Few-Shot Learning Without Prompts},
publisher = {arXiv},
year = {2022},
copyright = {Creative Commons Attribution 4.0 International}
}
```
<!--
## Glossary
*Clearly define terms in order to be accessible across audiences.*
-->
<!--
## Model Card Authors
*Lists the people who create the model card, providing recognition and accountability for the detailed work that goes into its construction.*
-->
<!--
## Model Card Contact
*Provides a way for people who have updates to the Model Card, suggestions, or questions, to contact the Model Card authors.*
--> |