File size: 16,284 Bytes
9689f1d
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
76
77
78
79
80
81
82
83
84
85
86
87
88
89
90
91
92
93
94
95
96
97
98
99
100
101
102
103
104
105
106
107
108
109
110
111
112
113
114
115
116
117
118
119
120
121
122
123
124
125
126
127
128
129
130
131
132
133
134
135
136
137
138
139
140
141
142
143
144
145
146
147
148
149
150
151
152
153
154
155
156
157
158
159
160
161
162
163
164
165
166
167
168
169
170
171
172
173
174
175
176
177
178
179
180
181
182
183
184
185
186
187
188
189
190
191
192
193
194
195
196
197
198
199
200
201
202
203
204
205
206
207
208
209
210
211
212
213
214
215
216
217
218
219
220
221
222
223
224
225
226
227
228
229
230
231
232
233
234
235
236
237
238
239
240
241
242
243
244
245
246
247
248
249
250
251
252
253
254
255
256
257
258
259
260
261
262
263
264
265
266
267
268
269
270
271
272
273
274
275
276
277
278
---
base_model: mini1013/master_domain
library_name: setfit
metrics:
- metric
pipeline_tag: text-classification
tags:
- setfit
- sentence-transformers
- text-classification
- generated_from_setfit_trainer
widget:
- text: 비타그램 프리미엄 페이스&갈바닉 CX19-11  주식회사 제이제이몰
- text: 쥬베라 3파장 357 LED 마스크  주식회사 바바라도로시
- text: 코털제거기 코털 귀털 눈썹 정리기 나비 NV151-ENT7 화이트 정리기 다듬기 관리기 깍기  (주) 윙스아이티
- text: 조아스 전기 이발기 JC-4773  홍운SnC
- text: 필립스 방수전기면도기 건습식 SkinIQ 7000 S7788/61 다크크롬  헤일로
inference: true
model-index:
- name: SetFit with mini1013/master_domain
  results:
  - task:
      type: text-classification
      name: Text Classification
    dataset:
      name: Unknown
      type: unknown
      split: test
    metrics:
    - type: metric
      value: 0.7128640776699029
      name: Metric
---

# SetFit with mini1013/master_domain

This is a [SetFit](https://github.com/huggingface/setfit) model that can be used for Text Classification. This SetFit model uses [mini1013/master_domain](https://huggingface.co/mini1013/master_domain) as the Sentence Transformer embedding model. A [LogisticRegression](https://scikit-learn.org/stable/modules/generated/sklearn.linear_model.LogisticRegression.html) instance is used for classification.

The model has been trained using an efficient few-shot learning technique that involves:

1. Fine-tuning a [Sentence Transformer](https://www.sbert.net) with contrastive learning.
2. Training a classification head with features from the fine-tuned Sentence Transformer.

## Model Details

### Model Description
- **Model Type:** SetFit
- **Sentence Transformer body:** [mini1013/master_domain](https://huggingface.co/mini1013/master_domain)
- **Classification head:** a [LogisticRegression](https://scikit-learn.org/stable/modules/generated/sklearn.linear_model.LogisticRegression.html) instance
- **Maximum Sequence Length:** 512 tokens
- **Number of Classes:** 18 classes
<!-- - **Training Dataset:** [Unknown](https://huggingface.co/datasets/unknown) -->
<!-- - **Language:** Unknown -->
<!-- - **License:** Unknown -->

### Model Sources

- **Repository:** [SetFit on GitHub](https://github.com/huggingface/setfit)
- **Paper:** [Efficient Few-Shot Learning Without Prompts](https://arxiv.org/abs/2209.11055)
- **Blogpost:** [SetFit: Efficient Few-Shot Learning Without Prompts](https://huggingface.co/blog/setfit)

### Model Labels
| Label | Examples                                                                                                                                                                                                                   |
|:------|:---------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|
| 10    | <ul><li>'다이슨 슈퍼소닉 여행용 헤어 드라이기 휴대용 가죽 케이스 보관함 가방 브라운 아저씨'</li><li>'[체리니]레인보우잭 클리퍼잭 바리깡 잭 바리깡 덧날  체리니'</li><li>'바비온 BOB65 강아지이발기 전용 이발기날 이발기 바리깡 세라믹 이발기날 교체용날  주식회사 바비온'</li></ul>                                          |
| 13    | <ul><li>'홈스킨이노베이션즈 실큰 쥬얼 IPL 레이저 제모기  공육이삼(0623)'</li><li>'유어피스 바디쉐이버 YP-BR01(샴페인핑크) 소담마켓'</li><li>'필립스코리아 샤티넬 모근제거기 화이트 + 라임 그린 BRE224/00  최상현'</li></ul>                                                                 |
| 11    | <ul><li>'하이맥스토끼바리깡 CL-300 전문가용이발기 핑크 오.케이상사'</li><li>'하이맥스 CL-303K 토끼바리깡/장미바리깡/미용실바리깡  한일인터내셔널'</li><li>'베라스 남자이발기 프로바리깡 전문가용 방수이발기 바리깡 미용실바리깡 유아이발기 셀프 투블럭 아기바리깡 셀프바리깡 미용실바리깡 토끼바리깡 유아바리깡 방수바리깡 VC-1000S  이코리코'</li></ul> |
| 8     | <ul><li>'[애드온] 애드온 전동 손톱깎이 네일트리머 SV425  (주) 교보문고'</li><li>'전동 아기 신생아 손톱깎이 네일트리머 손톱트리머 BNT-2 블루 (주)휴비딕'</li><li>'세신드릴 블랙스완 무선 네일드릴 35,000rpm  주식회사 코즈랩'</li></ul>                                                           |
| 3     | <ul><li>'에어라파 무선 방수 스마트 두피마사지기 HS3440  다인지앤비'</li><li>'두피 마사지기 관리기 저준위레이저 모두온 SH-LC2 블루 (주)메디위'</li><li>'[텐마인즈] 브레오 두피 마사지기 SCALP2 헤어 스칼프 전동 안마기 관리기 각질케어 [465] 그레이_1개(15000원) (주) 열심히커뮤니케이션즈'</li></ul>                   |
| 5     | <ul><li>'[소식알림받고 리뷰작성 3만적립금]다이슨 에어스트레이트 스트레이트너 (블루/코퍼)  다이슨코리아 유한회사'</li><li>'[포토리뷰 1만원 적립]다이슨 에어스트레이트 스트레이트너 (니켈/코퍼)  다이슨코리아 유한회사'</li><li>'다이슨 코랄 헤어 스트레이트너(코퍼/니켈) / 정품 / L 레드/니켈(기프트) 주식회사 리안'</li></ul>                |
| 12    | <ul><li>'BRAUN 시리즈X M1100  세진세라믹'</li><li>'BRAUN 시리즈7 71-N1200S  뉴데이즈마켓'</li><li>'필립스 SkinIQ 5000시리즈 S5588/17 - 포시즌  밸류앤포'</li></ul>                                                                                       |
| 16    | <ul><li>'JMW BLDC 헤어 드라이어 부스터 SDU3A01A 코스트코 드라이기  에이앤지컴퍼니'</li><li>'테팔 헤어스트레이트너 리스앤컬 투인원 HS4210K0  (주)인앤인코스메틱'</li><li>'벨레르 그루 8in1 전력전압 자동조절 전 세계 최초 해외 사용 가능 에어 스타일러 헤어 드라이기  주식회사 나우홈'</li></ul>                        |
| 4     | <ul><li>'플러스에어 공식판매처 헤어드라이기 H3 베이직 그린 주식회사 디깅미인터내셔널'</li><li>'예스뷰티 ZOA-1530  이순한'</li><li>'차이슨 헤어 초경량 가벼운드라이기 여행용 휴대용 3m 1.8m스탠다드  밀크 단일노즐 영통종합유통'</li></ul>                                                               |
| 17    | <ul><li>'예스뷰티 헤어롤 YB-9200 롤20개 사용온도센서  바이오메드'</li><li>'예스뷰티 휴대용 헤어롤 YB-104 프리볼트/헤어롤/휴대용헤어롤/구르프/셋팅기/휴대용셋팅기/여행용셋팅기/여행용헤어롤/예스뷰티헤어롤 YB-104 (프리볼트) 윌로펌프서비스(김포)'</li><li>'[예스뷰티]YB-9120 전기헤어롤 12P  태민사'</li></ul>                |
| 6     | <ul><li>'BRAUN 70S  셜크'</li><li>'[BRAUN] 브라운 전기면도기 시리즈9&8 파워충전케이스 (9484 PC) 9484pc power case [PC15] 주식회사 이엘피스(E-엘피스)'</li><li>'파나소닉 람대쉬 전기면도기 세척기전용 (WES4L03) 세정액  (주)레그노'</li></ul>                                      |
| 15    | <ul><li>'LG 프라엘 인텐시브 멀티케어 BLP1 복합 갈바닉 고주파 마사지기 쿨링 미세전류 수분 보습 탄력 케어 인텐시브 멀티케어[P709] 주식회사블루원'</li><li>'피코스텍 메디큐브 에이지알 유쎄라 딥 샷 (거치대포함) 김희선 마사지기  하이곰 마켓'</li><li>'LG프라엘 더마쎄라 BLQ1 + 카트리지 BARQ1 2종 세트  (주)엘앤텍'</li></ul>       |
| 0     | <ul><li>'FHIKOREA 마르세이유 MW_01 블랙 아래서위로'</li><li>'바비리스 수블림 컬링 아이론 C332K  우씨(WooSEA)'</li><li>'바비리스 C332K  모라상사'</li></ul>                                                                                                   |
| 14    | <ul><li>'필립스 NT3650/16 동의 선우에이치앤비(SUNWOO H&B)'</li><li>'이즈미 생활방수 코털제거기 NB-12B 핵심 날 망 일본 제조  (주)라이징테크'</li><li>'필립스 NT-3160 필립스 NT-3160 렉슬리코리아'</li></ul>                                                                   |
| 2     | <ul><li>'[MISO] 미소 AR-148PP 눈썹정리기/눈썹바리깡/눈썹이발기 AR-148PP 메티에'</li><li>'파나소닉 셀프 제모기 트리머 면도기 ER-GM40 눈썹 바리깡  (주)미도시'</li><li>'쥬베라 히팅뷰러 속눈썹 고데기 JV-305 핑크  팔팔상회'</li></ul>                                                      |
| 1     | <ul><li>'페이스팩토리 속눈썹 고데기 USB 충전 온열 히팅 뷰러 드라이기 고대기 속눈썹고데기 리뉴얼 주식회사 큐비스트'</li><li>'오아 쁘띠 컬링 v2 속눈썹 고데기 USB 충전식 온도조절 온열 히팅뷰러 ★혜택가★ 쁘띠컬링 J0001 오아 주식회사'</li><li>'쥬베라 속눈썹 고데기 온열 히팅 뷰러 탄젤로 주식회사 쥬베라'</li></ul>                   |
| 7     | <ul><li>'라피타 3in1 아이돌 히팅래쉬펌. 온열괄사  (주)제이온케어'</li><li>'오아 포텐컬링 속눈썹 고데기 usb 충전식 온도조절 온열 히팅뷰러 포텐컬링 J0007 오아 주식회사'</li><li>'크리스탈클라우드 충전식 눈썹 속눈썹 고데기 13g 1개  에이치케이코퍼레이션(주)'</li></ul>                                           |
| 9     | <ul><li>'보다나 글램컬 에어 힛 브러쉬 코스트코  씨이마켓(CEMARKET)'</li><li>'비달사순 에어브러쉬 헤어 롤 빗 에어 스타일러 VSAS80PIK (CU상품권)  주식회사 디에이지'</li><li>'[Panasonic] 빗 드라이기 EH-KA11 [파나소닉 공식인증]  (주)컴퓨존'</li></ul>                                        |

## Evaluation

### Metrics
| Label   | Metric |
|:--------|:-------|
| **all** | 0.7129 |

## Uses

### Direct Use for Inference

First install the SetFit library:

```bash
pip install setfit
```

Then you can load this model and run inference.

```python
from setfit import SetFitModel

# Download from the 🤗 Hub
model = SetFitModel.from_pretrained("mini1013/master_cate_el15")
# Run inference
preds = model("조아스 전기 이발기 JC-4773  홍운SnC")
```

<!--
### Downstream Use

*List how someone could finetune this model on their own dataset.*
-->

<!--
### Out-of-Scope Use

*List how the model may foreseeably be misused and address what users ought not to do with the model.*
-->

<!--
## Bias, Risks and Limitations

*What are the known or foreseeable issues stemming from this model? You could also flag here known failure cases or weaknesses of the model.*
-->

<!--
### Recommendations

*What are recommendations with respect to the foreseeable issues? For example, filtering explicit content.*
-->

## Training Details

### Training Set Metrics
| Training set | Min | Median | Max |
|:-------------|:----|:-------|:----|
| Word count   | 4   | 8.8868 | 24  |

| Label | Training Sample Count |
|:------|:----------------------|
| 0     | 50                    |
| 1     | 3                     |
| 2     | 50                    |
| 3     | 50                    |
| 4     | 50                    |
| 5     | 50                    |
| 6     | 50                    |
| 7     | 3                     |
| 8     | 50                    |
| 9     | 50                    |
| 10    | 50                    |
| 11    | 50                    |
| 12    | 50                    |
| 13    | 50                    |
| 14    | 50                    |
| 15    | 50                    |
| 16    | 39                    |
| 17    | 50                    |

### Training Hyperparameters
- batch_size: (512, 512)
- num_epochs: (20, 20)
- max_steps: -1
- sampling_strategy: oversampling
- num_iterations: 40
- body_learning_rate: (2e-05, 2e-05)
- head_learning_rate: 2e-05
- loss: CosineSimilarityLoss
- distance_metric: cosine_distance
- margin: 0.25
- end_to_end: False
- use_amp: False
- warmup_proportion: 0.1
- seed: 42
- eval_max_steps: -1
- load_best_model_at_end: False

### Training Results
| Epoch | Step | Training Loss | Validation Loss |
|:-----:|:----:|:-------------:|:---------------:|
| 0.008 | 1    | 0.4972        | -               |
| 0.4   | 50   | 0.3579        | -               |
| 0.8   | 100  | 0.2105        | -               |
| 1.2   | 150  | 0.0948        | -               |
| 1.6   | 200  | 0.0803        | -               |
| 2.0   | 250  | 0.0848        | -               |
| 2.4   | 300  | 0.0253        | -               |
| 2.8   | 350  | 0.0278        | -               |
| 3.2   | 400  | 0.023         | -               |
| 3.6   | 450  | 0.0113        | -               |
| 4.0   | 500  | 0.0098        | -               |
| 4.4   | 550  | 0.006         | -               |
| 4.8   | 600  | 0.01          | -               |
| 5.2   | 650  | 0.0044        | -               |
| 5.6   | 700  | 0.0069        | -               |
| 6.0   | 750  | 0.0117        | -               |
| 6.4   | 800  | 0.004         | -               |
| 6.8   | 850  | 0.0004        | -               |
| 7.2   | 900  | 0.0023        | -               |
| 7.6   | 950  | 0.0023        | -               |
| 8.0   | 1000 | 0.0004        | -               |
| 8.4   | 1050 | 0.0024        | -               |
| 8.8   | 1100 | 0.0003        | -               |
| 9.2   | 1150 | 0.001         | -               |
| 9.6   | 1200 | 0.0003        | -               |
| 10.0  | 1250 | 0.0004        | -               |
| 10.4  | 1300 | 0.0002        | -               |
| 10.8  | 1350 | 0.0003        | -               |
| 11.2  | 1400 | 0.0028        | -               |
| 11.6  | 1450 | 0.0002        | -               |
| 12.0  | 1500 | 0.0002        | -               |
| 12.4  | 1550 | 0.0002        | -               |
| 12.8  | 1600 | 0.0002        | -               |
| 13.2  | 1650 | 0.0002        | -               |
| 13.6  | 1700 | 0.0002        | -               |
| 14.0  | 1750 | 0.0001        | -               |
| 14.4  | 1800 | 0.0002        | -               |
| 14.8  | 1850 | 0.0002        | -               |
| 15.2  | 1900 | 0.0012        | -               |
| 15.6  | 1950 | 0.0001        | -               |
| 16.0  | 2000 | 0.0003        | -               |
| 16.4  | 2050 | 0.0001        | -               |
| 16.8  | 2100 | 0.0001        | -               |
| 17.2  | 2150 | 0.0001        | -               |
| 17.6  | 2200 | 0.0005        | -               |
| 18.0  | 2250 | 0.0001        | -               |
| 18.4  | 2300 | 0.0005        | -               |
| 18.8  | 2350 | 0.0001        | -               |
| 19.2  | 2400 | 0.0008        | -               |
| 19.6  | 2450 | 0.0001        | -               |
| 20.0  | 2500 | 0.0001        | -               |

### Framework Versions
- Python: 3.10.12
- SetFit: 1.1.0.dev0
- Sentence Transformers: 3.1.1
- Transformers: 4.46.1
- PyTorch: 2.4.0+cu121
- Datasets: 2.20.0
- Tokenizers: 0.20.0

## Citation

### BibTeX
```bibtex
@article{https://doi.org/10.48550/arxiv.2209.11055,
    doi = {10.48550/ARXIV.2209.11055},
    url = {https://arxiv.org/abs/2209.11055},
    author = {Tunstall, Lewis and Reimers, Nils and Jo, Unso Eun Seo and Bates, Luke and Korat, Daniel and Wasserblat, Moshe and Pereg, Oren},
    keywords = {Computation and Language (cs.CL), FOS: Computer and information sciences, FOS: Computer and information sciences},
    title = {Efficient Few-Shot Learning Without Prompts},
    publisher = {arXiv},
    year = {2022},
    copyright = {Creative Commons Attribution 4.0 International}
}
```

<!--
## Glossary

*Clearly define terms in order to be accessible across audiences.*
-->

<!--
## Model Card Authors

*Lists the people who create the model card, providing recognition and accountability for the detailed work that goes into its construction.*
-->

<!--
## Model Card Contact

*Provides a way for people who have updates to the Model Card, suggestions, or questions, to contact the Model Card authors.*
-->