SetFit with mini1013/master_domain

This is a SetFit model that can be used for Text Classification. This SetFit model uses mini1013/master_domain as the Sentence Transformer embedding model. A LogisticRegression instance is used for classification.

The model has been trained using an efficient few-shot learning technique that involves:

  1. Fine-tuning a Sentence Transformer with contrastive learning.
  2. Training a classification head with features from the fine-tuned Sentence Transformer.

Model Details

Model Description

Model Sources

Model Labels

Label Examples
6.0
  • '아임홈리빙 베이직 튼튼 논슬립 옷걸이 1P 퍼플 주식회사에버원'
  • '[리벤스] 코팅 논슬립 바지걸이 20P / 원목 바지걸이 및 행거 G.화이트 싱글 1단 이동식행거 아소리빙'
  • '[ 판매] 아이지베스트 바두기 뉴매직 행거 30p 바두기'
3.0
  • '스판 선풍기커버 난방기 온풍기 보관 덮개 커버 먼지차단 헤드형 스탠드형 스판선풍기커버 헤드형_베이지 굿조인'
  • '보관 스탠드 선풍기 커버 방수 일반형 헤드 케이스 북유럽풍 수납하기좋은 카바 헤드형_그레이 바른상회'
  • '공업용 선풍기 안전망 대형 산업 보호망 커버 용품 카바 30in 고퀄리'
4.0
  • '무타공 벽부착 화장지 수납 다용도 걸이 바구니 소품 선반바 스켓 거치대 케이스 인테리어 그레이1P 이노트러스트'
  • '스텐 주방 싱크대 도어행거 후크 수건 행주 걸이 문걸이행거 화이트도장_도어행거1P 주식회사 제이케이씨글로벌'
  • '로에드 초강력 마그네틱 자석 후크 마스크 걸이 10P 미니자석후크 10개세트(E10) 데일리마켓'
7.0
  • '심플 헹거커버 헹거커버-브라운 갱자상회'
  • '먼지방지 프리미엄 옷커버 혼합(자켓용10P+코트용5P) 총 15P GSSHOP_'
  • '인앳홈 의류먼지방지덮개 행거커버 의류오염방지커버 No 01.반투명 먼지 방지덮개 60X110 디엘시스'
2.0
  • '[비카] 트롤리 /수납함/츄레이/기저귀함/이동식수납함/주방용품/식당 비카_다크크레이 '
  • '할메이드 주방 화장품 서랍 이동식 트롤리 틈새 선반 바퀴달린 수납장 트레이 3단 메쉬 트롤리 4단 화이트 (주)할메이드'
  • '아텍스 다용도 베란다벽선반 팬트리 세탁실 벽걸이 반달 화이트/봉스테인레스/올스테인레스 국내제작_MC 반달화이트 43cm_1단 1.2m 멸치쇼핑'
1.0
  • '쇼핑 바구니 마트 장바구니 플라스틱 시장 편의점 AA 미니 초록 쇼핑 바구니 왕대 초록 주식회사 오메가키친'
  • '[다이소]칸칸이수납바구니-1001900 (주)한웰이쇼핑'
  • '대나무 석작 한과바구니 대나무함 한과상자 폐백 떡바 타입 타입_사각 석작 - 소 이잡스2'
0.0
  • '[애구애구]강아지 애견 마네킹 인형 S/M/L 04_L 블랙시니어 신세계몰'
  • '매장용 목걸이 귀걸이 거치 마네킹 디스플레이 쥬얼리 14 소소한'
  • '상체마네킹 남성정장 디스플레이 마네킹 양복점 전신 드레스 스탠드 의류매장모델행거 Q 아띠쇼핑'
5.0
  • '맨손진공순삭압축팩 맨손압축팩 45x70 세인 클러스터'
  • '대형 입체 압축팩 이불 인형 보관 상품선택_중호세로형 행밤'
  • '맨손진공순삭압축팩 맨손압축팩 56x80 세인 클러스터'
8.0
  • '4개 택일 대형 중형 종이수납박스 리빙 대형 캣마스터'
  • '[펠로우즈] 뱅커스 베이직 / 프레스트 파일박스(2개입) 베이직 오피스디포 의왕군포점'
  • '펠로우즈 파일박스 Presto 블루 17243 2개 플렉스온컴퍼니'

Evaluation

Metrics

Label Metric
all 0.9374

Uses

Direct Use for Inference

First install the SetFit library:

pip install setfit

Then you can load this model and run inference.

from setfit import SetFitModel

# Download from the 🤗 Hub
model = SetFitModel.from_pretrained("mini1013/master_cate_lh14")
# Run inference
preds = model("고급 패브릭정리함 리빙박스 트윈커버 소형  기안79")

Training Details

Training Set Metrics

Training set Min Median Max
Word count 3 10.5244 22
Label Training Sample Count
0.0 50
1.0 50
2.0 50
3.0 50
4.0 50
5.0 50
6.0 50
7.0 50
8.0 50

Training Hyperparameters

  • batch_size: (512, 512)
  • num_epochs: (20, 20)
  • max_steps: -1
  • sampling_strategy: oversampling
  • num_iterations: 40
  • body_learning_rate: (2e-05, 2e-05)
  • head_learning_rate: 2e-05
  • loss: CosineSimilarityLoss
  • distance_metric: cosine_distance
  • margin: 0.25
  • end_to_end: False
  • use_amp: False
  • warmup_proportion: 0.1
  • seed: 42
  • eval_max_steps: -1
  • load_best_model_at_end: False

Training Results

Epoch Step Training Loss Validation Loss
0.0141 1 0.3887 -
0.7042 50 0.3275 -
1.4085 100 0.1223 -
2.1127 150 0.0307 -
2.8169 200 0.0273 -
3.5211 250 0.0253 -
4.2254 300 0.0097 -
4.9296 350 0.0156 -
5.6338 400 0.0156 -
6.3380 450 0.0175 -
7.0423 500 0.0136 -
7.7465 550 0.0117 -
8.4507 600 0.002 -
9.1549 650 0.0174 -
9.8592 700 0.0155 -
10.5634 750 0.0136 -
11.2676 800 0.0193 -
11.9718 850 0.0135 -
12.6761 900 0.0004 -
13.3803 950 0.0001 -
14.0845 1000 0.0001 -
14.7887 1050 0.0001 -
15.4930 1100 0.0 -
16.1972 1150 0.0 -
16.9014 1200 0.0 -
17.6056 1250 0.0 -
18.3099 1300 0.0 -
19.0141 1350 0.0 -
19.7183 1400 0.0 -

Framework Versions

  • Python: 3.10.12
  • SetFit: 1.1.0.dev0
  • Sentence Transformers: 3.1.1
  • Transformers: 4.46.1
  • PyTorch: 2.4.0+cu121
  • Datasets: 2.20.0
  • Tokenizers: 0.20.0

Citation

BibTeX

@article{https://doi.org/10.48550/arxiv.2209.11055,
    doi = {10.48550/ARXIV.2209.11055},
    url = {https://arxiv.org/abs/2209.11055},
    author = {Tunstall, Lewis and Reimers, Nils and Jo, Unso Eun Seo and Bates, Luke and Korat, Daniel and Wasserblat, Moshe and Pereg, Oren},
    keywords = {Computation and Language (cs.CL), FOS: Computer and information sciences, FOS: Computer and information sciences},
    title = {Efficient Few-Shot Learning Without Prompts},
    publisher = {arXiv},
    year = {2022},
    copyright = {Creative Commons Attribution 4.0 International}
}
Downloads last month
470
Safetensors
Model size
111M params
Tensor type
F32
·
Inference Examples
This model does not have enough activity to be deployed to Inference API (serverless) yet. Increase its social visibility and check back later, or deploy to Inference Endpoints (dedicated) instead.

Model tree for mini1013/master_cate_lh14

Base model

klue/roberta-base
Finetuned
(132)
this model

Evaluation results