SetFit with mini1013/master_domain

This is a SetFit model that can be used for Text Classification. This SetFit model uses mini1013/master_domain as the Sentence Transformer embedding model. A LogisticRegression instance is used for classification.

The model has been trained using an efficient few-shot learning technique that involves:

  1. Fine-tuning a Sentence Transformer with contrastive learning.
  2. Training a classification head with features from the fine-tuned Sentence Transformer.

Model Details

Model Description

Model Sources

Model Labels

Label Examples
1.0
  • '한진식품 호박 꿀맛나 쫀디기 100g 쫀드기튀김(버터구이오징어맛) (주)푸드원'
  • '추억의 불량식품 옛날 문방구 세계 과자 꾀돌이 25g 115_1IWE_오키오 망고 구미 80g 빅플랜터스'
  • '웰빙코리아 자색고구마칩 무설탕 2kg 대용량 업소용 웰빙코리아 자색고구마칩 2kg 오쎈'
15.0
  • '쁘띠첼 떠먹는 컵 과일젤리 밀감 포도 복숭아 파인애플 블루베리 딸기 화이트코코 210g 04.쁘띠첼 과일젤리포도 210G X 6EA 태산상사'
  • 'Jell-O Cook Serve 초콜릿 무지방 푸딩 파이 필링 믹스 3.3온스(6개들이 팩) 시이부동'
  • '일본 KALDI 칼디 안닌도후 행인두부 미니 215g 3개 세트 MARI COMMERCE'
11.0
  • '트윅스 48.5g 까까무까 주식회사'
  • '해태 자유시간 36g/초코바 롯데 초에너지바 40g 단비마켓'
  • '초코무초 27g 까까무까 주식회사'
8.0
  • '휴럼 아임요 빙수용 콩고물 600g 팥빙수재료 콩가루 인절미 (주)오케이푸드'
  • '빙그레 요맘때 요거트 아이스크림 딸기콘 24개입 요맘때 플레인콘 24개 (주)빙그레'
  • '더위사냥 15+15개 외 파워캡뽕따폴라포탱크보이 골라담기 더위사냥 액티브커피 15개_파워캡 레드피치 15개 (주)씨제이이엔엠'
3.0
  • '제주 산지직송 택배 국내산팥 오메기떡 맛집 40개 한성오메기떡 쑥찰떡 제외 혼합40개 한성오메기떡'
  • '매일우유 아이스 크림떡 2종 2Box 골라담기 우유크림/인절미크림 각 6개입 총 12개입 인절미 6개+6개 오씨홀딩스'
  • '매일우유 아이스 크림떡 2종 3Box 골라담기 우유크림/인절미크림 총 18개입 인절미 12개+우유 6개 오씨홀딩스'
5.0
  • '트루블루 프로폴리스 캔디 마누카허니 800g 코스트코 포유마트'
  • '카수가이 시오아메 (소금사탕) [140g] 주식회사 두원에프엔에스'
  • '코스트코 벨기안 커피사탕 1.5kg 트레핀 벨기에 커피캔디 트레핀 벨기안 커피사탕 1.5kg 하람전자'
7.0
  • '헤이씨리 무설탕 프로틴 시리얼 다이어트 단백질 그래놀라 오리지널 400g 오리지널 주식회사 제로식품'
  • '동서식품 포스트 그래놀라 카카오 호두 510g 포스트 현미 오트밀 300g 주식회사 경일종합식품 케이마트몰'
  • '[리치스] 동서식품 그래놀라 1kg (주) 천지물산'
13.0
  • '루빵 가벼운 미니 스틱치즈케익 5입 1+1 얼그레이 5입_얼그레이 5입 웅진유통'
  • '[빠당] 글루텐프리 무설탕 치즈케이크 플레인 블루베리콤포트 빠당'
  • '베키아에누보 레어 프로마쥬 케이크 380g 냉동케익 시그니엘유통'
4.0
  • '코스트코 커클랜드 블루베리 베이글 샌드위치 식빵 냉동 빵 6개입 x 2봉지 1. 오전 10시 이전 주문 당일 구매 발송_1-6. 베이글 어니언+플레인 (12개입) 세븐토이(Seven Toy)'
  • '밀도 담백식빵 480g 1개 [누텔라잼 15g 3개 ] 이스터에그'
  • '코스트코 커클랜드 블루베리 베이글 샌드위치 식빵 냉동 빵 6개입 x 2봉지 2. 목/금 주문 월요일 구매 발송_1-3. 베이글 플레인+플레인 (12개입) 세븐토이(Seven Toy)'
12.0
  • '모리나가 제과 하이츄 프리미엄 백도맛 35g x10개 MARI COMMERCE'
  • '새콤달콤 스틱 5가지맛 29g X 20개 (포도 딸기 레모네이드 복숭아 블루베리소다) 새콤달콤 스틱 5가지맛 25개 푸드매니저'
  • '맛고을 유가엿 4kgx1봉지 주식회사 윤건축'
9.0
  • '청우식품 참깨전병, 350g, 4개 알라이'
  • '수제 오꼬시 쌀강정 보리강정 대용량 3kg 5kg 벌크포장 쌀 보리강정 혼합 벌크포장3kg 주식회사 시즌잇'
  • '녹두떡 6종 세트 화과자 계화수 중국 녹두케이크 녹두쿠키 샌드 옛날식 간식 월병 전통 구성D 퍼트레이드'
14.0
  • '2023년 국산 팝콘옥수수 500g 팝콘용옥수수 소화농장'
  • '미원 맛소금팝콘 고소짭짤한 봉지스낵과자안주 55g x 4개 주식회사 빌드업커머스'
  • '해승 맛나콘 300g ③ 해승 누룽지뻥 190g 파인'
0.0
  • '[공유관] 국민 어포 빠사삭 80g x 10봉지 [공유관] 국민 어포 빠사삭 80g × 10봉지 공유관 국민 어포 빠사삭 80g x 10봉 브리드킴에스'
  • '[인천 ] 마마스초이스 맛있게 구운 오징어채 250g 맥주안주 건오징어 인천시 남동구 논현동_확인했습니다. 스타일바이맘'
  • '사세 치킨텐더 1kg 냉동 제이에스토어'
6.0
  • '롯데 칸쵸 54g 낱개 주식회사 에스에이치몰'
  • '마켓오 치즈톡 달콤치즈맛 봉지스낵 80g x 1개 동행리테일'
  • '건강한 쿠키 믹스 500g (버터+아몬드+초코) 선물 세트 간식 벌크 틴케이스 플레인(버터) 유동부치아바타 주식회사'
10.0
  • '탑푸르트 베트남 탑후르츠 망고젤리 320g X 2봉 권석인'
  • '(무)롤업달곰 딸기맛56gX5개 제이커머스'
  • '베베토 미니믹스 900g 1개 대용량 어린이 간식 젤리 900g 갓재컴퍼니'
2.0
  • '졸음번쩍껌 톡톡!87gx3개 외 3종 02. 졸음번쩍껌 트윈 리필 105g_03. 졸음번쩍껌 울트라파워 용기 80g_03. 졸음번쩍껌 울트라파워 용기 80g (주)푸드조이'
  • '롯데제과 아라비카커피 26g x15 (주)장고유통'
  • '롯데 스피아민트껌 26g x 90개입(1박스)/ 주식회사 더커피몰'

Evaluation

Metrics

Label Metric
all 0.7591

Uses

Direct Use for Inference

First install the SetFit library:

pip install setfit

Then you can load this model and run inference.

from setfit import SetFitModel

# Download from the 🤗 Hub
model = SetFitModel.from_pretrained("mini1013/master_cate_fd2")
# Run inference
preds = model("크라운 C콘칲 70g/콘칩/스낵 농심_농심 감튀 레드칠리맛 60g 텍사스유통")

Training Details

Training Set Metrics

Training set Min Median Max
Word count 3 9.9413 29
Label Training Sample Count
0.0 50
1.0 50
2.0 50
3.0 50
4.0 50
5.0 50
6.0 50
7.0 50
8.0 50
9.0 50
10.0 50
11.0 50
12.0 50
13.0 50
14.0 50
15.0 50

Training Hyperparameters

  • batch_size: (512, 512)
  • num_epochs: (20, 20)
  • max_steps: -1
  • sampling_strategy: oversampling
  • num_iterations: 40
  • body_learning_rate: (2e-05, 2e-05)
  • head_learning_rate: 2e-05
  • loss: CosineSimilarityLoss
  • distance_metric: cosine_distance
  • margin: 0.25
  • end_to_end: False
  • use_amp: False
  • warmup_proportion: 0.1
  • seed: 42
  • eval_max_steps: -1
  • load_best_model_at_end: False

Training Results

Epoch Step Training Loss Validation Loss
0.008 1 0.3892 -
0.4 50 0.3143 -
0.8 100 0.2068 -
1.2 150 0.0911 -
1.6 200 0.0471 -
2.0 250 0.0355 -
2.4 300 0.0285 -
2.8 350 0.0154 -
3.2 400 0.0138 -
3.6 450 0.0057 -
4.0 500 0.0105 -
4.4 550 0.0134 -
4.8 600 0.0075 -
5.2 650 0.0026 -
5.6 700 0.001 -
6.0 750 0.0003 -
6.4 800 0.0003 -
6.8 850 0.0003 -
7.2 900 0.0002 -
7.6 950 0.0002 -
8.0 1000 0.0003 -
8.4 1050 0.0001 -
8.8 1100 0.0001 -
9.2 1150 0.0001 -
9.6 1200 0.0001 -
10.0 1250 0.0002 -
10.4 1300 0.0001 -
10.8 1350 0.0001 -
11.2 1400 0.0001 -
11.6 1450 0.0001 -
12.0 1500 0.0001 -
12.4 1550 0.0001 -
12.8 1600 0.0001 -
13.2 1650 0.0001 -
13.6 1700 0.0001 -
14.0 1750 0.0005 -
14.4 1800 0.0001 -
14.8 1850 0.0001 -
15.2 1900 0.0001 -
15.6 1950 0.0001 -
16.0 2000 0.0001 -
16.4 2050 0.0001 -
16.8 2100 0.0001 -
17.2 2150 0.0001 -
17.6 2200 0.0001 -
18.0 2250 0.0001 -
18.4 2300 0.0001 -
18.8 2350 0.0001 -
19.2 2400 0.0001 -
19.6 2450 0.0001 -
20.0 2500 0.0 -

Framework Versions

  • Python: 3.10.12
  • SetFit: 1.1.0.dev0
  • Sentence Transformers: 3.1.1
  • Transformers: 4.46.1
  • PyTorch: 2.4.0+cu121
  • Datasets: 2.20.0
  • Tokenizers: 0.20.0

Citation

BibTeX

@article{https://doi.org/10.48550/arxiv.2209.11055,
    doi = {10.48550/ARXIV.2209.11055},
    url = {https://arxiv.org/abs/2209.11055},
    author = {Tunstall, Lewis and Reimers, Nils and Jo, Unso Eun Seo and Bates, Luke and Korat, Daniel and Wasserblat, Moshe and Pereg, Oren},
    keywords = {Computation and Language (cs.CL), FOS: Computer and information sciences, FOS: Computer and information sciences},
    title = {Efficient Few-Shot Learning Without Prompts},
    publisher = {arXiv},
    year = {2022},
    copyright = {Creative Commons Attribution 4.0 International}
}
Downloads last month
486
Safetensors
Model size
111M params
Tensor type
F32
·
Inference Providers NEW
This model is not currently available via any of the supported third-party Inference Providers, and the model is not deployed on the HF Inference API.

Model tree for mini1013/master_cate_fd2

Base model

klue/roberta-base
Finetuned
(213)
this model

Evaluation results