SentenceTransformer based on semin-pk/klue-roberta-base-klue-sts
This is a sentence-transformers model finetuned from semin-pk/klue-roberta-base-klue-sts. It maps sentences & paragraphs to a 768-dimensional dense vector space and can be used for semantic textual similarity, semantic search, paraphrase mining, text classification, clustering, and more.
Model Details
Model Description
- Model Type: Sentence Transformer
- Base model: semin-pk/klue-roberta-base-klue-sts
- Maximum Sequence Length: 512 tokens
- Output Dimensionality: 768 dimensions
- Similarity Function: Cosine Similarity
Model Sources
- Documentation: Sentence Transformers Documentation
- Repository: Sentence Transformers on GitHub
- Hugging Face: Sentence Transformers on Hugging Face
Full Model Architecture
SentenceTransformer(
(0): Transformer({'max_seq_length': 512, 'do_lower_case': False}) with Transformer model: RobertaModel
(1): Pooling({'word_embedding_dimension': 768, 'pooling_mode_cls_token': False, 'pooling_mode_mean_tokens': True, 'pooling_mode_max_tokens': False, 'pooling_mode_mean_sqrt_len_tokens': False, 'pooling_mode_weightedmean_tokens': False, 'pooling_mode_lasttoken': False, 'include_prompt': True})
)
Usage
Direct Usage (Sentence Transformers)
First install the Sentence Transformers library:
pip install -U sentence-transformers
Then you can load this model and run inference.
from sentence_transformers import SentenceTransformer
# Download from the 🤗 Hub
model = SentenceTransformer("sentence_transformers_model_id")
# Run inference
sentences = [
'요시다 성을 건축한 인물이 승리한 전쟁은 무엇인가요?',
'1493년 하이노하라 전투에서 승리한 마키노 시게토키는 도요가와 강의 동쪽으로 건너가, 니렌기 성의 서쪽으로 1km 반 정도 떨어진 곳에 1505년 이마하시 성(今橋城, 후에 요시다 성)을 쌓았다.\n\n그러나 이것은 도다 씨와 니렌기 성에 있어서 보면 우려되는 사태이다. 아쓰미 군(도요가와 강, 아사쿠라 강 남안)의 완전한 지배를 꾀한 도다 씨에게는 인접한 군인 호이 군으로부터 마키노 씨가, 짐짓 도요가와 강을 넘어서까지 축성한 이마하시 성의 존재는 눈에 거슬릴 수밖에 없었다. 원래 이마하시 성의 오테 문은 축성 때에는 동쪽을 향하게 되어 있었다. 즉, 동에 있던 니렌기 성에의 대항을 의도한 성채인 것은 명백했다.\n\n같은 아사쿠라 강 남쪽에 가까이 있지만, 북의 아사쿠라 강 방면으로부터 니렌기 성을 본다면 분명하게 작은 산이며 이 근처에서 가장 높은 지점인 것에 대해서, 이마하시 성은 도요가와 강과 아사쿠라 강의 합류 지점이지만, 서쪽에 대해 약간 높은 지점인 남과 동에 대해서는 완전한 평성이 되었다. 이후 도다 씨는 이마하시 성 공략에 힘을 쏟기 시작했다.\n\n형태가 다른 성의 각각의 지배자인 니렌기 성의 도다 씨와, 이마하시 성의 마키노 씨는 축성의 다음 해인 1506년에 격돌하여 마키노 시게토키가 전사했다. 그러나 이것은 양 가문에 의한 거듭되는 항쟁의 시작에 지나지 않고, 어지럽게 바뀌는 지배권의 쟁탈전으로 대립은 깊어졌다. 이윽고 여기에 서 미카와의 마쓰다이라 씨도 가세하여 삼파전이 된 이마하시 성 쟁탈의 항쟁은 치열함이 극에 달했다. 그것은 요시다 성으로 개명한 후에도 계속 된다.\n\n그 요시다 성 쟁탈전이 잠잠하게 된 것은 이마가와 요시모토가 미카와 국의 본격적인 지배에 나섰을 무렵이었다. 요시다 성을 손에 넣은 이마가와 씨는, 성주 대리를 파견해 미카와 지배의 거점으로 정했다. 그렇지만 1560년 음력 5월의 오케하자마 전투에서 요시모토가 전사함에 따라, 이마가와 가문이 세퇴하기 시작한다.\n\n그 무렵 요시다 성주 대리로서 자리잡고 있던 오하라 스케요시(大原資良)와 모의한 니렌기 성주 도다 시게사다(戸田重貞)는 1564년에 요시다 성으로부터 인질이 되어 있던 어머니의 반환에 성공해 도쿠가와 이에야스의 진영으로 전속했다. 이 때문에 니렌기 성(도쿠가와 진영의 도다 씨)과 요시다 성(이마가와 씨)는 다시 적대관계에 빠졌다.',
"초기 포르투갈 무역의 특징은 국왕 소유의 선박으로 국왕의 상품을 거래하고 이익 역시 국왕에게 돌아가는 방식이었다. 상인과 선원들은 임금을 받는 고용인이었다. 물론 이런 원칙하에 개인도 화물 거래가 가능하였으므로 국가주의 방식과 민간교역이 병행되었다고 할 수 있겠다. 이런 현상은 16세기 중반부터 왕실 주도에서 귀족 주도로 사업이 넘어가기 시작했다. 인도양에서 수익을 올리는 또 다른 방법은 통행료를 징수하는 것이었다. 무력을 동원하여 주요 길목을 지키면서 항로를 지나는 선박에 안전통행증을 발급하였다. 안전 통행증 발급은 1502년에 처음 시작되어 점차 확대되었다.\n\n인도양에서 활동하는 상인들이 안전 통행증(카르타즈)을 구매한 것은 힘의 논리에 굴복한 측면도 없지 않으나 이보다는 경제적인 실익이 더 컸기 때문이다. 통행증을 소지한 배는 포르투칼 항구에서 통상적인 6퍼센트 보다 낮은 3.5퍼센트의 관세를 적용받았으며 상선들이 직접 무장하는 비용보다는 경제적이었다. 또한 1434년에 공포된 '무역 금지령' 이후 사무역에 종사하던 많은 중국 상인들은 통행증을 구입하면 자신들의 배가 공식적으로 포르투갈의 보호를 받게 되므로 이를 통해 금지령을 피해가는 방편으로 삼았다.",
]
embeddings = model.encode(sentences)
print(embeddings.shape)
# [3, 768]
# Get the similarity scores for the embeddings
similarities = model.similarity(embeddings, embeddings)
print(similarities.shape)
# [3, 3]
Evaluation
Metrics
Semantic Similarity
- Evaluated with
EmbeddingSimilarityEvaluator
Metric | Value |
---|---|
pearson_cosine | 0.8021 |
spearman_cosine | 0.8141 |
Training Details
Training Dataset
Unnamed Dataset
- Size: 17,552 training samples
- Columns:
sentence_0
andsentence_1
- Approximate statistics based on the first 1000 samples:
sentence_0 sentence_1 type string string details - min: 8 tokens
- mean: 17.91 tokens
- max: 37 tokens
- min: 250 tokens
- mean: 439.45 tokens
- max: 512 tokens
- Samples:
sentence_0 sentence_1 취업준비생에게 월세를 대출해주는 상품은?
정부가 오는 27일부터 국민주택기금을 재원으로 운영하는 서민 주택마련·전월세 대출 금리를 연 0.2
0.5%포인트 내리기로 했다. 전세금 반환 보증 수수료도 기존보다 25% 정도 떨어뜨릴 예정이다.국토교통부는 이 같은 내용을 담은 ‘서민 주거비 부담 완화를 위한 보완 방안’을 6일 발표했다. 먼저 서민층을 대상으로 전세자금을 지원하는 버팀목 전세대출 금리는 0.2%포인트 낮아진다. 이에 따라 소득과 보증금 액수에 따라 현재 연 1.73.3% 수준인 대출금리가 연 1.53.1%로 떨어진다. 신혼부부의 경우 지원 대상 소득 상한을 부부합산 5500만원 이하에서 6000만원 이하로 올리는 등 지원 대상도 확대하기로 했다. 서민 주택구입자금 대출 상품인 디딤돌 대출 금리도 연 0.3%포인트 내린 연 2.33.1% 수준으로 조정된다.유일호 국토부 장관은 “주택시장 구조가 전세에서 월세 위주로 급변하면서 주거 안정성을 위협받는 서민 가구 지원에 초점을 맞췄다”고 설명했다. 이를 위해 전세금이 집값에 육박하는 ‘깡통전세’로부터 보증금을 지키기 위한 임차보증금 반환보증 수수료도 인하할 방침이다. 다음달부터 대한주택보증의 임차보증금 반환보증의 보증료가 연간 25% 정도 내려간다. 대한주택보증의 보증으로 수도권에서 보증금 4억원 이하(지방 3억원) 세입자들이 전세금 반환을 보증받을 수 있는 상품이다. 보증료는 개인 임차인의 경우 현재 연 0.197%에서 0.15%로, 서민·취약계층은 연 0.158%에서 0.09%로 인하된다. 보증금 4억원인 경우를 가정하면 보증료가 연 16만9200원만큼 저렴해진다. 계약 기간인 2년으로 계산하면 33만8400원의 비용을 아낄 수 있다.서민·취약계층으로 인정받을 수 있는 계층에 신혼부부, 한부모 가정, 다문화 가정도 추가했다. 서민층 소득 기준도 부부합산 연소득 2500만원 이하에서 4000만원 이하로 확대하기로 했다.보증 가입 대상 아파트도 현재 집값 대비 전셋값 비율(담보인정비율·LTV) 90% 이하에서 100% 이하로 넓어진다. 앞으...아베가 3차 내각을 시작하는 날짜는?
아베 신조(安倍晋三) 일본 총리(사진)는 15일 “경제를 최우선으로 일본 전국에 경기 회복의 훈풍이 불도록 하겠다”고 말했다.아베 총리는 이날 중의원 총선 승리 관련 기자회견에서 “아베노믹스(아베 총리의 경제정책)를 더욱 강력히 추진하라는 국민의 소리를 듣고 있다”며 이같이 말했다. 이와 관련, 아베 총리는 연내 엔저(低)대책 등 내수 경기부양책을 내놓을 예정이다. 엔저대책은 수입 원자재 조달 부담이 높아진 중소기업과 생활비가 급등한 서민에 초점이 맞춰질 전망이다. 또 법인세 인하를 골자로 하는 세제개편안을 마련하고 내년 초에는 2014회계연도(2014년 4월~2015년 3월) 추가경정예산과 내년 예산안을 신속히 확정할 방침이다. 16일 열리는 노사정회의에서는 “재계에 내년 임금 인상을 요청할 것”이라고 말했다.아베 총리는 국정 운영에 대해 “농업, 의료, 에너지 분야에서 과감한 규제 개혁을 단행하고 성장전략을 적극 추진해 나갈 것”이라며 아베노믹스의 세 번째 화살인 ‘성장전략’에 대한 강한 의지를 드러냈다.신속한 정책 집행을 위해 지금의 내각과 당 간부진을 유임할 방침을 밝혔다. 아베 총리는 “내년 정기국회 등 향후 일정을 생각하면 시간적 여유가 없다”며 “이런 관점에서 (내각은) 신속하게 결정하겠다”고 말했다. 아베 총리는 지난 9월 2차 내각에서 처음으로 개각을 단행했다. 한편 아베 총리는 연립 여당인 공명당의 야마구치 나쓰오 대표를 만나 오는 24일 총리 지명선거를 할 특별국회를 소집하고, 이날 중 3차 아베 내각을 출범시키기로 했다.
SK플래닛의 올 상반기 모바일 상품권 미환급금은?
직장인 김성민 씨(30)는 지난 5월 패밀리 레스토랑 빕스의 ‘얌스톤안심+샐러드 기프티콘(주말용 2인세트)’을 받았다. 직장 동료가 생일을 맞아 보내준 선물이었다. 하지만 지난달 빕스 매장을 찾아 식사를 마친 뒤 기프티콘으로 계산을 하려던 김씨는 깜짝 놀랐다. 유효기간(60일)이 지나 쓸 수가 없게 돼서다. 유효기간을 연장할 수 있다는 식당 직원의 설명을 듣고 고객센터로 문의해 봤지만, 이미 연장 가능한 기한도 지나 있었다.○기본 사용기간 불과 60일미래창조과학부가 4일 황주홍 새정치민주연합 의원에게 제출한 ‘이동통신 3사 모바일 상품권 미환불 현황’ 자료에 따르면 김씨처럼 모바일 상품권을 받아 사용하지 못하고 되돌려 받지도 못한 금액이 올 상반기에만 42억3680만원에 달한 것으로 나타났다.업체별로는 SK플래닛이 35억원으로 가장 많았다. KT엠하우스가 7억3000만원, LG유플러스는 680만원이었다. 모바일 상품권 주요 사업자인 이들 3개사가 2012년부터 올 상반기까지 판매한 모바일 상품권 중 미환급액은 195억3580만원으로 집계됐다. 같은 기간 전체 매출액 3693억8000만원의 5.2%에 해당한다. 돌려주지 않은 돈은 모두 회사가 낙전수입으로 챙겼다.미래부에 따르면 모바일 상품권 시장 규모는 서비스가 시작된 2008년 32억원에서, 지난해 1413억원으로 5년 새 44배 증가했다. 이에 비례해 소비자들에게 돌려주지 않은 미환급액도 많아지고 있다. 올 상반기 SK플래닛의 모바일 상품권 미환급률은 5.4%이며 LG유플러스는 13.5%나 됐다.사용하지 못하는 모바일 상품권이 많은 이유는 기본 사용기간이 60일에 불과하기 때문이다. 종이 형태의 일반 상품권 유효기간이 대체로 5년인 것과 비교하면 상당히 짧다. 제값을 지급하고 구입했음에도 불구하고 일부 가맹점에서는 △자체 할인행사 적용 제외 △포인트 적립 불가 △현금영수증 발급 거부 등의 제약을 두는 경우도 많다.황 의원은 “소비자의 당연한 권리인 만큼 사용기간을 합리적 수준으로 늘려야 한다”며 “모바일을 ...
- Loss:
MultipleNegativesRankingLoss
with these parameters:{ "scale": 20.0, "similarity_fct": "cos_sim" }
Training Hyperparameters
Non-Default Hyperparameters
per_device_train_batch_size
: 16per_device_eval_batch_size
: 16num_train_epochs
: 1batch_sampler
: no_duplicatesmulti_dataset_batch_sampler
: round_robin
All Hyperparameters
Click to expand
overwrite_output_dir
: Falsedo_predict
: Falseeval_strategy
: noprediction_loss_only
: Trueper_device_train_batch_size
: 16per_device_eval_batch_size
: 16per_gpu_train_batch_size
: Noneper_gpu_eval_batch_size
: Nonegradient_accumulation_steps
: 1eval_accumulation_steps
: Nonetorch_empty_cache_steps
: Nonelearning_rate
: 5e-05weight_decay
: 0.0adam_beta1
: 0.9adam_beta2
: 0.999adam_epsilon
: 1e-08max_grad_norm
: 1num_train_epochs
: 1max_steps
: -1lr_scheduler_type
: linearlr_scheduler_kwargs
: {}warmup_ratio
: 0.0warmup_steps
: 0log_level
: passivelog_level_replica
: warninglog_on_each_node
: Truelogging_nan_inf_filter
: Truesave_safetensors
: Truesave_on_each_node
: Falsesave_only_model
: Falserestore_callback_states_from_checkpoint
: Falseno_cuda
: Falseuse_cpu
: Falseuse_mps_device
: Falseseed
: 42data_seed
: Nonejit_mode_eval
: Falseuse_ipex
: Falsebf16
: Falsefp16
: Falsefp16_opt_level
: O1half_precision_backend
: autobf16_full_eval
: Falsefp16_full_eval
: Falsetf32
: Nonelocal_rank
: 0ddp_backend
: Nonetpu_num_cores
: Nonetpu_metrics_debug
: Falsedebug
: []dataloader_drop_last
: Falsedataloader_num_workers
: 0dataloader_prefetch_factor
: Nonepast_index
: -1disable_tqdm
: Falseremove_unused_columns
: Truelabel_names
: Noneload_best_model_at_end
: Falseignore_data_skip
: Falsefsdp
: []fsdp_min_num_params
: 0fsdp_config
: {'min_num_params': 0, 'xla': False, 'xla_fsdp_v2': False, 'xla_fsdp_grad_ckpt': False}fsdp_transformer_layer_cls_to_wrap
: Noneaccelerator_config
: {'split_batches': False, 'dispatch_batches': None, 'even_batches': True, 'use_seedable_sampler': True, 'non_blocking': False, 'gradient_accumulation_kwargs': None}deepspeed
: Nonelabel_smoothing_factor
: 0.0optim
: adamw_torchoptim_args
: Noneadafactor
: Falsegroup_by_length
: Falselength_column_name
: lengthddp_find_unused_parameters
: Noneddp_bucket_cap_mb
: Noneddp_broadcast_buffers
: Falsedataloader_pin_memory
: Truedataloader_persistent_workers
: Falseskip_memory_metrics
: Trueuse_legacy_prediction_loop
: Falsepush_to_hub
: Falseresume_from_checkpoint
: Nonehub_model_id
: Nonehub_strategy
: every_savehub_private_repo
: Nonehub_always_push
: Falsegradient_checkpointing
: Falsegradient_checkpointing_kwargs
: Noneinclude_inputs_for_metrics
: Falseinclude_for_metrics
: []eval_do_concat_batches
: Truefp16_backend
: autopush_to_hub_model_id
: Nonepush_to_hub_organization
: Nonemp_parameters
:auto_find_batch_size
: Falsefull_determinism
: Falsetorchdynamo
: Noneray_scope
: lastddp_timeout
: 1800torch_compile
: Falsetorch_compile_backend
: Nonetorch_compile_mode
: Nonedispatch_batches
: Nonesplit_batches
: Noneinclude_tokens_per_second
: Falseinclude_num_input_tokens_seen
: Falseneftune_noise_alpha
: Noneoptim_target_modules
: Nonebatch_eval_metrics
: Falseeval_on_start
: Falseuse_liger_kernel
: Falseeval_use_gather_object
: Falseaverage_tokens_across_devices
: Falseprompts
: Nonebatch_sampler
: no_duplicatesmulti_dataset_batch_sampler
: round_robin
Training Logs
Epoch | Step | Training Loss | spearman_cosine |
---|---|---|---|
-1 | -1 | - | 0.8141 |
0.4558 | 500 | 0.1201 | - |
0.9116 | 1000 | 0.0946 | - |
Framework Versions
- Python: 3.11.11
- Sentence Transformers: 3.4.1
- Transformers: 4.48.3
- PyTorch: 2.5.1+cu124
- Accelerate: 1.3.0
- Datasets: 3.3.2
- Tokenizers: 0.21.0
Citation
BibTeX
Sentence Transformers
@inproceedings{reimers-2019-sentence-bert,
title = "Sentence-BERT: Sentence Embeddings using Siamese BERT-Networks",
author = "Reimers, Nils and Gurevych, Iryna",
booktitle = "Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing",
month = "11",
year = "2019",
publisher = "Association for Computational Linguistics",
url = "https://arxiv.org/abs/1908.10084",
}
MultipleNegativesRankingLoss
@misc{henderson2017efficient,
title={Efficient Natural Language Response Suggestion for Smart Reply},
author={Matthew Henderson and Rami Al-Rfou and Brian Strope and Yun-hsuan Sung and Laszlo Lukacs and Ruiqi Guo and Sanjiv Kumar and Balint Miklos and Ray Kurzweil},
year={2017},
eprint={1705.00652},
archivePrefix={arXiv},
primaryClass={cs.CL}
}
- Downloads last month
- 5
Inference Providers
NEW
This model is not currently available via any of the supported Inference Providers.
Model tree for semin-pk/klue-roberta-base-klue-sts-mrc
Evaluation results
- Pearson Cosine on Unknownself-reported0.802
- Spearman Cosine on Unknownself-reported0.814