Update model on 2024-08-16 06:06:57
Browse files- README.md +51 -43
- added_tokens.json +0 -0
- config.json +2 -2
- model.safetensors +2 -2
- tokenizer.json +0 -0
- tokenizer_config.json +0 -0
README.md
CHANGED
@@ -1,5 +1,5 @@
|
|
1 |
---
|
2 |
-
base_model:
|
3 |
datasets: []
|
4 |
language: []
|
5 |
library_name: sentence-transformers
|
@@ -9,45 +9,46 @@ tags:
|
|
9 |
- sentence-similarity
|
10 |
- feature-extraction
|
11 |
- generated_from_trainer
|
12 |
-
- dataset_size:
|
13 |
- loss:MultipleNegativesRankingLoss
|
14 |
widget:
|
15 |
-
- source_sentence:
|
16 |
sentences:
|
17 |
-
-
|
18 |
-
-
|
19 |
-
-
|
20 |
-
- source_sentence:
|
|
|
21 |
sentences:
|
22 |
-
-
|
23 |
-
-
|
24 |
-
-
|
25 |
-
- source_sentence:
|
26 |
sentences:
|
27 |
-
-
|
28 |
-
-
|
29 |
-
-
|
30 |
-
- source_sentence:
|
31 |
sentences:
|
32 |
-
-
|
33 |
-
-
|
34 |
-
-
|
35 |
-
- source_sentence:
|
36 |
sentences:
|
37 |
-
-
|
38 |
-
-
|
39 |
-
-
|
40 |
---
|
41 |
|
42 |
-
# SentenceTransformer based on
|
43 |
|
44 |
-
This is a [sentence-transformers](https://www.SBERT.net) model finetuned from [
|
45 |
|
46 |
## Model Details
|
47 |
|
48 |
### Model Description
|
49 |
- **Model Type:** Sentence Transformer
|
50 |
-
- **Base model:** [
|
51 |
- **Maximum Sequence Length:** 128 tokens
|
52 |
- **Output Dimensionality:** 768 tokens
|
53 |
- **Similarity Function:** Cosine Similarity
|
@@ -88,9 +89,9 @@ from sentence_transformers import SentenceTransformer
|
|
88 |
model = SentenceTransformer("jh8416/my_ewha_model_2024_1")
|
89 |
# Run inference
|
90 |
sentences = [
|
91 |
-
'
|
92 |
-
'
|
93 |
-
'
|
94 |
]
|
95 |
embeddings = model.encode(sentences)
|
96 |
print(embeddings.shape)
|
@@ -145,19 +146,19 @@ You can finetune this model on your own dataset.
|
|
145 |
#### Unnamed Dataset
|
146 |
|
147 |
|
148 |
-
* Size:
|
149 |
* Columns: <code>sentence_0</code> and <code>sentence_1</code>
|
150 |
* Approximate statistics based on the first 1000 samples:
|
151 |
-
| | sentence_0 | sentence_1
|
152 |
-
|
153 |
-
| type | string | string
|
154 |
-
| details | <ul><li>min:
|
155 |
* Samples:
|
156 |
-
| sentence_0
|
157 |
-
|
158 |
-
| <code
|
159 |
-
| <code
|
160 |
-
| <code
|
161 |
* Loss: [<code>MultipleNegativesRankingLoss</code>](https://sbert.net/docs/package_reference/sentence_transformer/losses.html#multiplenegativesrankingloss) with these parameters:
|
162 |
```json
|
163 |
{
|
@@ -294,11 +295,18 @@ You can finetune this model on your own dataset.
|
|
294 |
### Training Logs
|
295 |
| Epoch | Step | Training Loss |
|
296 |
|:------:|:----:|:-------------:|
|
297 |
-
| 0.
|
298 |
-
| 0.
|
299 |
-
| 0.
|
300 |
-
| 0.
|
301 |
-
| 0.
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
302 |
|
303 |
|
304 |
### Framework Versions
|
|
|
1 |
---
|
2 |
+
base_model: jh8416/my_ewha_model_2024_1
|
3 |
datasets: []
|
4 |
language: []
|
5 |
library_name: sentence-transformers
|
|
|
9 |
- sentence-similarity
|
10 |
- feature-extraction
|
11 |
- generated_from_trainer
|
12 |
+
- dataset_size:97764
|
13 |
- loss:MultipleNegativesRankingLoss
|
14 |
widget:
|
15 |
+
- source_sentence: 미디어 언어 중간시험 중간시험 강평 제부
|
16 |
sentences:
|
17 |
+
- 적분의 정의교육관B동 호 교시이 강의에서는 리만적분의 정의와 유용한 여러 가지 적분법
|
18 |
+
- 창립 주년 기념일 성격심리학 입문 제부 성향적 영역 제부 성향적 영역
|
19 |
+
- career paths for the DIS graduates Ewha cyber campus How to
|
20 |
+
- source_sentence: hierarchies through relationality in the ethics of care International
|
21 |
+
Journal of
|
22 |
sentences:
|
23 |
+
- economy culture and law to ethics
|
24 |
+
- Instructor Bae Movie WIT Values ethics and advocacy Lecture group discussion
|
25 |
+
- 깊이 이해할 수 있는 지름길일 것입니다
|
26 |
+
- source_sentence: 주차별 강의 내용은 사정에 따라 변동될
|
27 |
sentences:
|
28 |
+
- 조순경 여성직종의 외주화와 간접차별 KTX 승무원 간접고용을 통해 본
|
29 |
+
- 욕구를 만족시키기 위해 기본적인 마케팅전략의 개념과 이론을 학습하고 여러 성공적인 마케팅전략의
|
30 |
+
- 속 리더십 성공사례 연구 내용 정신전력교육구술평가 임관종합평가 대비 정신전력 교육 조직속에서
|
31 |
+
- source_sentence: 상형미를 기반으로 하는 조형미를 이해하여 궁극적으로는 서화동원을 이해하고 동양예술에서 추구한 획과
|
32 |
sentences:
|
33 |
+
- 장흔들리는 마음 수업자료스타트업얼라이언스가이드북시리즈초보창업자를위한 HR가이드북 부 장초기 단계 재무관리 핵심 공략 장초기
|
34 |
+
- 중간시험 리만적분 연습문제
|
35 |
+
- 같은 다층적이며 종합적인 접근을 통해 궁극적으로는 생태계가 유지되고 작동하는 원리 그리고
|
36 |
+
- source_sentence: 제작 과정 이해 및 실습 석고 몰드 캐스팅 기법을 이용한 개별
|
37 |
sentences:
|
38 |
+
- 선거 Mould 제작 Slip Casting 석고원형 제작 원형완성 및 검사 Project
|
39 |
+
- 역사적 고찰 세기 교수법 초급 피아노 교수법 기초 및 유아과정 중급
|
40 |
+
- 발전과제 학교문화와 풍토 주교재 장 학교문화의 개념 및 특징 조직문화 이론Ouchi의
|
41 |
---
|
42 |
|
43 |
+
# SentenceTransformer based on jh8416/my_ewha_model_2024_1
|
44 |
|
45 |
+
This is a [sentence-transformers](https://www.SBERT.net) model finetuned from [jh8416/my_ewha_model_2024_1](https://huggingface.co/jh8416/my_ewha_model_2024_1). It maps sentences & paragraphs to a 768-dimensional dense vector space and can be used for semantic textual similarity, semantic search, paraphrase mining, text classification, clustering, and more.
|
46 |
|
47 |
## Model Details
|
48 |
|
49 |
### Model Description
|
50 |
- **Model Type:** Sentence Transformer
|
51 |
+
- **Base model:** [jh8416/my_ewha_model_2024_1](https://huggingface.co/jh8416/my_ewha_model_2024_1) <!-- at revision b97ea2a0717427f085226fd9284f2d5b4a7c1b8c -->
|
52 |
- **Maximum Sequence Length:** 128 tokens
|
53 |
- **Output Dimensionality:** 768 tokens
|
54 |
- **Similarity Function:** Cosine Similarity
|
|
|
89 |
model = SentenceTransformer("jh8416/my_ewha_model_2024_1")
|
90 |
# Run inference
|
91 |
sentences = [
|
92 |
+
'제작 과정 이해 및 실습 석고 몰드 캐스팅 기법을 이용한 개별',
|
93 |
+
'선거 Mould 제작 Slip Casting 석고원형 제작 원형완성 및 검사 Project',
|
94 |
+
'발전과제 학교문화와 풍토 주교재 장 학교문화의 개념 및 특징 조직문화 이론Ouchi의',
|
95 |
]
|
96 |
embeddings = model.encode(sentences)
|
97 |
print(embeddings.shape)
|
|
|
146 |
#### Unnamed Dataset
|
147 |
|
148 |
|
149 |
+
* Size: 97,764 training samples
|
150 |
* Columns: <code>sentence_0</code> and <code>sentence_1</code>
|
151 |
* Approximate statistics based on the first 1000 samples:
|
152 |
+
| | sentence_0 | sentence_1 |
|
153 |
+
|:--------|:----------------------------------------------------------------------------------|:----------------------------------------------------------------------------------|
|
154 |
+
| type | string | string |
|
155 |
+
| details | <ul><li>min: 6 tokens</li><li>mean: 17.88 tokens</li><li>max: 30 tokens</li></ul> | <ul><li>min: 3 tokens</li><li>mean: 18.09 tokens</li><li>max: 41 tokens</li></ul> |
|
156 |
* Samples:
|
157 |
+
| sentence_0 | sentence_1 |
|
158 |
+
|:------------------------------------------------------|:-------------------------------------------------------------|
|
159 |
+
| <code>자신을 닫아놓으면서도 다른 한 편으론 보석처럼 반짝이는 돌은 매력이 있다</code> | <code>작품의 용도 설정 보석함 필구함 기타 IV</code> |
|
160 |
+
| <code>자신을 닫아놓으면서도 다른 한 편으론 보석처럼 반��이는 돌은 매력이 있다</code> | <code>발표 및 제출인쇄물A포맷 도안밑그림 이미지 크기보석함과 기타 함의 크기를 기준으로 함</code> |
|
161 |
+
| <code>자신을 닫아놓으면서도 다른 한 편으론 보석처럼 반짝이는 돌은 매력이 있다</code> | <code>밑그림에 채색 및 기법 표시 보석함 크기외경 xx</code> |
|
162 |
* Loss: [<code>MultipleNegativesRankingLoss</code>](https://sbert.net/docs/package_reference/sentence_transformer/losses.html#multiplenegativesrankingloss) with these parameters:
|
163 |
```json
|
164 |
{
|
|
|
295 |
### Training Logs
|
296 |
| Epoch | Step | Training Loss |
|
297 |
|:------:|:----:|:-------------:|
|
298 |
+
| 0.0818 | 500 | 1.0712 |
|
299 |
+
| 0.1636 | 1000 | 0.9295 |
|
300 |
+
| 0.2455 | 1500 | 0.8423 |
|
301 |
+
| 0.3273 | 2000 | 0.8157 |
|
302 |
+
| 0.4091 | 2500 | 0.794 |
|
303 |
+
| 0.4909 | 3000 | 0.7058 |
|
304 |
+
| 0.5727 | 3500 | 0.6726 |
|
305 |
+
| 0.6546 | 4000 | 0.6664 |
|
306 |
+
| 0.7364 | 4500 | 0.6302 |
|
307 |
+
| 0.8182 | 5000 | 0.6029 |
|
308 |
+
| 0.9000 | 5500 | 0.5936 |
|
309 |
+
| 0.9818 | 6000 | 0.5873 |
|
310 |
|
311 |
|
312 |
### Framework Versions
|
added_tokens.json
CHANGED
The diff for this file is too large to render.
See raw diff
|
|
config.json
CHANGED
@@ -1,5 +1,5 @@
|
|
1 |
{
|
2 |
-
"_name_or_path": "
|
3 |
"architectures": [
|
4 |
"RobertaModel"
|
5 |
],
|
@@ -25,5 +25,5 @@
|
|
25 |
"transformers_version": "4.43.3",
|
26 |
"type_vocab_size": 1,
|
27 |
"use_cache": true,
|
28 |
-
"vocab_size":
|
29 |
}
|
|
|
1 |
{
|
2 |
+
"_name_or_path": "jh8416/my_ewha_model_2024_1",
|
3 |
"architectures": [
|
4 |
"RobertaModel"
|
5 |
],
|
|
|
25 |
"transformers_version": "4.43.3",
|
26 |
"type_vocab_size": 1,
|
27 |
"use_cache": true,
|
28 |
+
"vocab_size": 42735
|
29 |
}
|
model.safetensors
CHANGED
@@ -1,3 +1,3 @@
|
|
1 |
version https://git-lfs.github.com/spec/v1
|
2 |
-
oid sha256:
|
3 |
-
size
|
|
|
1 |
version https://git-lfs.github.com/spec/v1
|
2 |
+
oid sha256:78ce706e526ed64fc91e01e555ec972794c13c9db66023a1c6d80a0d69d1cabe
|
3 |
+
size 475472744
|
tokenizer.json
CHANGED
The diff for this file is too large to render.
See raw diff
|
|
tokenizer_config.json
CHANGED
The diff for this file is too large to render.
See raw diff
|
|