jh8416 commited on
Commit
8d524f7
1 Parent(s): b97ea2a

Update model on 2024-08-16 06:06:57

Browse files
Files changed (6) hide show
  1. README.md +51 -43
  2. added_tokens.json +0 -0
  3. config.json +2 -2
  4. model.safetensors +2 -2
  5. tokenizer.json +0 -0
  6. tokenizer_config.json +0 -0
README.md CHANGED
@@ -1,5 +1,5 @@
1
  ---
2
- base_model: jhgan/ko-sroberta-multitask
3
  datasets: []
4
  language: []
5
  library_name: sentence-transformers
@@ -9,45 +9,46 @@ tags:
9
  - sentence-similarity
10
  - feature-extraction
11
  - generated_from_trainer
12
- - dataset_size:43333
13
  - loss:MultipleNegativesRankingLoss
14
  widget:
15
- - source_sentence: 교양과목 중간고사 기간 우리 수업 정상 녹화 수업 온라인 강의 게이미피케이션
16
  sentences:
17
- - 기술의 진보 score following live electronics 컴퓨터음악
18
- - Analysis Site Survey 교양과목 중간시험 정상 수업 Programming Program Summary Program
19
- - low anterior resection유인물 동영상수업PPT 음성해설 검사결과보고서 전사 영상의학검사결과보고서 abdpelvic CT
20
- - source_sentence: 파이썬 내장 자료구조와 라이브러리 학습 파이썬의 대표적인
 
21
  sentences:
22
- - 개념들 평등 자유 국가 정의 계약 등 을 중심으로 진행되기 보다는
23
- - 배열의 사칙연산 내장 수학함수의 사용법 조건문 관계연산자 가우스소거법
24
- - 디지털 혁명과 함께 일어난 사회의 총체적 변화를 탈산업사회 및 네트워크 사회
25
- - source_sentence: 특수교육 대상학생을 위한 교수학습 지원 개별화 교육 계획 IEP 교과지도 교수전략
26
  sentences:
27
- - 유아교육과정의 종류 장애 유아를 위한 개별화 교육과정의 구성 개별화 교육과정의 구조목표실행
28
- - 평가 기초 조사강의 관련 요구 사항 과제나의 스포츠 연대기
29
- - 주차에 실시할 수도 있겠음 동영상수업PPT 음성해설 GENERAL SURGERY subtotal hemithyroidectomy Rt
30
- - source_sentence: 선형대수학을 조금 추상화한 벡터공간과 내적 공간에 대해 배운다
31
  sentences:
32
- - 나누어 공부하며 특히 인사관리는 인적자원 확보 개발 유지 보상 등을 포함한다
33
- - 강의 OT 지구시스템의 표현 지구의 내적 작용 화산지진 지형의 형성 풍화매스
34
- - 군비경쟁 중국의 시진핑 연임에 따른 군사력 강화핵무기 여기 보유 척의 항공모함
35
- - source_sentence: 제공 예정 총정리 발표수업 환자 증례 연구 발표수업 환자
36
  sentences:
37
- - 제장 환경정책 목표와 방향 환경철학 정치체제 정부통제 시민참여 경제성장 의지
38
- - 크리틱 과제 연구계획서 수정안 연구과제 중심 출력물
39
- - 약물 경제 분석의 경제적 이론 환자 치료의 약물 경제 개념 이해
40
  ---
41
 
42
- # SentenceTransformer based on jhgan/ko-sroberta-multitask
43
 
44
- This is a [sentence-transformers](https://www.SBERT.net) model finetuned from [jhgan/ko-sroberta-multitask](https://huggingface.co/jhgan/ko-sroberta-multitask). It maps sentences & paragraphs to a 768-dimensional dense vector space and can be used for semantic textual similarity, semantic search, paraphrase mining, text classification, clustering, and more.
45
 
46
  ## Model Details
47
 
48
  ### Model Description
49
  - **Model Type:** Sentence Transformer
50
- - **Base model:** [jhgan/ko-sroberta-multitask](https://huggingface.co/jhgan/ko-sroberta-multitask) <!-- at revision ab957ae6a91e99c4cad36d52063a2a9cf1bf4419 -->
51
  - **Maximum Sequence Length:** 128 tokens
52
  - **Output Dimensionality:** 768 tokens
53
  - **Similarity Function:** Cosine Similarity
@@ -88,9 +89,9 @@ from sentence_transformers import SentenceTransformer
88
  model = SentenceTransformer("jh8416/my_ewha_model_2024_1")
89
  # Run inference
90
  sentences = [
91
- '제공 예정 총정리 발표수업 환자 증례 연구 발표수업 환자',
92
- '약물 경제 분석의 경제적 이론 환자 치료의 약물 경제 개념 이해',
93
- '제장 환경정책 목표와 방향 환경철학 정치체제 정부통제 시민참여 경제성장 의지 ',
94
  ]
95
  embeddings = model.encode(sentences)
96
  print(embeddings.shape)
@@ -145,19 +146,19 @@ You can finetune this model on your own dataset.
145
  #### Unnamed Dataset
146
 
147
 
148
- * Size: 43,333 training samples
149
  * Columns: <code>sentence_0</code> and <code>sentence_1</code>
150
  * Approximate statistics based on the first 1000 samples:
151
- | | sentence_0 | sentence_1 |
152
- |:--------|:----------------------------------------------------------------------------------|:---------------------------------------------------------------------------------|
153
- | type | string | string |
154
- | details | <ul><li>min: 3 tokens</li><li>mean: 18.12 tokens</li><li>max: 47 tokens</li></ul> | <ul><li>min: 3 tokens</li><li>mean: 17.7 tokens</li><li>max: 46 tokens</li></ul> |
155
  * Samples:
156
- | sentence_0 | sentence_1 |
157
- |:-----------------------------------------------------------|:-----------------------------------------------------------|
158
- | <code>국가 비전 대집단체조와 예술공연 빛나는 조국 인민의 나라 분석 우리 국가제일주의의</code> | <code>토론 이동기 독일 통일된 조국 동독의 민주주의혁명과 통일문제의 관계</code> |
159
- | <code>국가 비전 대집단체조와 예술공연 빛나는 조국 인민의 나라 분석 우리 국가제일주의의</code> | <code>대표 콘텐츠 대집단체조와 예술공연 빛나는 조국 관현악 빛나는 조국 가요 조국찬가</code> |
160
- | <code>국가 비전 대집단체조와 예술공연 빛나는 조국 인민의 나라 분석 우리 국가제일주의의</code> | <code>사랑의 노래 람메르무어의 루치아 사랑과 조국 사이에서의 갈등 아이다 독일 오페라의</code> |
161
  * Loss: [<code>MultipleNegativesRankingLoss</code>](https://sbert.net/docs/package_reference/sentence_transformer/losses.html#multiplenegativesrankingloss) with these parameters:
162
  ```json
163
  {
@@ -294,11 +295,18 @@ You can finetune this model on your own dataset.
294
  ### Training Logs
295
  | Epoch | Step | Training Loss |
296
  |:------:|:----:|:-------------:|
297
- | 0.1846 | 500 | 0.8337 |
298
- | 0.3691 | 1000 | 0.3327 |
299
- | 0.5537 | 1500 | 0.2449 |
300
- | 0.7383 | 2000 | 0.1925 |
301
- | 0.9228 | 2500 | 0.1637 |
 
 
 
 
 
 
 
302
 
303
 
304
  ### Framework Versions
 
1
  ---
2
+ base_model: jh8416/my_ewha_model_2024_1
3
  datasets: []
4
  language: []
5
  library_name: sentence-transformers
 
9
  - sentence-similarity
10
  - feature-extraction
11
  - generated_from_trainer
12
+ - dataset_size:97764
13
  - loss:MultipleNegativesRankingLoss
14
  widget:
15
+ - source_sentence: 미디어 언어 중간시험 중간시험 강평 제부
16
  sentences:
17
+ - 적분의 정의교육관B동 교시이 강의에서는 리만적분의 정의와 유용한 여러 가지 적분법
18
+ - 창립 주년 기념일 성격심리학 입문 제부 성향적 영역 제부 성향적 영역
19
+ - career paths for the DIS graduates Ewha cyber campus How to
20
+ - source_sentence: hierarchies through relationality in the ethics of care International
21
+ Journal of
22
  sentences:
23
+ - economy culture and law to ethics
24
+ - Instructor Bae Movie WIT Values ethics and advocacy Lecture group discussion
25
+ - 깊이 이해할 있는 지름길일 것입니다
26
+ - source_sentence: 주차별 강의 내용은 사정에 따라 변동될
27
  sentences:
28
+ - 조순경 여성직종의 외주화와 간접차별 KTX 승무원 간접고용을 통해
29
+ - 욕구를 만족시키기 위해 기본적인 마케팅전략의 개념과 이론을 학습하고 여러 성공적인 마케팅전략의
30
+ - 리더십 성공사례 연구 내용 정신전력교육구술평가 임관종합평가 대비 정신전력 교육 조직속에서
31
+ - source_sentence: 상형미를 기반으로 하는 조형미를 이해하여 궁극적으로는 서화동원을 이해하고 동양예술에서 추구한 획과
32
  sentences:
33
+ - 장흔들리는 마음 수업자료스타트업얼라이언스가이드북시리즈초보창업자를위한 HR가이드북 장초기 단계 재무관리 핵심 공략 장초기
34
+ - 중간시험 리만적분 연습문제
35
+ - 같은 다층적이며 종합적인 접근을 통해 궁극적으로는 생태계가 유지되고 작동하는 원리 그리고
36
+ - source_sentence: 제작 과정 이해실습 석고 몰드 캐스팅 기법을 이용한 개별
37
  sentences:
38
+ - 선거 Mould 제작 Slip Casting 석고원형 제작 원형완성 검사 Project
39
+ - 역사적 고찰 세기 교수법 초급 피아노 교수법 기초 유아과정 중급
40
+ - 발전과제 학교문화와 풍토 주교재 학교문화의 개념 특징 조직문화 이론Ouchi의
41
  ---
42
 
43
+ # SentenceTransformer based on jh8416/my_ewha_model_2024_1
44
 
45
+ This is a [sentence-transformers](https://www.SBERT.net) model finetuned from [jh8416/my_ewha_model_2024_1](https://huggingface.co/jh8416/my_ewha_model_2024_1). It maps sentences & paragraphs to a 768-dimensional dense vector space and can be used for semantic textual similarity, semantic search, paraphrase mining, text classification, clustering, and more.
46
 
47
  ## Model Details
48
 
49
  ### Model Description
50
  - **Model Type:** Sentence Transformer
51
+ - **Base model:** [jh8416/my_ewha_model_2024_1](https://huggingface.co/jh8416/my_ewha_model_2024_1) <!-- at revision b97ea2a0717427f085226fd9284f2d5b4a7c1b8c -->
52
  - **Maximum Sequence Length:** 128 tokens
53
  - **Output Dimensionality:** 768 tokens
54
  - **Similarity Function:** Cosine Similarity
 
89
  model = SentenceTransformer("jh8416/my_ewha_model_2024_1")
90
  # Run inference
91
  sentences = [
92
+ '제작 과정 이해실습 석고 몰드 캐스팅 기법을 이용한 개별',
93
+ '선거 Mould 제작 Slip Casting 석고원형 제작 원형완성 검사 Project',
94
+ '발전과제 학교문화와 풍토 주교재 학교문화의 개념 특징 조직문화 이론Ouchi의',
95
  ]
96
  embeddings = model.encode(sentences)
97
  print(embeddings.shape)
 
146
  #### Unnamed Dataset
147
 
148
 
149
+ * Size: 97,764 training samples
150
  * Columns: <code>sentence_0</code> and <code>sentence_1</code>
151
  * Approximate statistics based on the first 1000 samples:
152
+ | | sentence_0 | sentence_1 |
153
+ |:--------|:----------------------------------------------------------------------------------|:----------------------------------------------------------------------------------|
154
+ | type | string | string |
155
+ | details | <ul><li>min: 6 tokens</li><li>mean: 17.88 tokens</li><li>max: 30 tokens</li></ul> | <ul><li>min: 3 tokens</li><li>mean: 18.09 tokens</li><li>max: 41 tokens</li></ul> |
156
  * Samples:
157
+ | sentence_0 | sentence_1 |
158
+ |:------------------------------------------------------|:-------------------------------------------------------------|
159
+ | <code>자신을 닫아놓으면서도 다른 편으론 보석처럼 반짝이는 돌은 매력이 있다</code> | <code>작품의 용도 설정 보석함 필구함 기타 IV</code> |
160
+ | <code>자신을 닫아놓으면서도 다른 편으론 보석처럼 반��이는 돌은 매력이 있다</code> | <code>발표 제출인쇄물A포맷 도안밑그림 이미지 크기보석함과 기타 함의 크기를 기준으로 함</code> |
161
+ | <code>자신을 닫아놓으면서도 다른 편으론 보석처럼 반짝이는 돌은 매력이 있다</code> | <code>밑그림에 채색 기법 표시 보석함 크기외경 xx</code> |
162
  * Loss: [<code>MultipleNegativesRankingLoss</code>](https://sbert.net/docs/package_reference/sentence_transformer/losses.html#multiplenegativesrankingloss) with these parameters:
163
  ```json
164
  {
 
295
  ### Training Logs
296
  | Epoch | Step | Training Loss |
297
  |:------:|:----:|:-------------:|
298
+ | 0.0818 | 500 | 1.0712 |
299
+ | 0.1636 | 1000 | 0.9295 |
300
+ | 0.2455 | 1500 | 0.8423 |
301
+ | 0.3273 | 2000 | 0.8157 |
302
+ | 0.4091 | 2500 | 0.794 |
303
+ | 0.4909 | 3000 | 0.7058 |
304
+ | 0.5727 | 3500 | 0.6726 |
305
+ | 0.6546 | 4000 | 0.6664 |
306
+ | 0.7364 | 4500 | 0.6302 |
307
+ | 0.8182 | 5000 | 0.6029 |
308
+ | 0.9000 | 5500 | 0.5936 |
309
+ | 0.9818 | 6000 | 0.5873 |
310
 
311
 
312
  ### Framework Versions
added_tokens.json CHANGED
The diff for this file is too large to render. See raw diff
 
config.json CHANGED
@@ -1,5 +1,5 @@
1
  {
2
- "_name_or_path": "my_trained_univ_model",
3
  "architectures": [
4
  "RobertaModel"
5
  ],
@@ -25,5 +25,5 @@
25
  "transformers_version": "4.43.3",
26
  "type_vocab_size": 1,
27
  "use_cache": true,
28
- "vocab_size": 40525
29
  }
 
1
  {
2
+ "_name_or_path": "jh8416/my_ewha_model_2024_1",
3
  "architectures": [
4
  "RobertaModel"
5
  ],
 
25
  "transformers_version": "4.43.3",
26
  "type_vocab_size": 1,
27
  "use_cache": true,
28
+ "vocab_size": 42735
29
  }
model.safetensors CHANGED
@@ -1,3 +1,3 @@
1
  version https://git-lfs.github.com/spec/v1
2
- oid sha256:f55b3b1c435fbed1c12768fd4156ece67b204387b22cbdf48a7a22a5c7b7f3dd
3
- size 468683624
 
1
  version https://git-lfs.github.com/spec/v1
2
+ oid sha256:78ce706e526ed64fc91e01e555ec972794c13c9db66023a1c6d80a0d69d1cabe
3
+ size 475472744
tokenizer.json CHANGED
The diff for this file is too large to render. See raw diff
 
tokenizer_config.json CHANGED
The diff for this file is too large to render. See raw diff