seongil-dn commited on
Commit
fd242e8
1 Parent(s): 2ef0f90

Add new SentenceTransformer model

Browse files
.gitattributes CHANGED
@@ -33,3 +33,4 @@ saved_model/**/* filter=lfs diff=lfs merge=lfs -text
33
  *.zip filter=lfs diff=lfs merge=lfs -text
34
  *.zst filter=lfs diff=lfs merge=lfs -text
35
  *tfevents* filter=lfs diff=lfs merge=lfs -text
 
 
33
  *.zip filter=lfs diff=lfs merge=lfs -text
34
  *.zst filter=lfs diff=lfs merge=lfs -text
35
  *tfevents* filter=lfs diff=lfs merge=lfs -text
36
+ tokenizer.json filter=lfs diff=lfs merge=lfs -text
1_Pooling/config.json ADDED
@@ -0,0 +1,10 @@
 
 
 
 
 
 
 
 
 
 
 
1
+ {
2
+ "word_embedding_dimension": 1024,
3
+ "pooling_mode_cls_token": true,
4
+ "pooling_mode_mean_tokens": false,
5
+ "pooling_mode_max_tokens": false,
6
+ "pooling_mode_mean_sqrt_len_tokens": false,
7
+ "pooling_mode_weightedmean_tokens": false,
8
+ "pooling_mode_lasttoken": false,
9
+ "include_prompt": true
10
+ }
README.md ADDED
@@ -0,0 +1,945 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ ---
2
+ tags:
3
+ - sentence-transformers
4
+ - sentence-similarity
5
+ - feature-extraction
6
+ - generated_from_trainer
7
+ - dataset_size:482743
8
+ - loss:CachedMultipleNegativesRankingLoss
9
+ base_model: BAAI/bge-m3
10
+ widget:
11
+ - source_sentence: 핀란드의 교사 양성 교육의 시작은 언제야
12
+ sentences:
13
+ - '핀란드의 교사 양성교육은 1863년 Jyväskylä 대학의 세미나에서 시작이 되었다 (Department of Teacher Education
14
+ at University of Jyväskylä, 2017: 2). 당시 세미나의 목적은 초등학교 교사들을 교육시키기 위한 것이었다. 1860년대부터
15
+ 지속적으로 교사 양성 교육에 대한 논쟁이 있어 왔는데, 그 논쟁은 ‘교사 양성 교육과정의 목표’와 ‘가르치는 내용’에 대한 것이었다. 이 논쟁들은
16
+ 오늘날까지도 이어지고 있다. 논쟁의 주요 주제는 교사 양성 교육이 실질적인 것에 중심을 두어야 하는지, 이론적인 것에 중심을 두어야하는지와
17
+ 관련이 있었다 (Jakku-Sihvonen, & Niemi, 2006). 많은 논쟁을 거치면서 핀란드에서는 교사 양성 교육에 있어 이론과 실제의
18
+ 조화 및 통합이라는 전통을 수립할 수 있었다 (Simola, 2005).'
19
+ - 한편, 우리나라에서는 국어교육과, 영어교육과, 수학교육과 등 각 과목별로 교사교육학과가 별도로 설치되어 있음에 비해, 핀란드에서는 과목별로
20
+ 담당 학과가 나뉘어져 있지 않고 교사교육학과 하나에서 모든 교과의 교사 양성을 통합하여 운영하고 있다. 이는 교사 양성에 있어 교과별 특수성보다는
21
+ 교사 양성 교육의 전문성을 더 중시한 접근이라고 할 수 있다. 즉 교사 양성 교육 특히 교직학 교육에 있어서는 교과별 차이를 크게 보지 않고
22
+ 교사 양성 교육의 공통성에 더 초점을 두고 있는 것이다. 핀란드 교사 양성 교육에 있어 각 하위 영역, 즉 교과내용학, 교직학(교과교육학),
23
+ 교육 실습 등은 각 전문 담당 기관에서 분리하여 맡도록 하고 있지만, 과목별 교직학은 통합하여 운영하고 있는 모습을 보여 주었다. 이러한 체제는
24
+ 하나의 전공 교과 교육만이 아니라 타 전공 교과교육 이수도 수월하게 하여 핀란드 교사들이 모두 2개 이상의 교과 교사 자격을 갖추고 있는 배경이
25
+ 되고 있다.
26
+ - '{IMG:1}소위 서울시향 사태라는 큰 내홍을 겪은 뒤 하락세의 길을 걸은 서울시립교향악단(서울시향)이 다시 기지개를 켜고 도약할 준비를
27
+ 하고 있다. 서울시향 제5대 대표이사로 올 3월 취임한 강은경 대표이사는 23일 첫 기자회견을 열고, 향후 핵심 운영 방향으로 예술적 요청과
28
+ 공공적 요청을 조화롭게 구현하는 21세기 지속가능한 오케스트라를 만들겠다고 강조했다. 21세기 지속가능이라는 모호한 표현에는, 이전의 내홍을
29
+ 넘어선 오케스트라의 본질적인 고민이 고스란히 담겼다. 강 대표이사는 다양한 문화가 공존하는 21세기임에도, 19~20세기 운영하던 회원제 운영
30
+ 방식이 여전히 남은 가장 보수적인 영역이 오케스트라이다며 우리뿐만이 아니라 서구를 비롯해 모든 오케스트라가 고민하는 문제가 이 시대에 어떻게
31
+ 살아남는가이다고 이야기했다.이어 파산하는 오케스트라를 여럿 보았고, 여러 예술단체가 경영의 어려움을 호소하고 있다. 이러한 어려움은 경영·재무적
32
+ 건전성에만 국한되지 않는다며 지역사회와 소통하고, 시민·기업과 손을 잡고 동반성장할 계획을 구체화한 오케스트라만이 21세기에 살아남을 것이다고
33
+ 했다. 그러면서 21세기 서울에 있는 공공예술단체로서 서울시향은 서울시민이 살아 있는 시향이라고 느낄만한 여러 시도를 할 것이다. 이를 통해
34
+ 한국의 수많은 클래식 예술단체에 어떻게 생존하는지 모델을 보여주고 싶다고 강조했다. 이를 위해 ▲조직 건전성 확보 ▲예술 부문 안정화 및 역량
35
+ 강화 ▲생애주기별 예술교육 시스템 구축 ▲지역사회와의 동반 성장 등을 부문별 추진 과제로 삼는다. 조직 건전성 확보를 위한 내·외부 소통을
36
+ 강화한다. 지난 5월 4일 서울시 정책에 발맞추어 사무보조 공무직 3명을 정규직으로 전환했다. 또한 지난해 4월에 도입한 근로자이사 제도를
37
+ 통해 단원들의 의견을 이사회에 반영하고, 재단의 주요 의사 결정에 협치를 구현하고 있다. 아울러 관객들과 후원회원들이 오케스트라와 친밀하게
38
+ 소통할 수 있는 다양한 이벤트를 마련해, 시민과 호흡하는 오케스트라로 발전하기 위해 노력한다는 계획이다. 공석인 음악감독도 임명하기 위해 최근
39
+ 음악감독추천위원회를 발족하고 속도를 낸다. 다만 강 대표이사는 차기 음악감독은 시급성보다는 적합성이 중요하다며 동고동락할 단원들의 의견부터
40
+ 여러 외부 전문가와 관객들의 의견까지 수렴하는 절차를 거칠 것이다고 강조했다. 그는 이러한 절차는 시간이 걸리더라도 민주적인 소통과 숙의 과정을
41
+ 통해 건강한 오케스트라를 만들겠다는 서울시향의 강력한 의지이다고 덧붙였다. 음악감독이 부재인 기간에 서울시향의 예술적 안정성 강화를 위해 부지휘자를
42
+ 빠른 시일 내에 선발한 계획이다. 지난해 9월 최수열 지휘자가 사임한 이후 현재까지 공석인 상황이다. 강 대표이사는 수석부지휘자(associate
43
+ conductor)와 부지휘자(assistant conductor)의 층위로 구분된 부지휘자 제도를 통해 예술적 리더십을 견고하게 할 계획이다고
44
+ 했다. 시민을 위한 생애주기별 교육시스템 구축을 위해서는 SPO Kids 양성 및 미래 관객 개발에 노력할 것이다고 했다. 서울시향이 이미
45
+ 진행하고 있던 초·중학교로 찾아가 음악에 대해 친절히 설명하고 연주를 들려주는 음악수업 2교시와 학생들을 공연장으로 초청하여 공연문화를 경험하게
46
+ 하는 음악이야기를 꾸준히 진행하고, 교과서에 나오는 클래식음악을 음악수업 교재용 영상으로 제작하는 교과서음악 영상화 사업을 진행해 서울시 소재
47
+ 중학교에 배포한다. 또한 지난해 시범사업으로 진행하였던 lt;오케스트라 캠프gt;를 정규 사업화하여, 서울시향 단원들이 서울시내 청소년 오케스트라들을
48
+ 교육하는 프로그램을 마련할 예정이다. 20대 관객을 위한 채널과 콘서트 미리 공부하기 등 중장년층 교육프로그램, 공연장을 찾는 바쁜 직장인들을
49
+ 배려하기 위한 교육콘텐츠 팟캐스트화 등 매체의 다변화도 모색한다. 지역사회와의 소통 및 협력을 통한 동반성장으로는 기존의 우리동네 음악회를
50
+ 강화하고, 발달장애아와 그 가족을 위한 음악회 행복한 음악회 - 함께!를 연 2회로 확대하려 한다. 이밖에 기업과의 협력 등을 모색하여 문화
51
+ 소외계층 및 사회적 배려자에 대한 문화예술 경험의 기회를 늘리는 등 문화복지 혜택을 꾸준히 확대해 나간다는 방침이다. 강 대표는 독특한 이력의
52
+ 소유자이다. 중학교 때 바이올린 공부했고, 대학 때는 법학을, 그 이후에는 한예종에서 예술경영을 전공했다. 그는 이게 장점인지는 모르겠지만
53
+ 음악과 법, 예술경영을 공부했고 연구자였다가 실무자를 거쳐 지금은 경영자가 됐다며 다양한 시행착오들이 모여 지금의 유연성을 가지게 된 게 감사한
54
+ 부분이라고 생각한다고 했다. 어린시절 음악인의 삶을 꿈꿨던 그는 단원들의 고충을 가장 먼저 파악하고, 그들의 직업적 질병을 완화하고 재단 구성원들의
55
+ 심신 안정을 도모하고자 긴급 의료체계와 전문병원과의 MOU를 통한 협력체계 구축해 복지혜택을 대폭 강화했다.'
56
+ - source_sentence: 제5회 대한민국 자원순환 정크아트 공모전을 주최한 건 어디야
57
+ sentences:
58
+ - "더불어민주당이 ‘국민통합’을 명분으로 ‘이익공유제’를 본격 추진한다. 신종 코로나바이러스감염증(코로나19) 국면에서 ‘특수’를 누린 기업\
59
+ \ 이익을 나눠 사회경제 통합을 이루자는 ‘선한 의지’가 명분이다. 대기업ㆍ금융권 자본으로 펀드를 만들자는 구체적 제안도 나왔다. 그러나 양극화\
60
+ \ 해소라는 국가적 과제를 개인·기업의 윤리로 해결하는 것이 온당한가라는 의문이 잇따른다. 경제계에선 “실효가 입증되지 않은 반(反)시장적\
61
+ \ 계층 편가르기”라고 비판한다. ◇이낙연도 김종인도 ‘통합ㆍ공공선’ 고민 \n이낙연 민주당 대표는 12일 ‘코로나19 이익공유제’를 추진하겠다고\
62
+ \ 거듭 확인했다. 문재인 대통령이 100대 국정과제로 꼽았던 ‘협력이익공유제’를 모델로 제시했다. 대기업과 중소기업이 협력으로 생산한 이익을\
63
+ \ 공유하기로 계약하면, 정부가 세금 감면, 정책자금 우대 등의 혜택을 주는 내용이다. ‘코로나19 이익공유’는 대선을 겨냥한 이 대표의 정책\
64
+ \ 승부수다. 새해 들어 꺼낸 이명박·박근혜 전 대통령 사면이 정치적 통합이라면, 이익공유제는 경제적 통합을 상징한다. 민주당은 이익공유제\
65
+ \ 논의를 위해 ‘코로나 불평등 해소 및 재정 정책태스크포스( TF)’를 띄웠다. 네이버ㆍ카카오ㆍ삼성ㆍLGㆍ배달의민족 등 이익공유제 참여 대상\
66
+ \ 기업의 이름도 벌써부터 오르내린다. ‘비대면 ���수'를 누린 곳들이다. 홍익표 민주당 정책위의장은 KBS라디오 인터뷰에서 “대기업 또는 금융기업에서\
67
+ \ 펀드를 구성해 중소기업이나 벤처를 지원하고 사회적으로 어려움을 겪는 계층에게 일자리를 만들어내는 사업을 고민하고 있다”고 했다. 국민의힘은\
68
+ \ ‘이익공유제’를 ‘기업 팔 비틀기’라고 비판하지만, 내부에서는 ‘보수판 코로나19 대책’을 고민 중이다. 김종인 국민의힘 비상대책위원장은\
69
+ \ ‘공공선(公共善) 자본주의’ 철학이 담긴 보고서를 소속 의원 전원에 보내기도 했다. 2016년 미국 공화당 대선 경선 후보였던 마르코 루비오\
70
+ \ 상원의원이 제시한 개념으로, ‘시장은 국민을 이롭게 하려고 존재한다’는 내용이 골자다. 4월 서울ㆍ부산시장 선거와 내년 대선을 앞두고 경제\
71
+ \ 민주화에 근간한 양극화 해소 방안을 내놔야 한다는 주문으로 읽혔다. ◇전문가들은 “?...” \n경제 전문가들은 이익공유제를 그다지 반기지\
72
+ \ 않았다. 최병호 부산대 경제학부 교수는 한국일보와의 통화에서 “코로나19로 인한 이득을 누가, 얼마나 누렸는지 객관적 근거가 없다”며 “기업의\
73
+ \ 이익이 늘었다면 법인세를 늘리는 등 제도적 회수 방안을 강구해야지 이익을 나누자는 것은 즉흥적 생각\"이라고 지적했다. 선의에 의존하는\
74
+ \ ‘금모으기식’ 정책은 효과를 담보할 수 없다. 민주당이 지난해 추진한 ‘재난지원금 자발적 기부’ ‘착한 임대료 운동’이 대표적 예다. 당정청은\
75
+ \ 지난해 5월 1차 전국민 재난지원금을 지급하며 ‘기부 규모가 적지 않을 것’이라고 기대했지만, 기부된 금액은 1.9%에 그쳤다. 건물주의\
76
+ \ 자발적 임대료 인하를 유도하는 ‘착한 임대료 운동’ 역시 호응이 미미하다. ‘계층 편가르기’라는 비판도 비등하다. 양극화 해소 등 국민\
77
+ \ 복지는 기업이 책임질 일이 아니라는 반론도 있다. 이병태 카이스트 경영학과 교수는 “기업의 이익은 주주의 몫인데 정부가 압력을 가해 ‘공유하라’는\
78
+ \ 것은 경영진의 배임을 강요하는 것”이라며 “코로나19 재난 대응의 주체는 기업이 아니라 정부”라고 꼬집었다."
79
+ - '버려진 쓰레기(JUNK), 예술작품(ART)으로 재탄생
80
+
81
+ 제5회 대한민국 자원순환 정크아트 공모전 개요
82
+
83
+ □ 행사명 : 제5회 대한민국 자원순환 정크아트 공모전
84
+
85
+ □ 주최 : 한국환경공단
86
+
87
+ □ 후원 : 환경부, 한국정크아트협회, (사)한국미술협회, (사)환경미술협회
88
+
89
+ □ 접수기간 : 2010년 8월 16일 ~ 10월 1일
90
+
91
+ □ 공모분야 : 폐기물을 활용하여 제작한 창작물
92
+
93
+ ※ 규격 제한 없으며 소재는 폐금속, 폐고무, 폐플라스틱 등 폐자재의 복합자재사용 가능
94
+
95
+ □ 참가자격 : 학생부[전국 대학(원) ], 일반부[일반인 및 작가]
96
+
97
+ ※ 공동작품의 경우 단체명(3인 이내로 구성하고 작품참여자 이름 기재 필수)으로 접수 및 시상 가능
98
+
99
+ □ 출품수 : 1인 2점 이내
100
+
101
+ □ 온라인 응모 : 2010년 8월 16일 ~ 10월 1일까지(출품원서와 작품사진 응모)
102
+
103
+ ※ 공단 블로그(blog.naver.com/refreshkorea)에서 출품원서 다운로드 후 작성
104
+
105
+ ※ 총 5MB 이내 크기로 작품 전, 후, 측면 사진과 출품원서 이메일 접수(******************)
106
+
107
+ □ 작품 접수 : 2010년 9월 20일 ~ 10월 1일까지
108
+
109
+ ※ 온라인 응모 필한 작품만 접수
110
+
111
+ □ 접수처 : (121-832) 서울 마포구 상암동 481-1번지 마포자원회수시설 내 한국환경공단 마포 자원순환 테마전시관(***********)
112
+
113
+ ※ 수도권을 제외한 지역의 경우 지역별 본부 및 지사 접수 : 강원권(강원지사) / 충청권(충청지역본부) / 호남권(호남지역본부) / 영남권(영남지역본부)
114
+
115
+ ※ 작품 규모가 커서 운반이 어려운 경우 운송 관련 협조 가능
116
+
117
+ □ 문의사항 : 온라인(블로그) 및 유선 문의(☏ ************/***********)
118
+
119
+ □ 발표 및 시상 : 2010년 10월 중(추후 공지)'
120
+ - '함께해요! ‘자원사랑 나눔실천’한마당 축제
121
+
122
+ 제6회 자원순환의 날 행사추진 계획
123
+
124
+ □ 주최 : 환경부 ⁃ 자원순환의날조직위원회*
125
+
126
+ * 자원순환거버넌스포럼, 자원순환사회연대, 전국지속가능발전협의회, 한국폐기물협회, 환경실천연합회
127
+
128
+ □ 주관 : 한국폐기물협회
129
+
130
+ □ 일시 : 2014. 9. 12(금) 15:00
131
+
132
+ □ 장소 : 한강 선유도공원(서울 영등포구 소재)
133
+
134
+ □ 행사내용
135
+
136
+ ○ 식전행사 : 자원순환의 의미를 전달하고 함께 공유하기 위한 공연
137
+
138
+ ○ 공식행사 : 정부포상, 개회사, 축사, 기념퍼포먼스(자원순환실천다짐), 재활용밴드 공연 등
139
+
140
+ ○ 부대행사 : 업사이클링 제품 전시, 어린이 그림그리기 대회, 리싸이클링아트 전시회, 재활용 DIY, 어린이 분리배출 체험교실, 자원순환
141
+ 관련 사회적기업 홍보전시, 자원순환콘서트, 페이스페인팅
142
+
143
+ □ 참석인원 및 VIP
144
+
145
+ ○ 참석인원 : 기념식 300여명, 부대행사 1,000여명
146
+
147
+ ○ 주요 VIP : *** 환경부 장관, 국회 환경노동위원회 *** 위원장, *** 의원, *** 의원, *** 자원순환사회연대 회장, ***
148
+ 지속가능발전협회 상임회장, *** 환경실천연합 회장 등'
149
+ - source_sentence: 경기도 체육회는 지방체육회의 법인화 지침서 내용 중 어느 부분에 대하여 문제점을 제기하였어
150
+ sentences:
151
+ - 광주 서부소방서는 전통시장 점포 점검의 날을 맞아 상인의 자율적 화재예방을 위해 양동시장을 점검했다고 11일 밝혔다. 전통시장 점포 점검의
152
+ 날 캠페인은 겨울철 화재예방 및 안전의식 고취를 위해 지난해 11월부터 매월 2주차 수요일에 서부 지역 8개 시장에 대해 운영되고 있다. 주요
153
+ 내용은 △점포 내 화재취약요인 제거 △전기·가스시설 사용 안전수칙 안내 등 화재안전교육 및 컨설팅 △시장 진입로에 화재예방 관련 플래카드 부착
154
+ △시장 상인·시민에게 화재예방 홍보물품 배부 등이다. 서부소방서 관계자는 "전통시장은 점포가 밀집돼 있고 타기 쉬운 물건들도 많이 있는 만큼
155
+ 화재 발생 시 다른 장소에서 발생하는 화재보다 피해가 크기 때문에 자율적이고 주기적인 점포 점검이 필수적이다"고 강조했다.
156
+ - 경기도체육진흥센터(이하 센터) 설립 추진 관련, 이원성 경기도체육회장이 1인 시위를 이어가고 있는 가운데 전국 지방체육회의 지지 성명 또한
157
+ 계속되고 있다. 7일 도체육회에 따르면 이날 전국 17개 시ㆍ도체육회장과 228개 전국시ㆍ군ㆍ구체육회장협의회가 성명서와 입장문을 발표하며 경기도체육회의
158
+ 센터 설립 반대 지지 의사를 밝혔다. 전날 세종시에서 열린 전국 시ㆍ도체육회장협의회 후 경기도체육회의 입장에 동조 의사를 밝혔던 시ㆍ도체육회장들은
159
+ 이날 성명서를 통해 “지방체육회는 국민의 건강과 체육발전을 책임지는 공공 단체임을 다시 한번 강조하며 경기도의회의 센터 설립을 즉각 중단하라”고
160
+ 촉구했다. 또한 전국 228개 기초자치단체 체육회 회장단 협의회 곽종배 회장(인천시 연수구체육회장)도 이날 이원성 도체육회장이 1인 피켓 시위를
161
+ 벌이고 있는 경기도청사 정문 앞을 방문해 입장문을 발표했다. ‘경기도체육진흥센터 설립을 우려하는 이유’라는 제목의 입장문에서 전국시ㆍ군ㆍ구체육회장협의회는
162
+ “경기도의 센터 설립이 강행된다면 이는 비단 경기도 만의 문제가 아니고, 간신히 민선 체제로 자리잡고 있는 전국 지방체육회에 찬물을 끼얹는
163
+ 행위다”라고 우려를 표했다. 이날 시위 현장에는 도체육회 임원, 시ㆍ군체육회장, 종목단체장 및 사무국장 등 체육인들의 격려 방문이 이어졌다.
164
+ 한편 최근 경기도가 문화체육관광부에 질의한 ‘지방자치단체 체육업무 직접수행 가능 여부’에 대한 회신 내용도 공개됐다. 회신에서 문화체육관광부는
165
+ “체육진흥센터 설립과 일정 범위내 체육진흥 사업 직접 수행은 가능하지만, 지방체육회 고유 사업의 직접 수행으로 체육진흥 사업 활동을 형해화
166
+ 하거나 지방체육회를 실질적으로 대체하는 성격의 법인을 설립하는 것은 ‘국민체육진흥법 제33조 2의 규정’을 침해할 소지가 있다”고 전했다.
167
+ - 경기도 시ㆍ군체육회가 대한체육회의 지방체육회 법인화 가이드라인이 현실과 동떨어졌다며 조정을 요구했다. 시ㆍ군체육회 사무국장협의회는 8일 오후
168
+ 경기도체육회 대회의실에서 강병국 도체육회 사무처장, 시ㆍ군 체육회 사무국장 및 관계자 등이 참석한 가운데 지방체육회 법인설립 간담회를 가졌다.
169
+ 이날 회의에서 시ㆍ군 사무국장들은 오는 6월 공포되는 국민체육진흥법 일부 개정안에 담긴 지방체육회 법정 법인화 과정 중 정관승인 규정이 지방체육회의
170
+ 의견이 제대로 반영되지 않은 일방적인 규정이라고 지적했다. A체육회 사무국장은 “지방체육회 법인화 설립에 많은 어려움을 느끼고 있다. 특히
171
+ 지역에 따라 다를 수밖에 없는 임원 구성과 기본 재원 마련이 가장 큰 난제”라고 말했다. 또 B체육회 사무국장은 “지��체육회가 특수법인으로
172
+ 묶인 것은 매우 잘 된 일이다. 그러나 여건이 서로 다른 시ㆍ군체육회가 독립성을 가진 특수법인에 일방적으로 속하게 된다면 많은 문제가 야기될
173
+ 것“이라며 “이제라도 대한체육회는 지역 특성에 맞는 법인 설립이 될 수 있도록 표준 정관이 조정돼야 한다. 이 문제가 해결되지 않는다면 지방체육회의
174
+ 법인 설립은 아무런 의미가 없다”고 주장했다. 강병국 도체육회 사무처장은 “어려운 여건 속에서 지역 체육의 행정을 이끌면서 법인화에 적극 앞장서
175
+ 주신데 대해 감사하다”면서 “이 자리에서 도출되는 의견을 적극 수렴해 정관을 만들도록 하겠다. 사무국장 협의회와 적극 소통하겠다”고 밝혔다.
176
+ - source_sentence: 녹조근정훈장을 수상하는 민병헌 교수는 어디 소속이니
177
+ sentences:
178
+ - '첨단재생의료기술 분야 국가경쟁력 향상에 기여한 민병현 교수, 녹조근정훈장 수상
179
+
180
+ □ 녹조근정훈장을 수상하는 아주대학교 의료원 민병현 교수는 ‘국내 최초로 골연골 결손 환자에게 자가연골세포 이식에 성공하고, 골관절염의 진단과
181
+ 치료법 개발을 특화하는 등 첨단재생 의료기술 발전에 크게 기여’한 공로를 인정받았다. ○ 근정포장을 수상하는 충남대학교 송민호 교수는 ‘미토콘드리아
182
+ 기능 이상이 당뇨병에 미치는 원인을 규명하고, 미토콘드리아 내막의 CRIF1* 단백질 기능을 분자생물학적으로 규명하는 등 난치성 만성질환 당뇨병분야
183
+ 진단 치료 기반을 구축’한 공로를 인정받았다. * CRIF1(Growth differentiation factor1) : 미토콘드리아 내막에
184
+ 존재하는 단백질, 미토콘드리아 에너지 생성에 필수적 역할 수행
185
+
186
+ ○ 대통령 표창을 수상하는 ㈜코오롱생명과학 김수정 연구소장은 ‘세계 최초 골관절염 세포유전자치료제이자 국내 29번째 신약인「인보사」를 개발하여,
187
+ 미국 먼디파마에 기술이전 계약을 체결하는 성과를 이룩하는 등 국내 신약의 우수성을 세계적으로 입증’한 공로를 인정받았다. ○ 국무총리 표창은
188
+ ㈜엠큐브테크놀로지 김승태 상무와 경북대학교 이재태 교수가 수상한다. - 김승태 상무는 ‘3차원 이미지 기반의 실시간 방광용적 측정 진단이 가능한
189
+ 초음파 방광용적 측정기(CUBEScan)를 제품화하여 미국, 유럽 등 의료기기 해외시장 개척에 기여’하였다. - 이재태 교수는 ‘대구경북첨단의료산업진흥재단
190
+ 이사장을 역임 (2015~2018)하면서 신개념 당뇨병·갑상선암 치료제 개발, 영상 추적제 개발 등의 연구용역(R&D)을 수행하였고, 국가
191
+ 첨단의료분야 연구개발 및 산업 육성 진흥에 기여’하였다.'
192
+ - 옥조근정훈장 저 혼자 한 일이 아니고 당연히 할 일을 한 것 뿐입니다. 동료 분들께 고맙다는 말 드리고 싶습니다. 제가 대표로 받았다고 생각해요
193
+ 올해 대한민국 공무원상 옥조근정훈장을 받은 김종복 서울시 지방사회복지주사(사진)는 동자동 쪽방지역에 인정 넘치고 신바람 나는 복지공동체 만들기
194
+ 프로젝트를 추진해 지역사회가 활기차게 변화할 수 있게 만들었다는 평가를 받았다. 그는 찾아가는 현장 복지민원실 운영으로 행정관청의 문턱을 낮추고
195
+ 민원만족도를 높였다. 쪽방 문패.배치도 설치로 신속한 복지서비스 제공이 가능해졌다. 지정기탁금을 활용해 수납시설을 설치해 만성질환, 장애,
196
+ 노령 등으로 인해 활동이 불편한 주민들의 좁은 생활공간을 정리해 쾌적한 내부 환경을 조성했다. 소외된 이웃과 함께하는 아름다운 동행(일촌맺기)
197
+ 사업을 통해 개별화된 현대사회에서 이웃 간 교류가 단절된 노인인구와 자원봉사자들 간 1:1 결연을 시행했다. 그는 혼자 할수있는 일이 아니고
198
+ 협력해서 함께 했다라며 이를 계기로 쪽방 주변 지역에 새로운 변화가 있었으면 좋겠다라고 말했다. 이어 여러 사업을 진행하면서 주민들과 친밀감과
199
+ 유대감이 형성됐다. 그를 계기로 원할한 소통이 되다 보니 마을공동체가 복원된 것이 가장 큰 수확이라고 말했다.
200
+ - 일본국헌법에 의하면 일본의 국가수반은 일왕이다. 다만, 일본국헌법은 일왕을 상징적 존재로 규정하고 있으며, 실제에 있어서도 상징적이고 의례적인
201
+ 행위를 할뿐 국가수반으로서 행정권, 군사통수권 등을 갖고 있지 않다. 일왕은 선출에 의하지 않고 세습에 의해서 그 직을 계승하다. 즉, 일본국헌법
202
+ 제2조는 “왕위는 세습하며, 국회가 의결한 황실전범의 규정에 따라서 계승한다.”고 규정하고 있다. 다시 말해서 왕위는 세습하는 것이며, 세습에
203
+ 관련된 규정은 국회가 결정하는 것으로 되어 있다. 일왕은 일본국헌법에 규정된 국사 행위만 할 수 있고, 국정에 관한 권능은 갖고 있지 않다.
204
+ 일왕은 국회의 지명에 근거하여 총리를 임명하고, 내각의 지명에 근거하여 최고재판소의 장인 재판관을 임명한다. 그리고 일왕은 내각의 조언과 승인에
205
+ 따라서 아래표와 같은 국사에 관한 일을 한다.
206
+ - source_sentence: 국민의료비 중 공공재원의 지출이 58.2퍼센트 비율을 차지하고 있는 나라는 어디야
207
+ sentences:
208
+ - '5) 건강보험 재정
209
+
210
+ 2010년 기준으로 독일의 GDP 대비 국민의료비 비중은 11.6%이고, 국민 의료비 중 공공지출 비율은 76.8%로 OECD 국가의 평균인
211
+ 72.2%를 소폭 상회하고 있다. 이 같은 재정을 충당하기 위한 독일의 공적건강보험의 재원으로는 보험료, (연방)정부의 보조금 그리고 기타
212
+ 수입 등이 있다. 이 중 주요 재원은 보험료 이며 정부의 보조금이 부분적으로 사용된다. 보험료는 근로자와 고용주가 부담하며, 연금과 산재보험수급자도
213
+ 의료보험료를 부담하여야 한다. 2009년 이전에는 각 질병금고들이 수지균형의 원칙에 따라 보험요율을 자율적으로 결정하기 때문에 각 질병금고의
214
+ 종류별로 그리고 같은 종류라도 지역별로 보험요율의 변동폭이 매우 상이했다. 보험료는 원칙적으로 보험가입자와 고용주, 연금보험자(관리기구) 또는
215
+ 기타 기관들이 소득수준에 따라 부담하며 모두 건강기금(Gesundheitsfonds) 으로 납입된다. 2009년부터 모든 질병금고에 동일한
216
+ 보험요율이 적용되어 15.5%로 단일화되었으며, 그 이전까지 고용주와 근로자가 동일하게 절반씩 동일하게 부담하던 것을 2011년부터 고용주는
217
+ 7.3%를 부담하고 근로자는 8.2%를 차등적으로 부담하게 되었다.'
218
+ - 케이아이엔엑스(093320)는 52주신고가를 기록하고 있어 주목할만하다. 동종목의 현재 주가는 26,600원 선에서 이루어지고 있다. 거래일을
219
+ 기준으로 최근 3일간 평균 거래량은 5만 주이다. 이는 60일 일 평균 거래량 4만 주와 비교해보면 최근 거래량이 약간 증가했지만 크게 벗어나지는
220
+ 않았다. 상장주식수 대비 거래량은 1.91%로 적정수준 최근 한달간 케이아이엔엑의 상장주식수 대비 거래량을 비교해보니 일별 매매회전율이 1.91%로
221
+ 집계됐다. 그리고 동기간 장중 저점과 고점의 차이인 일평균 주가변동률을 4.7%를 나타내고 있다. 지표 항목 값 종합점수 성장성 매출액증가율
222
+ 0.01 7.02 자기자본증가율 0.07 안정성 부채비율 13.76 10 유동비율 540.46 이익안정성 10 수익성 ROA 11.42 9.19
223
+ ROE 12.99 영업이익율 20.41 케이아이엔엑스의 퀀트 재무 점수는 26.21점으로 지난 분기에 비해 성장성 점수가 하락했다. 이는 매출액
224
+ 증가율과 자기자본 증가율이 감소하였기 때문이다. 수익성 측면에서 볼때 ROA, ROE, 영업이익률 모두 개선되어 이전보다 좋은 점수를 받았다.
225
+ fnRASSI는 증권전문 기업 씽크풀과 파이낸셜뉴스의 협업으로 로봇기자가 실시간으로 생산하는 기사입니다.
226
+ - 공적건강보험에 대한 지속적인 보장성 및 역할 강화 노력으로 전체 의료비 중 공공재원이 차지하는 비중이 지속적으로 증가하고 있는 상황이지만 여전히
227
+ 개인의 의료비 부담이 높기 때문에 민영건강보험의 재원 부담 비중도 지속적으로 증가하고 있는 추세이다. 전체 의료비 중 자동차보험과 민영건강보험(실
228
+ 손의료보험)을 통한 의료비 지출비중은 5.8%에 이르고 있다. 나머지 31.4%는 가계직접부담으로 이 중의 일부가 정액형 건강보험을 통해 지출되고
229
+ 있다. 정액형 건강보험은 의료비 보장과 함께 중증질환에 걸렸을 때 현실적으로 경제활동이 지속되기 어려워 소득상실 리스크를 보장하는 기능까지
230
+ 포함하고 있기 때문에 정액형 건강보험의 재원조달 비중을 계량적으로 추산하기 어렵다. 공공재원을 통한 의료비 지출은 1980년 이후 꾸준히 증가하여
231
+ 왔지만 OECD국가와 비교했을 때 그 비중이 여전히 낮은 상황이다. OECD 회원국 중에서 국민의료비 중 공공부문 지출 비중이 높은 나라는
232
+ 덴마크 85.0%, 영국 84.1%, 노르웨이 84.1% 등이며, 낮은 나라는 칠레 47.4%, 미국 47.7%, 멕시코 48.3% 등으로
233
+ 나타나고 있다. 한국의 의료비 지출 중 공공재원에 의한 지출 비중은 58.2%이며, 이는 OECD 평균 71.8%를 크게 하회하는 수준으로,
234
+ ��만큼 개인의 의료비 부담이 상대적으로 높은 상황이다. 한국의 공공재원이 낮은 이유는 국민건강보험 제도를 도입한 초기부터 타 OECD 국가에
235
+ 비해 ‘저부담-저급여’ 구조를 유지했기 때문이며, 동일한 부담을 하는데도 보장률이 낮은 것은 아니기 때문에 낮은 공공재원 비중 자체를 문제점으로
236
+ 지적하기는 어렵다.
237
+ pipeline_tag: sentence-similarity
238
+ library_name: sentence-transformers
239
+ ---
240
+
241
+ # SentenceTransformer based on BAAI/bge-m3
242
+
243
+ This is a [sentence-transformers](https://www.SBERT.net) model finetuned from [BAAI/bge-m3](https://huggingface.co/BAAI/bge-m3). It maps sentences & paragraphs to a 1024-dimensional dense vector space and can be used for semantic textual similarity, semantic search, paraphrase mining, text classification, clustering, and more.
244
+
245
+ ## Model Details
246
+
247
+ ### Model Description
248
+ - **Model Type:** Sentence Transformer
249
+ - **Base model:** [BAAI/bge-m3](https://huggingface.co/BAAI/bge-m3) <!-- at revision 5617a9f61b028005a4858fdac845db406aefb181 -->
250
+ - **Maximum Sequence Length:** 1024 tokens
251
+ - **Output Dimensionality:** 1024 tokens
252
+ - **Similarity Function:** Cosine Similarity
253
+ <!-- - **Training Dataset:** Unknown -->
254
+ <!-- - **Language:** Unknown -->
255
+ <!-- - **License:** Unknown -->
256
+
257
+ ### Model Sources
258
+
259
+ - **Documentation:** [Sentence Transformers Documentation](https://sbert.net)
260
+ - **Repository:** [Sentence Transformers on GitHub](https://github.com/UKPLab/sentence-transformers)
261
+ - **Hugging Face:** [Sentence Transformers on Hugging Face](https://huggingface.co/models?library=sentence-transformers)
262
+
263
+ ### Full Model Architecture
264
+
265
+ ```
266
+ SentenceTransformer(
267
+ (0): Transformer({'max_seq_length': 1024, 'do_lower_case': False}) with Transformer model: XLMRobertaModel
268
+ (1): Pooling({'word_embedding_dimension': 1024, 'pooling_mode_cls_token': True, 'pooling_mode_mean_tokens': False, 'pooling_mode_max_tokens': False, 'pooling_mode_mean_sqrt_len_tokens': False, 'pooling_mode_weightedmean_tokens': False, 'pooling_mode_lasttoken': False, 'include_prompt': True})
269
+ (2): Normalize()
270
+ )
271
+ ```
272
+
273
+ ## Usage
274
+
275
+ ### Direct Usage (Sentence Transformers)
276
+
277
+ First install the Sentence Transformers library:
278
+
279
+ ```bash
280
+ pip install -U sentence-transformers
281
+ ```
282
+
283
+ Then you can load this model and run inference.
284
+ ```python
285
+ from sentence_transformers import SentenceTransformer
286
+
287
+ # Download from the 🤗 Hub
288
+ model = SentenceTransformer("seongil-dn/bge-m3-kor-retrieval-451949-bs512-413")
289
+ # Run inference
290
+ sentences = [
291
+ '국민의료비 중 공공재원의 지출이 58.2퍼센트 비율을 차지하고 있는 나라는 어디야',
292
+ '공적건강보험에 대한 지속적인 보장성 및 역할 강화 노력으로 전체 의료비 중 공공재원이 차지하는 비중이 지속적으로 증가하고 있는 상황이지만 여전히 개인의 의료비 부담이 높기 때문에 민영건강보험의 재원 부담 비중도 지속적으로 증가하고 있는 추세이다. 전체 의료비 중 자동차보험과 민영건강보험(실 손의료보험)을 통한 의료비 지출비중은 5.8%에 이르고 있다. 나머지 31.4%는 가계직접부담으로 이 중의 일부가 정액형 건강보험을 통해 지출되고 있다. 정액형 건강보험은 의료비 보장과 함께 중증질환에 걸렸을 때 현실적으로 경제활동이 지속되기 어려워 소득상실 리스크를 보장하는 기능까지 포함하고 있기 때문에 정액형 건강보험의 재원조달 비중을 계량적으로 추산하기 어렵다. 공공재원을 통한 의료비 지출은 1980년 이후 꾸준히 증가하여 왔지만 OECD국가와 비교했을 때 그 비중이 여전히 낮은 상황이다. OECD 회원국 중에서 국민의료비 중 공공부문 지출 비중이 높은 나라는 덴마크 85.0%, 영국 84.1%, 노르웨이 84.1% 등이며, 낮은 나라는 칠레 47.4%, 미국 47.7%, 멕시코 48.3% 등으로 나타나고 있다. 한국의 의료비 지출 중 공공재원에 의한 지출 비중은 58.2%이며, 이는 OECD 평균 71.8%를 크게 하회하는 수준으로, 그만큼 개인의 의료비 부담이 상대적으로 높은 상황이다. 한국의 공공재원이 낮은 이유는 국민건강보험 제도를 도입한 초기부터 타 OECD 국가에 비해 ‘저부담-저급여’ 구조를 유지했기 때문이며, 동일한 부담을 하는데도 보장률이 낮은 것은 아니기 때문에 낮은 공공재원 비중 자체를 문제점으로 지적하기는 어렵다.',
293
+ '5) 건강보험 재정\n2010년 기준으로 독일의 GDP 대비 국민의료비 비중은 11.6%이고, 국민 의료비 중 공공지출 비율은 76.8%로 OECD 국가의 평균인 72.2%를 소폭 상회하고 있다. 이 같은 재정을 충당하기 위한 독일의 공적건강보험의 재원으로는 보험료, (연방)정부의 보조금 그리고 기타 수입 등이 있다. 이 중 주요 재원은 보험료 이며 정부의 보조금이 부분적으로 사용된다. 보험료는 근로자와 고용주가 부담하며, 연금과 산재보험수급자도 의료보험료를 부담하여야 한다. 2009년 이전에는 각 질병금고들이 수지균형의 원칙에 따라 보험요율을 자율적으로 결정하기 때문에 각 질병금고의 종류별로 그리고 같은 종류라도 지역별로 보험요율의 변동폭이 매우 상이했다. 보험료는 원칙적으로 보험가입자와 고용주, 연금보험자(관리기구) 또는 기타 기관들이 소득수준에 따라 부담하며 모두 건강기금(Gesundheitsfonds) 으로 납입된다. 2009년부터 모든 질병금고에 동일한 보험요율이 적용되어 15.5%로 단일화되었으며, 그 이전까지 고용주와 근로자가 동일하게 절반씩 동일하게 부담하던 것을 2011년부터 고용주는 7.3%를 부담하고 근로자는 8.2%를 차등적으로 부담하게 되었다.',
294
+ ]
295
+ embeddings = model.encode(sentences)
296
+ print(embeddings.shape)
297
+ # [3, 1024]
298
+
299
+ # Get the similarity scores for the embeddings
300
+ similarities = model.similarity(embeddings, embeddings)
301
+ print(similarities.shape)
302
+ # [3, 3]
303
+ ```
304
+
305
+ <!--
306
+ ### Direct Usage (Transformers)
307
+
308
+ <details><summary>Click to see the direct usage in Transformers</summary>
309
+
310
+ </details>
311
+ -->
312
+
313
+ <!--
314
+ ### Downstream Usage (Sentence Transformers)
315
+
316
+ You can finetune this model on your own dataset.
317
+
318
+ <details><summary>Click to expand</summary>
319
+
320
+ </details>
321
+ -->
322
+
323
+ <!--
324
+ ### Out-of-Scope Use
325
+
326
+ *List how the model may foreseeably be misused and address what users ought not to do with the model.*
327
+ -->
328
+
329
+ <!--
330
+ ## Bias, Risks and Limitations
331
+
332
+ *What are the known or foreseeable issues stemming from this model? You could also flag here known failure cases or weaknesses of the model.*
333
+ -->
334
+
335
+ <!--
336
+ ### Recommendations
337
+
338
+ *What are recommendations with respect to the foreseeable issues? For example, filtering explicit content.*
339
+ -->
340
+
341
+ ## Training Details
342
+
343
+ ### Training Hyperparameters
344
+ #### Non-Default Hyperparameters
345
+
346
+ - `per_device_train_batch_size`: 512
347
+ - `learning_rate`: 3e-05
348
+ - `num_train_epochs`: 5
349
+ - `warmup_ratio`: 0.05
350
+ - `fp16`: True
351
+ - `batch_sampler`: no_duplicates
352
+
353
+ #### All Hyperparameters
354
+ <details><summary>Click to expand</summary>
355
+
356
+ - `overwrite_output_dir`: False
357
+ - `do_predict`: False
358
+ - `eval_strategy`: no
359
+ - `prediction_loss_only`: True
360
+ - `per_device_train_batch_size`: 512
361
+ - `per_device_eval_batch_size`: 8
362
+ - `per_gpu_train_batch_size`: None
363
+ - `per_gpu_eval_batch_size`: None
364
+ - `gradient_accumulation_steps`: 1
365
+ - `eval_accumulation_steps`: None
366
+ - `torch_empty_cache_steps`: None
367
+ - `learning_rate`: 3e-05
368
+ - `weight_decay`: 0.0
369
+ - `adam_beta1`: 0.9
370
+ - `adam_beta2`: 0.999
371
+ - `adam_epsilon`: 1e-08
372
+ - `max_grad_norm`: 1.0
373
+ - `num_train_epochs`: 5
374
+ - `max_steps`: -1
375
+ - `lr_scheduler_type`: linear
376
+ - `lr_scheduler_kwargs`: {}
377
+ - `warmup_ratio`: 0.05
378
+ - `warmup_steps`: 0
379
+ - `log_level`: passive
380
+ - `log_level_replica`: warning
381
+ - `log_on_each_node`: True
382
+ - `logging_nan_inf_filter`: True
383
+ - `save_safetensors`: True
384
+ - `save_on_each_node`: False
385
+ - `save_only_model`: False
386
+ - `restore_callback_states_from_checkpoint`: False
387
+ - `no_cuda`: False
388
+ - `use_cpu`: False
389
+ - `use_mps_device`: False
390
+ - `seed`: 42
391
+ - `data_seed`: None
392
+ - `jit_mode_eval`: False
393
+ - `use_ipex`: False
394
+ - `bf16`: False
395
+ - `fp16`: True
396
+ - `fp16_opt_level`: O1
397
+ - `half_precision_backend`: auto
398
+ - `bf16_full_eval`: False
399
+ - `fp16_full_eval`: False
400
+ - `tf32`: None
401
+ - `local_rank`: 0
402
+ - `ddp_backend`: None
403
+ - `tpu_num_cores`: None
404
+ - `tpu_metrics_debug`: False
405
+ - `debug`: []
406
+ - `dataloader_drop_last`: True
407
+ - `dataloader_num_workers`: 0
408
+ - `dataloader_prefetch_factor`: None
409
+ - `past_index`: -1
410
+ - `disable_tqdm`: False
411
+ - `remove_unused_columns`: True
412
+ - `label_names`: None
413
+ - `load_best_model_at_end`: False
414
+ - `ignore_data_skip`: False
415
+ - `fsdp`: []
416
+ - `fsdp_min_num_params`: 0
417
+ - `fsdp_config`: {'min_num_params': 0, 'xla': False, 'xla_fsdp_v2': False, 'xla_fsdp_grad_ckpt': False}
418
+ - `fsdp_transformer_layer_cls_to_wrap`: None
419
+ - `accelerator_config`: {'split_batches': False, 'dispatch_batches': None, 'even_batches': True, 'use_seedable_sampler': True, 'non_blocking': False, 'gradient_accumulation_kwargs': None}
420
+ - `deepspeed`: None
421
+ - `label_smoothing_factor`: 0.0
422
+ - `optim`: adamw_torch
423
+ - `optim_args`: None
424
+ - `adafactor`: False
425
+ - `group_by_length`: False
426
+ - `length_column_name`: length
427
+ - `ddp_find_unused_parameters`: None
428
+ - `ddp_bucket_cap_mb`: None
429
+ - `ddp_broadcast_buffers`: False
430
+ - `dataloader_pin_memory`: True
431
+ - `dataloader_persistent_workers`: False
432
+ - `skip_memory_metrics`: True
433
+ - `use_legacy_prediction_loop`: False
434
+ - `push_to_hub`: False
435
+ - `resume_from_checkpoint`: None
436
+ - `hub_model_id`: None
437
+ - `hub_strategy`: every_save
438
+ - `hub_private_repo`: False
439
+ - `hub_always_push`: False
440
+ - `gradient_checkpointing`: False
441
+ - `gradient_checkpointing_kwargs`: None
442
+ - `include_inputs_for_metrics`: False
443
+ - `eval_do_concat_batches`: True
444
+ - `fp16_backend`: auto
445
+ - `push_to_hub_model_id`: None
446
+ - `push_to_hub_organization`: None
447
+ - `mp_parameters`:
448
+ - `auto_find_batch_size`: False
449
+ - `full_determinism`: False
450
+ - `torchdynamo`: None
451
+ - `ray_scope`: last
452
+ - `ddp_timeout`: 1800
453
+ - `torch_compile`: False
454
+ - `torch_compile_backend`: None
455
+ - `torch_compile_mode`: None
456
+ - `dispatch_batches`: None
457
+ - `split_batches`: None
458
+ - `include_tokens_per_second`: False
459
+ - `include_num_input_tokens_seen`: False
460
+ - `neftune_noise_alpha`: None
461
+ - `optim_target_modules`: None
462
+ - `batch_eval_metrics`: False
463
+ - `eval_on_start`: False
464
+ - `eval_use_gather_object`: False
465
+ - `batch_sampler`: no_duplicates
466
+ - `multi_dataset_batch_sampler`: proportional
467
+
468
+ </details>
469
+
470
+ ### Training Logs
471
+ <details><summary>Click to expand</summary>
472
+
473
+ | Epoch | Step | Training Loss |
474
+ |:------:|:----:|:-------------:|
475
+ | 0.0085 | 1 | 1.3027 |
476
+ | 0.0171 | 2 | 1.3225 |
477
+ | 0.0256 | 3 | 1.2947 |
478
+ | 0.0342 | 4 | 1.2816 |
479
+ | 0.0427 | 5 | 1.2586 |
480
+ | 0.0513 | 6 | 1.1569 |
481
+ | 0.0598 | 7 | 0.9937 |
482
+ | 0.0684 | 8 | 0.927 |
483
+ | 0.0769 | 9 | 0.7317 |
484
+ | 0.0855 | 10 | 0.6074 |
485
+ | 0.0940 | 11 | 0.539 |
486
+ | 0.1026 | 12 | 0.4646 |
487
+ | 0.1111 | 13 | 0.4067 |
488
+ | 0.1197 | 14 | 0.3811 |
489
+ | 0.1282 | 15 | 0.3346 |
490
+ | 0.1368 | 16 | 0.3451 |
491
+ | 0.1453 | 17 | 0.3241 |
492
+ | 0.1538 | 18 | 0.3001 |
493
+ | 0.1624 | 19 | 0.2788 |
494
+ | 0.1709 | 20 | 0.2673 |
495
+ | 0.1795 | 21 | 0.2488 |
496
+ | 0.1880 | 22 | 0.2499 |
497
+ | 0.1966 | 23 | 0.2423 |
498
+ | 0.2051 | 24 | 0.2394 |
499
+ | 0.2137 | 25 | 0.2225 |
500
+ | 0.2222 | 26 | 0.2254 |
501
+ | 0.2308 | 27 | 0.2132 |
502
+ | 0.2393 | 28 | 0.2223 |
503
+ | 0.2479 | 29 | 0.2096 |
504
+ | 0.2564 | 30 | 0.1923 |
505
+ | 0.2650 | 31 | 0.1906 |
506
+ | 0.2735 | 32 | 0.1975 |
507
+ | 0.2821 | 33 | 0.1916 |
508
+ | 0.2906 | 34 | 0.1907 |
509
+ | 0.2991 | 35 | 0.1885 |
510
+ | 0.3077 | 36 | 0.1853 |
511
+ | 0.3162 | 37 | 0.1868 |
512
+ | 0.3248 | 38 | 0.1729 |
513
+ | 0.3333 | 39 | 0.1781 |
514
+ | 0.3419 | 40 | 0.1681 |
515
+ | 0.3504 | 41 | 0.1757 |
516
+ | 0.3590 | 42 | 0.1739 |
517
+ | 0.3675 | 43 | 0.166 |
518
+ | 0.3761 | 44 | 0.1709 |
519
+ | 0.3846 | 45 | 0.1748 |
520
+ | 0.3932 | 46 | 0.1711 |
521
+ | 0.4017 | 47 | 0.1548 |
522
+ | 0.4103 | 48 | 0.1647 |
523
+ | 0.4188 | 49 | 0.1633 |
524
+ | 0.4274 | 50 | 0.1618 |
525
+ | 0.4359 | 51 | 0.1573 |
526
+ | 0.4444 | 52 | 0.1595 |
527
+ | 0.4530 | 53 | 0.1609 |
528
+ | 0.4615 | 54 | 0.1563 |
529
+ | 0.4701 | 55 | 0.1585 |
530
+ | 0.4786 | 56 | 0.1569 |
531
+ | 0.4872 | 57 | 0.1591 |
532
+ | 0.4957 | 58 | 0.1433 |
533
+ | 0.5043 | 59 | 0.1536 |
534
+ | 0.5128 | 60 | 0.1504 |
535
+ | 0.5214 | 61 | 0.152 |
536
+ | 0.5299 | 62 | 0.1455 |
537
+ | 0.5385 | 63 | 0.1497 |
538
+ | 0.5470 | 64 | 0.147 |
539
+ | 0.5556 | 65 | 0.1476 |
540
+ | 0.5641 | 66 | 0.1504 |
541
+ | 0.5726 | 67 | 0.1503 |
542
+ | 0.5812 | 68 | 0.15 |
543
+ | 0.5897 | 69 | 0.1492 |
544
+ | 0.5983 | 70 | 0.1571 |
545
+ | 0.6068 | 71 | 0.1454 |
546
+ | 0.6154 | 72 | 0.1481 |
547
+ | 0.6239 | 73 | 0.1443 |
548
+ | 0.6325 | 74 | 0.1428 |
549
+ | 0.6410 | 75 | 0.1469 |
550
+ | 0.6496 | 76 | 0.1433 |
551
+ | 0.6581 | 77 | 0.146 |
552
+ | 0.6667 | 78 | 0.1452 |
553
+ | 0.6752 | 79 | 0.1427 |
554
+ | 0.6838 | 80 | 0.1419 |
555
+ | 0.6923 | 81 | 0.1349 |
556
+ | 0.7009 | 82 | 0.1406 |
557
+ | 0.7094 | 83 | 0.133 |
558
+ | 0.7179 | 84 | 0.1403 |
559
+ | 0.7265 | 85 | 0.136 |
560
+ | 0.7350 | 86 | 0.1396 |
561
+ | 0.7436 | 87 | 0.141 |
562
+ | 0.7521 | 88 | 0.1496 |
563
+ | 0.7607 | 89 | 0.1462 |
564
+ | 0.7692 | 90 | 0.1428 |
565
+ | 0.7778 | 91 | 0.1438 |
566
+ | 0.7863 | 92 | 0.146 |
567
+ | 0.7949 | 93 | 0.1409 |
568
+ | 0.8034 | 94 | 0.1355 |
569
+ | 0.8120 | 95 | 0.1363 |
570
+ | 0.8205 | 96 | 0.1359 |
571
+ | 0.8291 | 97 | 0.1353 |
572
+ | 0.8376 | 98 | 0.1399 |
573
+ | 0.8462 | 99 | 0.1481 |
574
+ | 0.8547 | 100 | 0.1419 |
575
+ | 0.8632 | 101 | 0.1368 |
576
+ | 0.8718 | 102 | 0.13 |
577
+ | 0.8803 | 103 | 0.1467 |
578
+ | 0.8889 | 104 | 0.1354 |
579
+ | 0.8974 | 105 | 0.1335 |
580
+ | 0.9060 | 106 | 0.1411 |
581
+ | 0.9145 | 107 | 0.1298 |
582
+ | 0.9231 | 108 | 0.1468 |
583
+ | 0.9316 | 109 | 0.1402 |
584
+ | 0.9402 | 110 | 0.132 |
585
+ | 0.9487 | 111 | 0.1343 |
586
+ | 0.9573 | 112 | 0.1255 |
587
+ | 0.9658 | 113 | 0.1371 |
588
+ | 0.9744 | 114 | 0.1263 |
589
+ | 0.9829 | 115 | 0.1326 |
590
+ | 0.9915 | 116 | 0.1305 |
591
+ | 1.0 | 117 | 0.1316 |
592
+ | 1.0085 | 118 | 0.137 |
593
+ | 1.0171 | 119 | 0.1349 |
594
+ | 1.0256 | 120 | 0.1278 |
595
+ | 1.0342 | 121 | 0.1364 |
596
+ | 1.0427 | 122 | 0.1307 |
597
+ | 1.0513 | 123 | 0.1276 |
598
+ | 1.0598 | 124 | 0.1312 |
599
+ | 1.0684 | 125 | 0.1333 |
600
+ | 1.0769 | 126 | 0.1369 |
601
+ | 1.0855 | 127 | 0.1275 |
602
+ | 1.0940 | 128 | 0.1278 |
603
+ | 1.1026 | 129 | 0.1242 |
604
+ | 1.1111 | 130 | 0.1218 |
605
+ | 1.1197 | 131 | 0.1273 |
606
+ | 1.1282 | 132 | 0.1307 |
607
+ | 1.1368 | 133 | 0.1281 |
608
+ | 1.1453 | 134 | 0.1253 |
609
+ | 1.1538 | 135 | 0.1235 |
610
+ | 1.1624 | 136 | 0.1175 |
611
+ | 1.1709 | 137 | 0.121 |
612
+ | 1.1795 | 138 | 0.1144 |
613
+ | 1.1880 | 139 | 0.1159 |
614
+ | 1.1966 | 140 | 0.1122 |
615
+ | 1.2051 | 141 | 0.1122 |
616
+ | 1.2137 | 142 | 0.1105 |
617
+ | 1.2222 | 143 | 0.1161 |
618
+ | 1.2308 | 144 | 0.1169 |
619
+ | 1.2393 | 145 | 0.117 |
620
+ | 1.2479 | 146 | 0.1149 |
621
+ | 1.2564 | 147 | 0.105 |
622
+ | 1.2650 | 148 | 0.1094 |
623
+ | 1.2735 | 149 | 0.1102 |
624
+ | 1.2821 | 150 | 0.1094 |
625
+ | 1.2906 | 151 | 0.1134 |
626
+ | 1.2991 | 152 | 0.1088 |
627
+ | 1.3077 | 153 | 0.1113 |
628
+ | 1.3162 | 154 | 0.1081 |
629
+ | 1.3248 | 155 | 0.1072 |
630
+ | 1.3333 | 156 | 0.1146 |
631
+ | 1.3419 | 157 | 0.1015 |
632
+ | 1.3504 | 158 | 0.1079 |
633
+ | 1.3590 | 159 | 0.1136 |
634
+ | 1.3675 | 160 | 0.1074 |
635
+ | 1.3761 | 161 | 0.1088 |
636
+ | 1.3846 | 162 | 0.1089 |
637
+ | 1.3932 | 163 | 0.1131 |
638
+ | 1.4017 | 164 | 0.1008 |
639
+ | 1.4103 | 165 | 0.1099 |
640
+ | 1.4188 | 166 | 0.1068 |
641
+ | 1.4274 | 167 | 0.1119 |
642
+ | 1.4359 | 168 | 0.1048 |
643
+ | 1.4444 | 169 | 0.1069 |
644
+ | 1.4530 | 170 | 0.1088 |
645
+ | 1.4615 | 171 | 0.1046 |
646
+ | 1.4701 | 172 | 0.108 |
647
+ | 1.4786 | 173 | 0.1064 |
648
+ | 1.4872 | 174 | 0.1121 |
649
+ | 1.4957 | 175 | 0.1004 |
650
+ | 1.5043 | 176 | 0.1115 |
651
+ | 1.5128 | 177 | 0.1059 |
652
+ | 1.5214 | 178 | 0.1068 |
653
+ | 1.5299 | 179 | 0.1058 |
654
+ | 1.5385 | 180 | 0.106 |
655
+ | 1.5470 | 181 | 0.103 |
656
+ | 1.5556 | 182 | 0.1061 |
657
+ | 1.5641 | 183 | 0.1053 |
658
+ | 1.5726 | 184 | 0.1108 |
659
+ | 1.5812 | 185 | 0.1068 |
660
+ | 1.5897 | 186 | 0.1055 |
661
+ | 1.5983 | 187 | 0.1131 |
662
+ | 1.6068 | 188 | 0.1063 |
663
+ | 1.6154 | 189 | 0.1087 |
664
+ | 1.6239 | 190 | 0.104 |
665
+ | 1.6325 | 191 | 0.1069 |
666
+ | 1.6410 | 192 | 0.105 |
667
+ | 1.6496 | 193 | 0.1046 |
668
+ | 1.6581 | 194 | 0.1091 |
669
+ | 1.6667 | 195 | 0.1071 |
670
+ | 1.6752 | 196 | 0.1057 |
671
+ | 1.6838 | 197 | 0.106 |
672
+ | 1.6923 | 198 | 0.1024 |
673
+ | 1.7009 | 199 | 0.1026 |
674
+ | 1.7094 | 200 | 0.0984 |
675
+ | 1.7179 | 201 | 0.1026 |
676
+ | 1.7265 | 202 | 0.1024 |
677
+ | 1.7350 | 203 | 0.1049 |
678
+ | 1.7436 | 204 | 0.1053 |
679
+ | 1.7521 | 205 | 0.1139 |
680
+ | 1.7607 | 206 | 0.1117 |
681
+ | 1.7692 | 207 | 0.1071 |
682
+ | 1.7778 | 208 | 0.1065 |
683
+ | 1.7863 | 209 | 0.11 |
684
+ | 1.7949 | 210 | 0.1058 |
685
+ | 1.8034 | 211 | 0.1025 |
686
+ | 1.8120 | 212 | 0.1077 |
687
+ | 1.8205 | 213 | 0.1041 |
688
+ | 1.8291 | 214 | 0.1029 |
689
+ | 1.8376 | 215 | 0.1067 |
690
+ | 1.8462 | 216 | 0.1103 |
691
+ | 1.8547 | 217 | 0.1058 |
692
+ | 1.8632 | 218 | 0.105 |
693
+ | 1.8718 | 219 | 0.0979 |
694
+ | 1.8803 | 220 | 0.1131 |
695
+ | 1.8889 | 221 | 0.1066 |
696
+ | 1.8974 | 222 | 0.1021 |
697
+ | 1.9060 | 223 | 0.1091 |
698
+ | 1.9145 | 224 | 0.0985 |
699
+ | 1.9231 | 225 | 0.1115 |
700
+ | 1.9316 | 226 | 0.1071 |
701
+ | 1.9402 | 227 | 0.104 |
702
+ | 1.9487 | 228 | 0.1035 |
703
+ | 1.9573 | 229 | 0.0968 |
704
+ | 1.9658 | 230 | 0.1068 |
705
+ | 1.9744 | 231 | 0.1004 |
706
+ | 1.9829 | 232 | 0.1034 |
707
+ | 1.9915 | 233 | 0.1005 |
708
+ | 2.0 | 234 | 0.1026 |
709
+ | 2.0085 | 235 | 0.1023 |
710
+ | 2.0171 | 236 | 0.1041 |
711
+ | 2.0256 | 237 | 0.1016 |
712
+ | 2.0342 | 238 | 0.1048 |
713
+ | 2.0427 | 239 | 0.1024 |
714
+ | 2.0513 | 240 | 0.1006 |
715
+ | 2.0598 | 241 | 0.1014 |
716
+ | 2.0684 | 242 | 0.1056 |
717
+ | 2.0769 | 243 | 0.1051 |
718
+ | 2.0855 | 244 | 0.1014 |
719
+ | 2.0940 | 245 | 0.0969 |
720
+ | 2.1026 | 246 | 0.0994 |
721
+ | 2.1111 | 247 | 0.0979 |
722
+ | 2.1197 | 248 | 0.1035 |
723
+ | 2.1282 | 249 | 0.1004 |
724
+ | 2.1368 | 250 | 0.0998 |
725
+ | 2.1453 | 251 | 0.0982 |
726
+ | 2.1538 | 252 | 0.099 |
727
+ | 2.1624 | 253 | 0.0957 |
728
+ | 2.1709 | 254 | 0.0975 |
729
+ | 2.1795 | 255 | 0.0947 |
730
+ | 2.1880 | 256 | 0.0958 |
731
+ | 2.1966 | 257 | 0.0921 |
732
+ | 2.2051 | 258 | 0.0959 |
733
+ | 2.2137 | 259 | 0.0904 |
734
+ | 2.2222 | 260 | 0.0961 |
735
+ | 2.2308 | 261 | 0.0934 |
736
+ | 2.2393 | 262 | 0.0958 |
737
+ | 2.2479 | 263 | 0.0958 |
738
+ | 2.2564 | 264 | 0.0864 |
739
+ | 2.2650 | 265 | 0.0903 |
740
+ | 2.2735 | 266 | 0.0897 |
741
+ | 2.2821 | 267 | 0.0917 |
742
+ | 2.2906 | 268 | 0.0938 |
743
+ | 2.2991 | 269 | 0.0916 |
744
+ | 2.3077 | 270 | 0.0926 |
745
+ | 2.3162 | 271 | 0.09 |
746
+ | 2.3248 | 272 | 0.0897 |
747
+ | 2.3333 | 273 | 0.0931 |
748
+ | 2.3419 | 274 | 0.0864 |
749
+ | 2.3504 | 275 | 0.0904 |
750
+ | 2.3590 | 276 | 0.0937 |
751
+ | 2.3675 | 277 | 0.0876 |
752
+ | 2.3761 | 278 | 0.0894 |
753
+ | 2.3846 | 279 | 0.0912 |
754
+ | 2.3932 | 280 | 0.0949 |
755
+ | 2.4017 | 281 | 0.0874 |
756
+ | 2.4103 | 282 | 0.0916 |
757
+ | 2.4188 | 283 | 0.0908 |
758
+ | 2.4274 | 284 | 0.0926 |
759
+ | 2.4359 | 285 | 0.087 |
760
+ | 2.4444 | 286 | 0.0896 |
761
+ | 2.4530 | 287 | 0.0904 |
762
+ | 2.4615 | 288 | 0.0879 |
763
+ | 2.4701 | 289 | 0.0901 |
764
+ | 2.4786 | 290 | 0.0885 |
765
+ | 2.4872 | 291 | 0.0938 |
766
+ | 2.4957 | 292 | 0.0852 |
767
+ | 2.5043 | 293 | 0.0936 |
768
+ | 2.5128 | 294 | 0.0889 |
769
+ | 2.5214 | 295 | 0.0895 |
770
+ | 2.5299 | 296 | 0.0851 |
771
+ | 2.5385 | 297 | 0.0894 |
772
+ | 2.5470 | 298 | 0.0849 |
773
+ | 2.5556 | 299 | 0.0902 |
774
+ | 2.5641 | 300 | 0.0906 |
775
+ | 2.5726 | 301 | 0.0892 |
776
+ | 2.5812 | 302 | 0.092 |
777
+ | 2.5897 | 303 | 0.0883 |
778
+ | 2.5983 | 304 | 0.0902 |
779
+ | 2.6068 | 305 | 0.0911 |
780
+ | 2.6154 | 306 | 0.0921 |
781
+ | 2.6239 | 307 | 0.0873 |
782
+ | 2.6325 | 308 | 0.0899 |
783
+ | 2.6410 | 309 | 0.0902 |
784
+ | 2.6496 | 310 | 0.0892 |
785
+ | 2.6581 | 311 | 0.0909 |
786
+ | 2.6667 | 312 | 0.0889 |
787
+ | 2.6752 | 313 | 0.0885 |
788
+ | 2.6838 | 314 | 0.0881 |
789
+ | 2.6923 | 315 | 0.0838 |
790
+ | 2.7009 | 316 | 0.0845 |
791
+ | 2.7094 | 317 | 0.0839 |
792
+ | 2.7179 | 318 | 0.0897 |
793
+ | 2.7265 | 319 | 0.0853 |
794
+ | 2.7350 | 320 | 0.0893 |
795
+ | 2.7436 | 321 | 0.0883 |
796
+ | 2.7521 | 322 | 0.0952 |
797
+ | 2.7607 | 323 | 0.0937 |
798
+ | 2.7692 | 324 | 0.0914 |
799
+ | 2.7778 | 325 | 0.0911 |
800
+ | 2.7863 | 326 | 0.0931 |
801
+ | 2.7949 | 327 | 0.0921 |
802
+ | 2.8034 | 328 | 0.0893 |
803
+ | 2.8120 | 329 | 0.0899 |
804
+ | 2.8205 | 330 | 0.0896 |
805
+ | 2.8291 | 331 | 0.0881 |
806
+ | 2.8376 | 332 | 0.089 |
807
+ | 2.8462 | 333 | 0.0945 |
808
+ | 2.8547 | 334 | 0.0935 |
809
+ | 2.8632 | 335 | 0.0879 |
810
+ | 2.8718 | 336 | 0.0844 |
811
+ | 2.8803 | 337 | 0.0964 |
812
+ | 2.8889 | 338 | 0.0884 |
813
+ | 2.8974 | 339 | 0.0873 |
814
+ | 2.9060 | 340 | 0.0907 |
815
+ | 2.9145 | 341 | 0.0844 |
816
+ | 2.9231 | 342 | 0.0951 |
817
+ | 2.9316 | 343 | 0.0923 |
818
+ | 2.9402 | 344 | 0.0889 |
819
+ | 2.9487 | 345 | 0.0887 |
820
+ | 2.9573 | 346 | 0.0839 |
821
+ | 2.9658 | 347 | 0.0913 |
822
+ | 2.9744 | 348 | 0.0858 |
823
+ | 2.9829 | 349 | 0.0889 |
824
+ | 2.9915 | 350 | 0.0873 |
825
+ | 3.0 | 351 | 0.0888 |
826
+ | 3.0085 | 352 | 0.0873 |
827
+ | 3.0171 | 353 | 0.089 |
828
+ | 3.0256 | 354 | 0.0835 |
829
+ | 3.0342 | 355 | 0.091 |
830
+ | 3.0427 | 356 | 0.0865 |
831
+ | 3.0513 | 357 | 0.0872 |
832
+ | 3.0598 | 358 | 0.0849 |
833
+ | 3.0684 | 359 | 0.0922 |
834
+ | 3.0769 | 360 | 0.0915 |
835
+ | 3.0855 | 361 | 0.089 |
836
+ | 3.0940 | 362 | 0.0854 |
837
+ | 3.1026 | 363 | 0.0842 |
838
+ | 3.1111 | 364 | 0.0835 |
839
+ | 3.1197 | 365 | 0.0889 |
840
+ | 3.1282 | 366 | 0.0872 |
841
+ | 3.1368 | 367 | 0.0871 |
842
+ | 3.1453 | 368 | 0.0859 |
843
+ | 3.1538 | 369 | 0.0866 |
844
+ | 3.1624 | 370 | 0.0831 |
845
+ | 3.1709 | 371 | 0.0855 |
846
+ | 3.1795 | 372 | 0.0813 |
847
+ | 3.1880 | 373 | 0.0817 |
848
+ | 3.1966 | 374 | 0.0821 |
849
+ | 3.2051 | 375 | 0.0843 |
850
+ | 3.2137 | 376 | 0.0807 |
851
+ | 3.2222 | 377 | 0.0856 |
852
+ | 3.2308 | 378 | 0.0833 |
853
+ | 3.2393 | 379 | 0.0954 |
854
+ | 3.2479 | 380 | 0.0846 |
855
+ | 3.2564 | 381 | 0.0779 |
856
+ | 3.2650 | 382 | 0.0791 |
857
+ | 3.2735 | 383 | 0.0825 |
858
+ | 3.2821 | 384 | 0.0825 |
859
+ | 3.2906 | 385 | 0.0828 |
860
+ | 3.2991 | 386 | 0.0783 |
861
+ | 3.3077 | 387 | 0.0796 |
862
+ | 3.3162 | 388 | 0.0807 |
863
+ | 3.3248 | 389 | 0.0782 |
864
+ | 3.3333 | 390 | 0.0823 |
865
+ | 3.3419 | 391 | 0.0787 |
866
+ | 3.3504 | 392 | 0.0805 |
867
+ | 3.3590 | 393 | 0.0824 |
868
+ | 3.3675 | 394 | 0.0792 |
869
+ | 3.3761 | 395 | 0.0813 |
870
+ | 3.3846 | 396 | 0.0786 |
871
+ | 3.3932 | 397 | 0.0827 |
872
+ | 3.4017 | 398 | 0.075 |
873
+ | 3.4103 | 399 | 0.0804 |
874
+ | 3.4188 | 400 | 0.0797 |
875
+ | 3.4274 | 401 | 0.0812 |
876
+ | 3.4359 | 402 | 0.0776 |
877
+ | 3.4444 | 403 | 0.0792 |
878
+ | 3.4530 | 404 | 0.0817 |
879
+ | 3.4615 | 405 | 0.0771 |
880
+ | 3.4701 | 406 | 0.0792 |
881
+ | 3.4786 | 407 | 0.0795 |
882
+ | 3.4872 | 408 | 0.0821 |
883
+ | 3.4957 | 409 | 0.0751 |
884
+ | 3.5043 | 410 | 0.0827 |
885
+ | 3.5128 | 411 | 0.0791 |
886
+ | 3.5214 | 412 | 0.0805 |
887
+ | 3.5299 | 413 | 0.0776 |
888
+
889
+ </details>
890
+
891
+ ### Framework Versions
892
+ - Python: 3.10.12
893
+ - Sentence Transformers: 3.2.1
894
+ - Transformers: 4.44.2
895
+ - PyTorch: 2.3.1+cu121
896
+ - Accelerate: 1.1.1
897
+ - Datasets: 2.21.0
898
+ - Tokenizers: 0.19.1
899
+
900
+ ## Citation
901
+
902
+ ### BibTeX
903
+
904
+ #### Sentence Transformers
905
+ ```bibtex
906
+ @inproceedings{reimers-2019-sentence-bert,
907
+ title = "Sentence-BERT: Sentence Embeddings using Siamese BERT-Networks",
908
+ author = "Reimers, Nils and Gurevych, Iryna",
909
+ booktitle = "Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing",
910
+ month = "11",
911
+ year = "2019",
912
+ publisher = "Association for Computational Linguistics",
913
+ url = "https://arxiv.org/abs/1908.10084",
914
+ }
915
+ ```
916
+
917
+ #### CachedMultipleNegativesRankingLoss
918
+ ```bibtex
919
+ @misc{gao2021scaling,
920
+ title={Scaling Deep Contrastive Learning Batch Size under Memory Limited Setup},
921
+ author={Luyu Gao and Yunyi Zhang and Jiawei Han and Jamie Callan},
922
+ year={2021},
923
+ eprint={2101.06983},
924
+ archivePrefix={arXiv},
925
+ primaryClass={cs.LG}
926
+ }
927
+ ```
928
+
929
+ <!--
930
+ ## Glossary
931
+
932
+ *Clearly define terms in order to be accessible across audiences.*
933
+ -->
934
+
935
+ <!--
936
+ ## Model Card Authors
937
+
938
+ *Lists the people who create the model card, providing recognition and accountability for the detailed work that goes into its construction.*
939
+ -->
940
+
941
+ <!--
942
+ ## Model Card Contact
943
+
944
+ *Provides a way for people who have updates to the Model Card, suggestions, or questions, to contact the Model Card authors.*
945
+ -->
config.json ADDED
@@ -0,0 +1,28 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ {
2
+ "_name_or_path": "/root/models/bge-m3-kor-retrieval-451949-bs512/checkpoint-413",
3
+ "architectures": [
4
+ "XLMRobertaModel"
5
+ ],
6
+ "attention_probs_dropout_prob": 0.1,
7
+ "bos_token_id": 0,
8
+ "classifier_dropout": null,
9
+ "eos_token_id": 2,
10
+ "hidden_act": "gelu",
11
+ "hidden_dropout_prob": 0.1,
12
+ "hidden_size": 1024,
13
+ "initializer_range": 0.02,
14
+ "intermediate_size": 4096,
15
+ "layer_norm_eps": 1e-05,
16
+ "max_position_embeddings": 8194,
17
+ "model_type": "xlm-roberta",
18
+ "num_attention_heads": 16,
19
+ "num_hidden_layers": 24,
20
+ "output_past": true,
21
+ "pad_token_id": 1,
22
+ "position_embedding_type": "absolute",
23
+ "torch_dtype": "float32",
24
+ "transformers_version": "4.44.2",
25
+ "type_vocab_size": 1,
26
+ "use_cache": true,
27
+ "vocab_size": 250002
28
+ }
config_sentence_transformers.json ADDED
@@ -0,0 +1,10 @@
 
 
 
 
 
 
 
 
 
 
 
1
+ {
2
+ "__version__": {
3
+ "sentence_transformers": "3.2.1",
4
+ "transformers": "4.44.2",
5
+ "pytorch": "2.3.1+cu121"
6
+ },
7
+ "prompts": {},
8
+ "default_prompt_name": null,
9
+ "similarity_fn_name": null
10
+ }
model.safetensors ADDED
@@ -0,0 +1,3 @@
 
 
 
 
1
+ version https://git-lfs.github.com/spec/v1
2
+ oid sha256:df2bc944da6f598a86e03c6a5d7640477db5ecf5b91ddec0d36b1dcedacc7ac6
3
+ size 2271064456
modules.json ADDED
@@ -0,0 +1,20 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ [
2
+ {
3
+ "idx": 0,
4
+ "name": "0",
5
+ "path": "",
6
+ "type": "sentence_transformers.models.Transformer"
7
+ },
8
+ {
9
+ "idx": 1,
10
+ "name": "1",
11
+ "path": "1_Pooling",
12
+ "type": "sentence_transformers.models.Pooling"
13
+ },
14
+ {
15
+ "idx": 2,
16
+ "name": "2",
17
+ "path": "2_Normalize",
18
+ "type": "sentence_transformers.models.Normalize"
19
+ }
20
+ ]
sentence_bert_config.json ADDED
@@ -0,0 +1,4 @@
 
 
 
 
 
1
+ {
2
+ "max_seq_length": 1024,
3
+ "do_lower_case": false
4
+ }
special_tokens_map.json ADDED
@@ -0,0 +1,51 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ {
2
+ "bos_token": {
3
+ "content": "<s>",
4
+ "lstrip": false,
5
+ "normalized": false,
6
+ "rstrip": false,
7
+ "single_word": false
8
+ },
9
+ "cls_token": {
10
+ "content": "<s>",
11
+ "lstrip": false,
12
+ "normalized": false,
13
+ "rstrip": false,
14
+ "single_word": false
15
+ },
16
+ "eos_token": {
17
+ "content": "</s>",
18
+ "lstrip": false,
19
+ "normalized": false,
20
+ "rstrip": false,
21
+ "single_word": false
22
+ },
23
+ "mask_token": {
24
+ "content": "<mask>",
25
+ "lstrip": true,
26
+ "normalized": false,
27
+ "rstrip": false,
28
+ "single_word": false
29
+ },
30
+ "pad_token": {
31
+ "content": "<pad>",
32
+ "lstrip": false,
33
+ "normalized": false,
34
+ "rstrip": false,
35
+ "single_word": false
36
+ },
37
+ "sep_token": {
38
+ "content": "</s>",
39
+ "lstrip": false,
40
+ "normalized": false,
41
+ "rstrip": false,
42
+ "single_word": false
43
+ },
44
+ "unk_token": {
45
+ "content": "<unk>",
46
+ "lstrip": false,
47
+ "normalized": false,
48
+ "rstrip": false,
49
+ "single_word": false
50
+ }
51
+ }
tokenizer.json ADDED
@@ -0,0 +1,3 @@
 
 
 
 
1
+ version https://git-lfs.github.com/spec/v1
2
+ oid sha256:6e3b8957de04e3a4ed42b1a11381556f9adad8d0d502b9dd071c75f626b28f40
3
+ size 17083053
tokenizer_config.json ADDED
@@ -0,0 +1,62 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ {
2
+ "added_tokens_decoder": {
3
+ "0": {
4
+ "content": "<s>",
5
+ "lstrip": false,
6
+ "normalized": false,
7
+ "rstrip": false,
8
+ "single_word": false,
9
+ "special": true
10
+ },
11
+ "1": {
12
+ "content": "<pad>",
13
+ "lstrip": false,
14
+ "normalized": false,
15
+ "rstrip": false,
16
+ "single_word": false,
17
+ "special": true
18
+ },
19
+ "2": {
20
+ "content": "</s>",
21
+ "lstrip": false,
22
+ "normalized": false,
23
+ "rstrip": false,
24
+ "single_word": false,
25
+ "special": true
26
+ },
27
+ "3": {
28
+ "content": "<unk>",
29
+ "lstrip": false,
30
+ "normalized": false,
31
+ "rstrip": false,
32
+ "single_word": false,
33
+ "special": true
34
+ },
35
+ "250001": {
36
+ "content": "<mask>",
37
+ "lstrip": true,
38
+ "normalized": false,
39
+ "rstrip": false,
40
+ "single_word": false,
41
+ "special": true
42
+ }
43
+ },
44
+ "bos_token": "<s>",
45
+ "clean_up_tokenization_spaces": true,
46
+ "cls_token": "<s>",
47
+ "eos_token": "</s>",
48
+ "mask_token": "<mask>",
49
+ "max_length": 1024,
50
+ "model_max_length": 1024,
51
+ "pad_to_multiple_of": null,
52
+ "pad_token": "<pad>",
53
+ "pad_token_type_id": 0,
54
+ "padding_side": "right",
55
+ "sep_token": "</s>",
56
+ "sp_model_kwargs": {},
57
+ "stride": 0,
58
+ "tokenizer_class": "XLMRobertaTokenizer",
59
+ "truncation_side": "right",
60
+ "truncation_strategy": "longest_first",
61
+ "unk_token": "<unk>"
62
+ }