seongil-dn commited on
Commit
0d4abeb
·
verified ·
1 Parent(s): 5cd222d

Add new SentenceTransformer model

Browse files
.gitattributes CHANGED
@@ -33,3 +33,4 @@ saved_model/**/* filter=lfs diff=lfs merge=lfs -text
33
  *.zip filter=lfs diff=lfs merge=lfs -text
34
  *.zst filter=lfs diff=lfs merge=lfs -text
35
  *tfevents* filter=lfs diff=lfs merge=lfs -text
 
 
33
  *.zip filter=lfs diff=lfs merge=lfs -text
34
  *.zst filter=lfs diff=lfs merge=lfs -text
35
  *tfevents* filter=lfs diff=lfs merge=lfs -text
36
+ tokenizer.json filter=lfs diff=lfs merge=lfs -text
1_Pooling/config.json ADDED
@@ -0,0 +1,10 @@
 
 
 
 
 
 
 
 
 
 
 
1
+ {
2
+ "word_embedding_dimension": 1024,
3
+ "pooling_mode_cls_token": false,
4
+ "pooling_mode_mean_tokens": true,
5
+ "pooling_mode_max_tokens": false,
6
+ "pooling_mode_mean_sqrt_len_tokens": false,
7
+ "pooling_mode_weightedmean_tokens": false,
8
+ "pooling_mode_lasttoken": false,
9
+ "include_prompt": true
10
+ }
README.md ADDED
@@ -0,0 +1,1474 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ ---
2
+ tags:
3
+ - sentence-transformers
4
+ - sentence-similarity
5
+ - feature-extraction
6
+ - generated_from_trainer
7
+ - dataset_size:482743
8
+ - loss:MultipleNegativesRankingLoss
9
+ base_model: intfloat/multilingual-e5-large
10
+ widget:
11
+ - source_sentence: 울산 암각화 다큐전 일정표를 보면 어떤 다큐가 9월 20일 오전 11시에 있지
12
+ sentences:
13
+ - 울산 암각화박물관, ‘암각화 다큐전’마련 <table><tbody><tr><td>시간 날짜 </td><td>오전11시</td><td>오후1시</td><td>오후2시</td><td>오후3시</td></tr><tr><td>9/19</td><td>코아
14
+ 강, 수천 개의 암각화</td><td>발카모니카 암각화의 세계</td><td>호모사피엔스가 만든 영화</td><td>잊혀진 꿈의 동굴</td></tr><tr><td>9/20</td><td>잊혀진
15
+ 꿈의 동굴</td><td>코아 강, 수천 개의 암각화</td><td>발카모니카 암각화의 세계</td><td>호모사피엔스가 만든 영화</td></tr><tr><td>9/21</td><td>호모사피엔스가
16
+ 만든 영화</td><td>잊혀진 꿈의 동굴</td><td>코아 강, 수천 개의 암각화</td><td>발카모니카 암각화의 세계</td></tr><tr><td>9/22</td><td>발카모니카
17
+ 암각화의 세계</td><td>호모사피엔스가 만든 영화</td><td>잊혀진 꿈의 동굴</td><td>코아 강, 수천 개의 암각화</td></tr><tr><td>9/23</td><td>코아
18
+ 강, 수천 개의 암각화</td><td>발카모니카 암각화의 세계</td><td>호모사피엔스가 만든 영화</td><td>잊혀진 꿈의 동굴</td></tr><tr><td>9/24</td><td>잊혀진
19
+ 꿈의 동굴</td><td>코아 강, 수천 개의 암각화</td><td>발카모니카 암각화의 세계</td><td>호모사피엔스가 만든 영화</td></tr></tbody></table>
20
+ - '“가을의 문턱에서 문화를 만나다!” <br>◉ 9월 문화가 있는 날 시설참여 현황 <table><tbody><tr><td>기관명</td><td>참여
21
+ 내용</td></tr><tr><td>CGV, 롯데시네마 메가박스 </td><td>❍ 18:00 ∼ 20:00 영화관람료 할인(8천원→5천원)</td></tr><tr><td>현대예술관</td><td>❍
22
+ 공연 : 20시 시작 소공연장 공연(25천원→15천원)<br>❍ 영화 : 18:00 ∼ 20:00 영화관람료 할인(7천원→5천원) - 루시,
23
+ 타짜-신의 손, 두근두근 내 인생, 툼스톤(중복할인 불가) </td></tr><tr><td>블루마씨네 자동차극장 </td><td>❍ 영화관람료
24
+ 50%할인(18,000원 ⇒ 9,000원) - 19:20 ‘타짜-신의손’, ‘툼스톤’ </td></tr><tr><td>피가로아트홀</td><td>❍
25
+ 관람료 할인(정가 30,000원 → 12,000원) - 19시, 21시 연극 ‘진짜 사나이’ </td></tr><tr><td>피에로소극장</td><td>❍
26
+ 관람료 할인(정가 30,000원 → 10,000원) - 18시, 20:30 연극 ‘썸남썸녀’ </td></tr><tr><td>갤러리 라온</td><td>❍
27
+ 문화가 있는 날 미술 강연(무료) - 18:30, 오르세, 들라크루와 미술관편 </td></tr><tr><td>갤러리 아리오소</td><td>❍
28
+ 국악 연주(바람 그리고 우리가락) 무료 - 19:00 ~, 해금, 피리, 아쟁, 타악기 등 연주 </td></tr><tr><td>울산문화예술회관</td><td>❍
29
+ ‘뒤란’ 야외공연: 무료<br>❍ ‘뒤란’ 실내공연 및 예술단공연: 50%할인<br>❍ 전시장 야간개장(오후 10시까지), 대상:갤러리쉼,
30
+ 제1전시장(회관 기획전시) ※대관전시 시 권고 </td></tr><tr><td>북구문화예술회관</td><td>❍ 무료 영화관람 - 19:00
31
+ ~, ‘드레곤 길들이기’</td></tr><tr><td>울주문화예술회관</td><td>❍ 뮤직 인 갤러리, 19:30 ~, 1천원(유료)</td></tr><tr><td>중앙소공연장</td><td>❍
32
+ 대관시간 연장(22시 → 24시)</td></tr><tr><td>울산박물관 옹기박물관 울주민속박물관 </td><td>❍ 야간운영(20시),
33
+ 무료관람 ※ 울산박물관 - ''큐레이터와 함께하는 문화의 밤'' 운영 </td></tr><tr><td>중부·남부·동부<br>·울주옹기종기·약숫골
34
+ 도서관 </td><td>❍ 야간개방(20시 또는 22시)<br>❍ 남, 동부도서관, 16:00~, 동화구연 프로그램 운영 </td></tr><tr><td>인문학서재
35
+ 몽돌</td><td>❍ 각종 기획전시, 공연, 문화행사 무료 제공</td></tr><tr><td>꽃바위문화관</td><td>❍ 하우스 콘서트
36
+ 19:30~20:30(정가 5,000원→ 3,000원)</td></tr><tr><td>외솔기념관</td><td>❍ 야간개방(하절기 21시,
37
+ 동절기 20시)</td></tr><tr><td>문수구장, 야구장, 종합운동장</td><td>❍ 초등학생 이하 자녀와 부모 동반 입장 시 프로경기
38
+ 50% 할인</td></tr></tbody></table>'
39
+ - '제2절 부문별 미래 금융서비스 전망과 시사점
40
+
41
+ 1.금융서비스의 파괴적 혁신 영역
42
+
43
+ □ 세계경제포럼은 금융서비스의 핵심기능을 6개 부문으로 구분
44
+
45
+ ◦ 지급결제(Payments), 보험(Insurance), 예금 및 대출(Deposits and Lending), 자본조달(Capital raising),
46
+ 자산관리(Investment management), 시장조성(Market provision)은 금융서비스가 제공하는 핵심 역할
47
+
48
+ □ 세계경제포럼은 금융서비스의 6개 핵심기능 ��에 11개의 혁신 요소가 존재한다고 분석
49
+
50
+ ◦ 결제 2개, 시장예측 부문 2개, 자산관리 2개, 보험 2개, 예금 및 대출 2개, 자본조달 1개 등 총 11개의 혁신 요소가 금융서비스의
51
+ 대전환을 가져올 것으로 전망'
52
+ - source_sentence: 이론상 어떤 문화의 출발과 함께 유한계급이 존재했지
53
+ sentences:
54
+ - '◼ 프랑스도 진정한 난민에게는 조속히 난민지위를 부여하고 난민이 아닌 자는 조속히 출국조치 등을 취하는 ‘신속절차(Accelerated Procedure)’
55
+ 제도를 도입해서 시행하고 있음
56
+
57
+ ⚬ 프랑스는 한국과 같이 난민심사자 적체로 인해 장기 대기, 등록절차 이후 실제로 난민신청서를 접수하는 데까지 소요되는 시간 등이 문제로 지적되어
58
+ 왔음
59
+
60
+ ⚬ 이를 개선하기 위해 2015년 외국인법 개정을 통해 진정한 난민을 보호하고 근거 없는 신청을 보다 용이하고 신속하게 배제할 수 있도록 ‘신속
61
+ 절차’ 제도를 도입한 것임
62
+
63
+ ⚬ 이에 따라 거짓 신분증 등을 제출하거나 비호신청과 직접 관련이 없는 문제를 제기한 경우, 모순되거나 명백하게 일관성 없는 진술을 한 경우
64
+ 등은 직권으로 신속절차에 의하여 심사하게 됨
65
+
66
+ ⚬ 신속절차는 신청서가 접수된 때부터 15일 이내, 구금된 경우에는 96시간 이내에 심사가 종결됨'
67
+ - 유한계급이 이론상 약탈적 문화의 시작과 함께 존재하였지만 이것은 약탈적 문화로부터 그다음의 금전적 문화로 이행하면서 새롭고 더 완전한 의미를
68
+ 갖는다. ‘유한계급’이 사실상 그리고 이론상 존재하는 것은 이 시점부터이다. 이 시점부터 유한계급의 제도는 완성된 형태를 갖는다. 성숙 국면에
69
+ 있는 유한계급의 정상적⋅특징적 직업은 형태면에서 초기와 같았다. 이 직업은 정부⋅전쟁⋅스포츠⋅종교이다. 이 직업에 종사하는 유한계급의 정상적이고
70
+ 표면적 동기는 절대로 생산적 노력에 의한 부의 증대가 아니다. 이 직업들은 생산적 고용이 아닌 약탈적 고용의 성질을 갖고 있다. 결국 노동은
71
+ 공동체의 안목에서 좋지 않은 평판을 얻게 될 뿐 아니라, 고귀한 자유민에 도덕적으로 불가능하게 되고 가치가 있는 생활과 양립할 수 없게 된다.
72
+ - 유신의 문화정치는 정치적 히스테리와 문화적 포비아를 혼합하면서 탄생했다. 유신의 시대, 민족문화 중흥은 대중들로부터 정치권력의 정당성을 얻고자
73
+ 문화민족주의에 호소하기 위한 목적이었다. 그리고 문화공안 조치는 정치권력의 붕괴에 대한 자기 공포의 감각화에서 비롯된 것이다. 정치적 히스테리는
74
+ 정치적 정당성의 부재 원인이며, 문화적 포비아는 정치적 붕괴의 위기의식을 반영한다. 마찬가지로 문화융성은 정치적 히스테리로, 블랙리스트는 문화적
75
+ 포비아로 등치시킬 수 있다. 단지 박근혜의 문화정치가 유신의 문화정치와 다른 점이 있다면 블랙리스트의 공작이 부친처럼 처음부터 노골적으로 강제하지
76
+ 않고 은밀하게 진행되었다는 점이다. 문화융성이란 기표는 블랙리스트를 은폐시키는 위장술이다. 은폐는 우발적인 것은 아니다. 은폐는 공포의 무의식이
77
+ 작동한 결과이다. 은폐는 공포가 현실화될 때, 주체를 방어할 수단으로 사용된다.
78
+ - source_sentence: 투자자들을 KG 펀드가 유인할 수 있었던 결정적인 요인은 어떤 국가의 조세혜택 덕분이야
79
+ sentences:
80
+ - 이와 관련한 농업분야의 대표적인 사례로서 Global G.A.P.를 들 수 있다. 세계적인 인지도 측면에 있어서 Korea G.A.P.보다는
81
+ Global G.A.P.가 수출 확대의 목표를 달성하기에 유리하기 때문에 수출업자들은 Global G.A.P.의 획득에 더 많은 관심을 보이고
82
+ 있는 실정이다. 수출과 관련하여 우리나라의 주요 수출 수산물은 원양산과 양식산이 차지하고 있다. 따라서 수출 확대 측면에서 지속가능 수산자원관리
83
+ 인증은 연근해어업 생산자에게는 아직까지 큰 관심거리가 되지 않아 보인다. 하지만 연근해 수산물 중 대표적인 대중어종인 고등어의 경우, MSC
84
+ 인증이 가장 많이 발급된 어종 중 하나이다. 그리고 연근해 수산물 중에서는 상대적으로 수출이 많이 되고 있는 어종이다. 비단 수출이 아니더라도
85
+ 국내에 입지한 다국적 기업들이나 호텔 체인을 선두로 MSC 인증 수산물만 취급하겠다는 선언이 이어지고 있다. 그리고 국내에 소재한 다국적 기업마저
86
+ 국내 인증보다는 세계적으로 알려진 국제인증의 부착을 선호하고 있다.
87
+ - KB자산운용이 ‘KB KoVIC펀드’를 ��시해 KB국민은행과 KB증권을 통해 판매하고 있다. KoVIC은 신흥 아시아를 대표하는 국가인 한국(Korea),
88
+ 베트남(Vietnam), 인도(India), 중국(China)을 뜻한다. 이들 국가는 신흥국 내에서 글로벌 교역증가, 수요 호조에 힘입어 경기
89
+ 회복세가 나타나고 있는 지역으로 향후 성장세가 높을 것으로 기대된다. 이 펀드는 낮은 비용으로 분산투자 하면서 적극적인 자산배분이 가능하도록
90
+ 한국, 베트남, 인도 및 중국의 대표 주가지수 추종 상장지수펀드(ETF)에 주로 투자한다. 한국, 인도, 중국에 각각 30%, 베트남에 10%의
91
+ 비중으로 가져가되 시장 전망에 따라 투자비중을 조정한다. 기타 신흥 아시아 개별 국가 및 스타일 ETF에도 일부 투자해 추가 수익을 추구한다.
92
+ 펀드는 계열사간 협업의 일환으로 KB증권의 자산배분에 대한 투자자문을 가미해 운용의 효율성을 높인 점이 특징이다. KB증권 리서치 센터에서
93
+ 국가별 투자 의견, 초과 수익 아이디어에 대한 자문을 제공하고 KB자산운용은 고유의 투자전략시스템을 활용하여 펀드를 운용한다. 납입금액의 1%를
94
+ 선취하는 A형(연보수 1.155%)과 0.5%를 선취하는 A-E형(연보수 0.855%, 온라인전용), 선취수수료가 없는 C형(연보수 1.455%)과
95
+ C-E형(연보수 1.005%, 온라인전용) 중에 선택가입이 가능하며 환매수수료는 없다.
96
+ - KG펀드가 투자자들을 성공적으로 유치할 수 있었던 가장 결정적인 요인은 독일 정부의 파격적인 조세혜택이었다. 독일정부는 KG펀드를 통한 투자자들에게
97
+ 투자자산의 고속상각, 투자손실과 소득의 상계처리, 양도소득세 감면 등의 복합적인 혜택을 허용하였다. 특히 다른 소득과 상계처리되는 투자손실은
98
+ 투자금액의 125%까지 인정되었고, 아울러 선박투자 배당금 수익에 대한 비과세, 선박매각 차익에 대한 양도소득세 50% 감면 등의 파격적인
99
+ 인센티브가 제공되었다. KG펀드의 운영 구조를 보면 우선 개인투자자들의 자금으로 조성된 펀드는 펀드운영회사와 선박관리회사에 모든 업무를 위탁하게
100
+ 된다. 선박 확보에 소요되는 금액의 40%는 개인 투자자들로부터 조달하며 나머지 금액은 다수의 금융기관으로부터 대출을 받는다. 이렇게 확보된
101
+ 선박은 선사에게 용선 또는 리스를 주고 용선료(리스료) 를 받게 된다. 이 돈은 금융기관 대출금의 원리금 상환이나 업무를 위탁받은 회사의 수수료
102
+ 또는 개인 투자자들에게 배당으로 지출된다.
103
+ - source_sentence: 금융 관계 당국이 장외파생상품시장의 개혁을 위해 권고받는 일 중에서 TR에 보고되어야 하는 건 뭐야
104
+ sentences:
105
+ - '다)장외파생상품시장의 개혁을 위한 평가 및 협력 원칙
106
+
107
+ □ 권고 20. ODSG와 제도입안자, BIS 및 다른 관련당국과 시장참가자들은 함께 중앙청산소(CCP), 거래소 또는 전자플랫폼 거래 및
108
+ 거래정보저장소(TR)에 대한 G20협약이 제대로 이행되는지 여부의 평가를 위한 적절한 보고용 측정방법을 개발하여야 함
109
+
110
+ ― FSB가 2012년 말까지 이행상태를 평가하는 것이 가능하도록 측정방법이 개발되어야 하고 필요한 자료는 확정되어야 함 □ 권고 21.금융분야의
111
+ 관련 모든 당국은 지속적으로 장외파생상품시장 그리고 참가자들과 관련한 자문․협력 및 정보교환을 촉진하는 양자간 또는 다자간 협약을 이용․촉진
112
+ 그리고 필요한 경우 개발하여야 함
113
+
114
+ ― 당국은 복수 국가의 관할권에 속한 상품 및 계약자가 참여하는 장외파생상품의 의무청산 적용을 위하여 적절히 협력하여야 함
115
+
116
+ ― 장외파생상품 정보가 TR에 보고되도록 하여야 함
117
+
118
+ ― 또한 CPSS와 IOSCO와 함께 일하는 ODRF는 개별적인 TR과 시스템적으로 중요한 장외파생상품 CCP를 위한 관련 감독당국 간 감시와
119
+ 정보공유에 있어 효과적인 협력과 조정이 되도록 일반적 제도기반의 개발을 지속적으로 촉진하여야 함'
120
+ - '4)보고체계
121
+
122
+ □ 보고 대상자
123
+
124
+ ― 거래정보저장소(TR)에 의무적으로 거래정보를 보고해야 하는 대상자는 모든 금융투자업자와 일정규모 이상의 장외파생상품 거래 기관(일반법인
125
+ 포함)이 적정함
126
+
127
+ ∙ 양쪽 거래상대방이 국내 금융투자업자가 아니지만 국내 금융투자업자(투자중개업자)가 중개하는 장외파생상품 거래의 경우도 국내 TR에 거래정보를
128
+ 보고하도록 할 필요가 있음
129
+
130
+ ― 원칙적으로 양방보고를 전제로 시스템을 설계하되 도입 초기에는 운영의 편의성을 위해 금융투자업자 중심의 일방보고를 인정하는 것이 현실적인
131
+ 방안으로 판단됨
132
+
133
+ ∙ 양쪽 거래상대방 모두가 보고를 하도록 할 것인지 아니면 한쪽만 하도록 할 것인지는 국가마다 차이가 있으나 편의성을 보면 일방보고(미국)가
134
+ 유리하고 담보정보를 포함한 보다 완벽한 정보(EU 등)를 구축하고자 할 때는 양방보고가 유리함
135
+
136
+ ∙ 일방보고시에는 순서에 따라 지정된 금융투자업자가 거래정보를 보고 하도록 하고 양방보고 시에도 일반법인이 거래상대방인 경우에는 거래상대방인
137
+ 금융기관이 대신 보고하도록 하는 조치가 필요함
138
+
139
+ □ 거래정보 보고의 업무위탁
140
+
141
+ ― 금융기관의 업무위탁을 받은 전산적으로 거래정보를 취급하는 메시지 업체나 외국 TR이 국내 TR에 거래정보를 대신 보고하는 방안이 제도적으로
142
+ 허용되어야 함
143
+
144
+ ∙ 일부 장외파생상품의 경우 거래확인을 대행하는 메시지 전송업체를 통한 거래정보 보고가 매우 일반적 상황임을 반영하여야 함
145
+
146
+ ∙ 또한 글로벌 금융기관의 경우 이미 외국 TR에 거래정보가 보고되고 있는 점을 감안하여 해당 금융기관의 의뢰를 받은 외국 TR이 거래정보를
147
+ 국내 TR에 보고할 수 있도록 할 필요가 있음
148
+
149
+ ∙ 홍콩의 경우, 중앙예탁청산기관(DTCC) Derivatives Repository Limited와 Marketserv LLC가 대리인(agency)으로
150
+ 활동하고 있음'
151
+ - 국방조달은 군이 군사력 건설과 운영유지에 필요한 장비, 물자 그리고 용역 등을 신뢰할 수 있는 조달원으로부터 군이 요구하는 장소와 납기에 맞추어
152
+ 적정규격에 의한 품질과 경제적 가격으로 획득하는 행위를 말한다(한홍규, 2011, pp. 23-24). 국방물자의 조달은 정상적인 자유경쟁시장에서의
153
+ 구매자와 공급자의 관계가 아니라 독점적인 수요자인 정부와 소수 또는 독점적인 공급자인 민간기업이 상호 밀접한 관계를 맺고 있는 것이 일반적이다(안태식・허은진,
154
+ 2003, p. 38). 따라서 국방조달과 같은 종합적 성과 조달(complex performance procurement)은 보다 복잡해질수록
155
+ 공급자는 더욱 줄어들기 때문에 과점(oligopoly)과 같은 시장구조의 경제적 관점에서 연구가 필요하다(Caldwell과 Howard, 2014,
156
+ p. 273). 과점시장의 특징은 시장경제이론이 성립하기 어려우며, 공급량이 적어 담합이나 카르텔을 통해 상호 경쟁을 제한하고, 가격의 경직성이
157
+ 높고 비가격경쟁을 하게 되며, 고가의 낮은 생산성이 나타나기도 하기 때문이다(기성래・이강복・한금석, 2011, pp. 177-180).
158
+ - source_sentence: 아야미 ?카가 홍대 스테이라운지에서 개최하는 것은?
159
+ sentences:
160
+ - 일본 첫 단독공연을 앞둔 힙합그룹 MIB(엠아비)가 일본에서 뜨거운 인기를 실감하고 있다. 공연을 하루 앞둔 지난23일, MIB는 일본 도쿄
161
+ 시부야에 있는 대형레코드 체인점 '타워레코드'에서 '악수회'를 성황리에 개최했다. '악수회' 수시간 전부터 MIB를 보기 위해 300여명의
162
+ 팬들이 플래카드를 들고 타워레코드로 모여 현지관 계자를 놀라게 했다. 이에 앞서 MIB는 케이팝 전문방송인 'K-POP LOVERS'에 출연해
163
+ 일본 진출 및 첫 단독 공연을 앞둔 소감을 전한 것은 물론, 강남의 칼럼에 소개된 에피소드에 대해 이야기하고 팬들의 궁금증을 풀어주는 시간도
164
+ 가졌다. 정글엔터테인먼트 관계자는 "K-힙합을 MIB를 통해 일본 음악시장에 전파 할 수 있는 좋은 기회가 될 것이라고 생각한다"며 "향후
165
+ 타워레코드 외에도 일본 메이저음반 기획사, 음반사와 접촉해 다양한 프로모션을 진행할 것"이라고 말했다. 현지 연예 관계자는 "MIB 멤버 강남이
166
+ 재일교포라는 점이 현지 팬들에게 큰 관심을 불러일으키고 있는 것 같다. 특히 강남은 타워레코드 온라인 사이트에 격주 목요일마다 칼럼을 연재하고
167
+ 있는데 이 또한 큰 인기를 모으고 있다"며 MIB의 일본 내 성공 가능성을 예측했다. 한편, MIB는 오늘(24일) 오후 3시 30분부터 하라주쿠에
168
+ 위치한 아스트로홀에서 일본의 주요 음반 관계자들이 참석한 가운데 총2회에 걸쳐 일본 첫 단독 공연 'We are M.I.B'를 개최한다.&
169
+ lt;연예부&gt;
170
+ - 법교육의 체계적인 기반구축과 활성화를 위해 2005. 3. 법조계, 학계, 교육계, 언론계 등 사회 각계 전문가 14인으로 구성된 법교육 연구위원회를
171
+ 발족하였다. 2005. 3. 제1차 회의에서 법교육 6대 연구과제를 선정한 후, 2006. 3.까지 총 7차례 회의를 거쳐 성공적으로 운영하였으며,
172
+ ‘우리나라 법교육의 발전방향’ 이라는 최종보고���를 발표하여 구체적이고 실질적으로 수행 가능한 법교육 활성화 방안을 건의하였다. 법교육연구위원회의
173
+ 연구 성과를 지속적으로 추진하기 위하여 법교육과 관련된 정부기관․사법기관․정부산하기관․ 민간기관 등 인사 17인으로 구성된 법교육 추진협의회를
174
+ 구성하여 2006. 7.부터 반기별 1회, 총 5회를 개최하였고, 2007. 6.에는 경찰청 등 유관기관을 추가하여 20인으로 확대하였다.
175
+ - ▲ 사진= BJ 야하군 제공 일본 유명 AV배우 아야미 ?카(あやみ旬果)가 한국 팬들을 만난다. 아야미 ?카는 오는 7일 오후 홍대 스테이라운지에서
176
+ 팬미팅을 개최한다. 야마미 ?카는 독보적인 이미지로 일본 뿐만 아니라 한국에서도 많은 팬을 가지고 있다. 이날 팬미팅에는 근황토크 및 게임,
177
+ 포토타임, 사인회, 선물 증정 시간 등이 예정돼 있어 팬들의 기대감을 고조시켰다. 한편 아야미 ?카의 팬미팅은 19세 이상의 성인을 대상으로
178
+ 진행되며, 온라인을 통해 티켓을 구매할 수 있다.
179
+ pipeline_tag: sentence-similarity
180
+ library_name: sentence-transformers
181
+ ---
182
+
183
+ # SentenceTransformer based on intfloat/multilingual-e5-large
184
+
185
+ This is a [sentence-transformers](https://www.SBERT.net) model finetuned from [intfloat/multilingual-e5-large](https://huggingface.co/intfloat/multilingual-e5-large). It maps sentences & paragraphs to a 1024-dimensional dense vector space and can be used for semantic textual similarity, semantic search, paraphrase mining, text classification, clustering, and more.
186
+
187
+ ## Model Details
188
+
189
+ ### Model Description
190
+ - **Model Type:** Sentence Transformer
191
+ - **Base model:** [intfloat/multilingual-e5-large](https://huggingface.co/intfloat/multilingual-e5-large) <!-- at revision ab10c1a7f42e74530fe7ae5be82e6d4f11a719eb -->
192
+ - **Maximum Sequence Length:** 512 tokens
193
+ - **Output Dimensionality:** 1024 tokens
194
+ - **Similarity Function:** Cosine Similarity
195
+ <!-- - **Training Dataset:** Unknown -->
196
+ <!-- - **Language:** Unknown -->
197
+ <!-- - **License:** Unknown -->
198
+
199
+ ### Model Sources
200
+
201
+ - **Documentation:** [Sentence Transformers Documentation](https://sbert.net)
202
+ - **Repository:** [Sentence Transformers on GitHub](https://github.com/UKPLab/sentence-transformers)
203
+ - **Hugging Face:** [Sentence Transformers on Hugging Face](https://huggingface.co/models?library=sentence-transformers)
204
+
205
+ ### Full Model Architecture
206
+
207
+ ```
208
+ SentenceTransformer(
209
+ (0): Transformer({'max_seq_length': 512, 'do_lower_case': False}) with Transformer model: XLMRobertaModel
210
+ (1): Pooling({'word_embedding_dimension': 1024, 'pooling_mode_cls_token': False, 'pooling_mode_mean_tokens': True, 'pooling_mode_max_tokens': False, 'pooling_mode_mean_sqrt_len_tokens': False, 'pooling_mode_weightedmean_tokens': False, 'pooling_mode_lasttoken': False, 'include_prompt': True})
211
+ (2): Normalize()
212
+ )
213
+ ```
214
+
215
+ ## Usage
216
+
217
+ ### Direct Usage (Sentence Transformers)
218
+
219
+ First install the Sentence Transformers library:
220
+
221
+ ```bash
222
+ pip install -U sentence-transformers
223
+ ```
224
+
225
+ Then you can load this model and run inference.
226
+ ```python
227
+ from sentence_transformers import SentenceTransformer
228
+
229
+ # Download from the 🤗 Hub
230
+ model = SentenceTransformer("seongil-dn/e5-large-neg-v0-bs40-lr1e-6-1000")
231
+ # Run inference
232
+ sentences = [
233
+ '아야미 ?카가 홍대 스테이라운지에서 개최하는 것은?',
234
+ '▲ 사진= BJ 야하군 제공 일본 유명 AV배우 아야미 ?카(あやみ旬果)가 한국 팬들을 만난다. 아야미 ?카는 오는 7일 오후 홍대 스테이라운지에서 팬미팅을 개최한다. 야마미 ?카는 독보적인 이미지로 일본 뿐만 아니라 한국에서도 많은 팬을 가지고 있다. 이날 팬미팅에는 근황토크 및 게임, 포토타임, 사인회, 선물 증정 시간 등이 예정돼 있어 팬들의 기대감을 고조시켰다. 한편 아야미 ?카의 팬미팅은 19세 이상의 성인을 대상으로 진행되며, 온라인을 통해 티켓을 구매할 수 있다.',
235
+ '일본 첫 단독공연을 앞둔 힙합그룹 MIB(엠아비)가 일본에서 뜨거운 인기를 실감하고 있다. 공연을 하루 앞둔 지난23일, MIB는 일본 도쿄 시부야에 있는 대형레코드 체인점 \'타워레코드\'에서 \'악수회\'를 성황리에 개최했다. \'악수회\' 수시간 전부터 MIB를 보기 위해 300여명의 팬들이 플래카드를 들고 타워레코드로 모여 현지관 계자를 놀라게 했다. 이에 앞서 MIB는 케이팝 전문방송인 \'K-POP LOVERS\'에 출연해 일본 진출 및 첫 단독 공연을 앞둔 소감을 전한 것은 물론, 강남의 칼럼에 소개된 에피소드에 대해 이야기하고 팬들의 궁금증을 풀어주는 시간도 가졌다. 정글엔터테인먼트 관계자는 "K-힙합을 MIB를 통해 일본 음악시장에 전파 할 수 있는 좋은 기회가 될 것이라고 생각한다"며 "향후 타워레코드 외에도 일본 메이저음반 기획사, 음반사와 접촉해 다양한 프로모션을 진행할 것"이라고 말했다. 현지 연예 관계자는 "MIB 멤버 강남이 재일교포라는 점이 현지 팬들에게 큰 관심을 불러일으키고 있는 것 같다. 특히 강남은 타워레코드 온라인 사이트에 격주 목요일마다 칼럼을 연재하고 있는데 이 또한 큰 인기를 모으고 있다"며 MIB의 일본 내 성공 가능성을 예측했다. 한편, MIB는 오늘(24일) 오후 3시 30분부터 하라주쿠에 위치한 아스트로홀에서 일본의 주요 음반 관계자들이 참석한 가운데 총2회에 걸쳐 일본 첫 단독 공연 \'We are M.I.B\'를 개최한다.& lt;연예부&gt;',
236
+ ]
237
+ embeddings = model.encode(sentences)
238
+ print(embeddings.shape)
239
+ # [3, 1024]
240
+
241
+ # Get the similarity scores for the embeddings
242
+ similarities = model.similarity(embeddings, embeddings)
243
+ print(similarities.shape)
244
+ # [3, 3]
245
+ ```
246
+
247
+ <!--
248
+ ### Direct Usage (Transformers)
249
+
250
+ <details><summary>Click to see the direct usage in Transformers</summary>
251
+
252
+ </details>
253
+ -->
254
+
255
+ <!--
256
+ ### Downstream Usage (Sentence Transformers)
257
+
258
+ You can finetune this model on your own dataset.
259
+
260
+ <details><summary>Click to expand</summary>
261
+
262
+ </details>
263
+ -->
264
+
265
+ <!--
266
+ ### Out-of-Scope Use
267
+
268
+ *List how the model may foreseeably be misused and address what users ought not to do with the model.*
269
+ -->
270
+
271
+ <!--
272
+ ## Bias, Risks and Limitations
273
+
274
+ *What are the known or foreseeable issues stemming from this model? You could also flag here known failure cases or weaknesses of the model.*
275
+ -->
276
+
277
+ <!--
278
+ ### Recommendations
279
+
280
+ *What are recommendations with respect to the foreseeable issues? For example, filtering explicit content.*
281
+ -->
282
+
283
+ ## Training Details
284
+
285
+ ### Training Hyperparameters
286
+ #### Non-Default Hyperparameters
287
+
288
+ - `per_device_train_batch_size`: 16
289
+ - `per_device_eval_batch_size`: 16
290
+ - `learning_rate`: 5e-06
291
+ - `num_train_epochs`: 1
292
+ - `warmup_steps`: 100
293
+ - `bf16`: True
294
+
295
+ #### All Hyperparameters
296
+ <details><summary>Click to expand</summary>
297
+
298
+ - `overwrite_output_dir`: False
299
+ - `do_predict`: False
300
+ - `eval_strategy`: no
301
+ - `prediction_loss_only`: True
302
+ - `per_device_train_batch_size`: 16
303
+ - `per_device_eval_batch_size`: 16
304
+ - `per_gpu_train_batch_size`: None
305
+ - `per_gpu_eval_batch_size`: None
306
+ - `gradient_accumulation_steps`: 1
307
+ - `eval_accumulation_steps`: None
308
+ - `torch_empty_cache_steps`: None
309
+ - `learning_rate`: 5e-06
310
+ - `weight_decay`: 0.0
311
+ - `adam_beta1`: 0.9
312
+ - `adam_beta2`: 0.999
313
+ - `adam_epsilon`: 1e-08
314
+ - `max_grad_norm`: 1.0
315
+ - `num_train_epochs`: 1
316
+ - `max_steps`: -1
317
+ - `lr_scheduler_type`: linear
318
+ - `lr_scheduler_kwargs`: {}
319
+ - `warmup_ratio`: 0.0
320
+ - `warmup_steps`: 100
321
+ - `log_level`: passive
322
+ - `log_level_replica`: warning
323
+ - `log_on_each_node`: True
324
+ - `logging_nan_inf_filter`: True
325
+ - `save_safetensors`: True
326
+ - `save_on_each_node`: False
327
+ - `save_only_model`: False
328
+ - `restore_callback_states_from_checkpoint`: False
329
+ - `no_cuda`: False
330
+ - `use_cpu`: False
331
+ - `use_mps_device`: False
332
+ - `seed`: 42
333
+ - `data_seed`: None
334
+ - `jit_mode_eval`: False
335
+ - `use_ipex`: False
336
+ - `bf16`: True
337
+ - `fp16`: False
338
+ - `fp16_opt_level`: O1
339
+ - `half_precision_backend`: auto
340
+ - `bf16_full_eval`: False
341
+ - `fp16_full_eval`: False
342
+ - `tf32`: None
343
+ - `local_rank`: 0
344
+ - `ddp_backend`: None
345
+ - `tpu_num_cores`: None
346
+ - `tpu_metrics_debug`: False
347
+ - `debug`: []
348
+ - `dataloader_drop_last`: True
349
+ - `dataloader_num_workers`: 0
350
+ - `dataloader_prefetch_factor`: None
351
+ - `past_index`: -1
352
+ - `disable_tqdm`: False
353
+ - `remove_unused_columns`: True
354
+ - `label_names`: None
355
+ - `load_best_model_at_end`: False
356
+ - `ignore_data_skip`: False
357
+ - `fsdp`: []
358
+ - `fsdp_min_num_params`: 0
359
+ - `fsdp_config`: {'min_num_params': 0, 'xla': False, 'xla_fsdp_v2': False, 'xla_fsdp_grad_ckpt': False}
360
+ - `fsdp_transformer_layer_cls_to_wrap`: None
361
+ - `accelerator_config`: {'split_batches': False, 'dispatch_batches': None, 'even_batches': True, 'use_seedable_sampler': True, 'non_blocking': False, 'gradient_accumulation_kwargs': None}
362
+ - `deepspeed`: None
363
+ - `label_smoothing_factor`: 0.0
364
+ - `optim`: adamw_torch
365
+ - `optim_args`: None
366
+ - `adafactor`: False
367
+ - `group_by_length`: False
368
+ - `length_column_name`: length
369
+ - `ddp_find_unused_parameters`: None
370
+ - `ddp_bucket_cap_mb`: None
371
+ - `ddp_broadcast_buffers`: False
372
+ - `dataloader_pin_memory`: True
373
+ - `dataloader_persistent_workers`: False
374
+ - `skip_memory_metrics`: True
375
+ - `use_legacy_prediction_loop`: False
376
+ - `push_to_hub`: False
377
+ - `resume_from_checkpoint`: None
378
+ - `hub_model_id`: None
379
+ - `hub_strategy`: every_save
380
+ - `hub_private_repo`: False
381
+ - `hub_always_push`: False
382
+ - `gradient_checkpointing`: False
383
+ - `gradient_checkpointing_kwargs`: None
384
+ - `include_inputs_for_metrics`: False
385
+ - `eval_do_concat_batches`: True
386
+ - `fp16_backend`: auto
387
+ - `push_to_hub_model_id`: None
388
+ - `push_to_hub_organization`: None
389
+ - `mp_parameters`:
390
+ - `auto_find_batch_size`: False
391
+ - `full_determinism`: False
392
+ - `torchdynamo`: None
393
+ - `ray_scope`: last
394
+ - `ddp_timeout`: 1800
395
+ - `torch_compile`: False
396
+ - `torch_compile_backend`: None
397
+ - `torch_compile_mode`: None
398
+ - `dispatch_batches`: None
399
+ - `split_batches`: None
400
+ - `include_tokens_per_second`: False
401
+ - `include_num_input_tokens_seen`: False
402
+ - `neftune_noise_alpha`: None
403
+ - `optim_target_modules`: None
404
+ - `batch_eval_metrics`: False
405
+ - `eval_on_start`: False
406
+ - `eval_use_gather_object`: False
407
+ - `batch_sampler`: batch_sampler
408
+ - `multi_dataset_batch_sampler`: proportional
409
+
410
+ </details>
411
+
412
+ ### Training Logs
413
+ <details><summary>Click to expand</summary>
414
+
415
+ | Epoch | Step | Training Loss |
416
+ |:------:|:----:|:-------------:|
417
+ | 0.0001 | 1 | 1.9307 |
418
+ | 0.0003 | 2 | 1.9013 |
419
+ | 0.0004 | 3 | 1.9678 |
420
+ | 0.0005 | 4 | 1.912 |
421
+ | 0.0007 | 5 | 1.9856 |
422
+ | 0.0008 | 6 | 1.9017 |
423
+ | 0.0009 | 7 | 1.8966 |
424
+ | 0.0011 | 8 | 1.9761 |
425
+ | 0.0012 | 9 | 1.9268 |
426
+ | 0.0013 | 10 | 1.9604 |
427
+ | 0.0015 | 11 | 1.8515 |
428
+ | 0.0016 | 12 | 1.9247 |
429
+ | 0.0017 | 13 | 1.9196 |
430
+ | 0.0019 | 14 | 1.9611 |
431
+ | 0.0020 | 15 | 1.9202 |
432
+ | 0.0021 | 16 | 2.0048 |
433
+ | 0.0023 | 17 | 1.8684 |
434
+ | 0.0024 | 18 | 1.9605 |
435
+ | 0.0025 | 19 | 1.9693 |
436
+ | 0.0027 | 20 | 1.9385 |
437
+ | 0.0028 | 21 | 1.9736 |
438
+ | 0.0029 | 22 | 1.8907 |
439
+ | 0.0030 | 23 | 1.9025 |
440
+ | 0.0032 | 24 | 1.9233 |
441
+ | 0.0033 | 25 | 1.9427 |
442
+ | 0.0034 | 26 | 1.8181 |
443
+ | 0.0036 | 27 | 1.9536 |
444
+ | 0.0037 | 28 | 1.9766 |
445
+ | 0.0038 | 29 | 1.8892 |
446
+ | 0.0040 | 30 | 1.9381 |
447
+ | 0.0041 | 31 | 1.9046 |
448
+ | 0.0042 | 32 | 1.9097 |
449
+ | 0.0044 | 33 | 1.8813 |
450
+ | 0.0045 | 34 | 1.9537 |
451
+ | 0.0046 | 35 | 1.8715 |
452
+ | 0.0048 | 36 | 1.9787 |
453
+ | 0.0049 | 37 | 1.8877 |
454
+ | 0.0050 | 38 | 1.8891 |
455
+ | 0.0052 | 39 | 1.9122 |
456
+ | 0.0053 | 40 | 1.8853 |
457
+ | 0.0054 | 41 | 1.9297 |
458
+ | 0.0056 | 42 | 1.8776 |
459
+ | 0.0057 | 43 | 1.887 |
460
+ | 0.0058 | 44 | 1.9018 |
461
+ | 0.0060 | 45 | 1.8387 |
462
+ | 0.0061 | 46 | 1.8525 |
463
+ | 0.0062 | 47 | 1.919 |
464
+ | 0.0064 | 48 | 1.9223 |
465
+ | 0.0065 | 49 | 1.7887 |
466
+ | 0.0066 | 50 | 1.8343 |
467
+ | 0.0068 | 51 | 1.8631 |
468
+ | 0.0069 | 52 | 1.8391 |
469
+ | 0.0070 | 53 | 1.7403 |
470
+ | 0.0072 | 54 | 1.8625 |
471
+ | 0.0073 | 55 | 1.8766 |
472
+ | 0.0074 | 56 | 1.755 |
473
+ | 0.0076 | 57 | 1.8058 |
474
+ | 0.0077 | 58 | 1.7889 |
475
+ | 0.0078 | 59 | 1.8359 |
476
+ | 0.0080 | 60 | 1.8129 |
477
+ | 0.0081 | 61 | 1.8005 |
478
+ | 0.0082 | 62 | 1.7291 |
479
+ | 0.0084 | 63 | 1.7851 |
480
+ | 0.0085 | 64 | 1.8281 |
481
+ | 0.0086 | 65 | 1.7887 |
482
+ | 0.0088 | 66 | 1.743 |
483
+ | 0.0089 | 67 | 1.7501 |
484
+ | 0.0090 | 68 | 1.7622 |
485
+ | 0.0091 | 69 | 1.8374 |
486
+ | 0.0093 | 70 | 1.7625 |
487
+ | 0.0094 | 71 | 1.6925 |
488
+ | 0.0095 | 72 | 1.8021 |
489
+ | 0.0097 | 73 | 1.7379 |
490
+ | 0.0098 | 74 | 1.652 |
491
+ | 0.0099 | 75 | 1.6583 |
492
+ | 0.0101 | 76 | 1.6557 |
493
+ | 0.0102 | 77 | 1.652 |
494
+ | 0.0103 | 78 | 1.6297 |
495
+ | 0.0105 | 79 | 1.668 |
496
+ | 0.0106 | 80 | 1.7019 |
497
+ | 0.0107 | 81 | 1.6268 |
498
+ | 0.0109 | 82 | 1.5703 |
499
+ | 0.0110 | 83 | 1.6884 |
500
+ | 0.0111 | 84 | 1.7507 |
501
+ | 0.0113 | 85 | 1.5727 |
502
+ | 0.0114 | 86 | 1.6969 |
503
+ | 0.0115 | 87 | 1.6063 |
504
+ | 0.0117 | 88 | 1.5675 |
505
+ | 0.0118 | 89 | 1.5301 |
506
+ | 0.0119 | 90 | 1.5201 |
507
+ | 0.0121 | 91 | 1.5569 |
508
+ | 0.0122 | 92 | 1.5325 |
509
+ | 0.0123 | 93 | 1.5406 |
510
+ | 0.0125 | 94 | 1.4992 |
511
+ | 0.0126 | 95 | 1.4889 |
512
+ | 0.0127 | 96 | 1.4308 |
513
+ | 0.0129 | 97 | 1.3782 |
514
+ | 0.0130 | 98 | 1.4542 |
515
+ | 0.0131 | 99 | 1.4327 |
516
+ | 0.0133 | 100 | 1.4437 |
517
+ | 0.0134 | 101 | 1.3352 |
518
+ | 0.0135 | 102 | 1.3605 |
519
+ | 0.0137 | 103 | 1.3732 |
520
+ | 0.0138 | 104 | 1.3752 |
521
+ | 0.0139 | 105 | 1.324 |
522
+ | 0.0141 | 106 | 1.3317 |
523
+ | 0.0142 | 107 | 1.2643 |
524
+ | 0.0143 | 108 | 1.2754 |
525
+ | 0.0145 | 109 | 1.2622 |
526
+ | 0.0146 | 110 | 1.1565 |
527
+ | 0.0147 | 111 | 1.2645 |
528
+ | 0.0149 | 112 | 1.1257 |
529
+ | 0.0150 | 113 | 1.1826 |
530
+ | 0.0151 | 114 | 1.2016 |
531
+ | 0.0152 | 115 | 1.2099 |
532
+ | 0.0154 | 116 | 1.17 |
533
+ | 0.0155 | 117 | 1.2047 |
534
+ | 0.0156 | 118 | 1.1152 |
535
+ | 0.0158 | 119 | 1.1606 |
536
+ | 0.0159 | 120 | 1.1492 |
537
+ | 0.0160 | 121 | 1.1575 |
538
+ | 0.0162 | 122 | 1.1599 |
539
+ | 0.0163 | 123 | 1.1498 |
540
+ | 0.0164 | 124 | 1.0323 |
541
+ | 0.0166 | 125 | 1.1129 |
542
+ | 0.0167 | 126 | 1.0861 |
543
+ | 0.0168 | 127 | 1.0424 |
544
+ | 0.0170 | 128 | 0.9815 |
545
+ | 0.0171 | 129 | 1.0264 |
546
+ | 0.0172 | 130 | 1.0357 |
547
+ | 0.0174 | 131 | 0.9753 |
548
+ | 0.0175 | 132 | 0.9904 |
549
+ | 0.0176 | 133 | 0.9881 |
550
+ | 0.0178 | 134 | 1.0703 |
551
+ | 0.0179 | 135 | 0.9154 |
552
+ | 0.0180 | 136 | 0.8621 |
553
+ | 0.0182 | 137 | 0.9127 |
554
+ | 0.0183 | 138 | 0.9136 |
555
+ | 0.0184 | 139 | 0.9438 |
556
+ | 0.0186 | 140 | 0.9462 |
557
+ | 0.0187 | 141 | 0.8737 |
558
+ | 0.0188 | 142 | 0.9194 |
559
+ | 0.0190 | 143 | 0.8149 |
560
+ | 0.0191 | 144 | 0.9356 |
561
+ | 0.0192 | 145 | 0.8444 |
562
+ | 0.0194 | 146 | 0.7857 |
563
+ | 0.0195 | 147 | 0.8543 |
564
+ | 0.0196 | 148 | 0.7438 |
565
+ | 0.0198 | 149 | 0.6994 |
566
+ | 0.0199 | 150 | 0.8255 |
567
+ | 0.0200 | 151 | 0.7701 |
568
+ | 0.0202 | 152 | 0.7877 |
569
+ | 0.0203 | 153 | 0.7478 |
570
+ | 0.0204 | 154 | 0.8188 |
571
+ | 0.0206 | 155 | 0.7664 |
572
+ | 0.0207 | 156 | 0.6715 |
573
+ | 0.0208 | 157 | 0.7164 |
574
+ | 0.0210 | 158 | 0.7475 |
575
+ | 0.0211 | 159 | 0.701 |
576
+ | 0.0212 | 160 | 0.6741 |
577
+ | 0.0213 | 161 | 0.7849 |
578
+ | 0.0215 | 162 | 0.6964 |
579
+ | 0.0216 | 163 | 0.6787 |
580
+ | 0.0217 | 164 | 0.6701 |
581
+ | 0.0219 | 165 | 0.6845 |
582
+ | 0.0220 | 166 | 0.7393 |
583
+ | 0.0221 | 167 | 0.6533 |
584
+ | 0.0223 | 168 | 0.7024 |
585
+ | 0.0224 | 169 | 0.6524 |
586
+ | 0.0225 | 170 | 0.6748 |
587
+ | 0.0227 | 171 | 0.6508 |
588
+ | 0.0228 | 172 | 0.5762 |
589
+ | 0.0229 | 173 | 0.6419 |
590
+ | 0.0231 | 174 | 0.5881 |
591
+ | 0.0232 | 175 | 0.612 |
592
+ | 0.0233 | 176 | 0.6294 |
593
+ | 0.0235 | 177 | 0.5756 |
594
+ | 0.0236 | 178 | 0.705 |
595
+ | 0.0237 | 179 | 0.6179 |
596
+ | 0.0239 | 180 | 0.6334 |
597
+ | 0.0240 | 181 | 0.6372 |
598
+ | 0.0241 | 182 | 0.7345 |
599
+ | 0.0243 | 183 | 0.6357 |
600
+ | 0.0244 | 184 | 0.5883 |
601
+ | 0.0245 | 185 | 0.5528 |
602
+ | 0.0247 | 186 | 0.5066 |
603
+ | 0.0248 | 187 | 0.5439 |
604
+ | 0.0249 | 188 | 0.5398 |
605
+ | 0.0251 | 189 | 0.5591 |
606
+ | 0.0252 | 190 | 0.5669 |
607
+ | 0.0253 | 191 | 0.5396 |
608
+ | 0.0255 | 192 | 0.5971 |
609
+ | 0.0256 | 193 | 0.5329 |
610
+ | 0.0257 | 194 | 0.5109 |
611
+ | 0.0259 | 195 | 0.4847 |
612
+ | 0.0260 | 196 | 0.6001 |
613
+ | 0.0261 | 197 | 0.4728 |
614
+ | 0.0263 | 198 | 0.4704 |
615
+ | 0.0264 | 199 | 0.4413 |
616
+ | 0.0265 | 200 | 0.4605 |
617
+ | 0.0267 | 201 | 0.488 |
618
+ | 0.0268 | 202 | 0.5198 |
619
+ | 0.0269 | 203 | 0.5348 |
620
+ | 0.0271 | 204 | 0.5426 |
621
+ | 0.0272 | 205 | 0.4714 |
622
+ | 0.0273 | 206 | 0.524 |
623
+ | 0.0274 | 207 | 0.5083 |
624
+ | 0.0276 | 208 | 0.4022 |
625
+ | 0.0277 | 209 | 0.4506 |
626
+ | 0.0278 | 210 | 0.4665 |
627
+ | 0.0280 | 211 | 0.4332 |
628
+ | 0.0281 | 212 | 0.3997 |
629
+ | 0.0282 | 213 | 0.4713 |
630
+ | 0.0284 | 214 | 0.3748 |
631
+ | 0.0285 | 215 | 0.462 |
632
+ | 0.0286 | 216 | 0.4173 |
633
+ | 0.0288 | 217 | 0.5133 |
634
+ | 0.0289 | 218 | 0.468 |
635
+ | 0.0290 | 219 | 0.4126 |
636
+ | 0.0292 | 220 | 0.3928 |
637
+ | 0.0293 | 221 | 0.4335 |
638
+ | 0.0294 | 222 | 0.4527 |
639
+ | 0.0296 | 223 | 0.4301 |
640
+ | 0.0297 | 224 | 0.4705 |
641
+ | 0.0298 | 225 | 0.415 |
642
+ | 0.0300 | 226 | 0.3935 |
643
+ | 0.0301 | 227 | 0.366 |
644
+ | 0.0302 | 228 | 0.4617 |
645
+ | 0.0304 | 229 | 0.4185 |
646
+ | 0.0305 | 230 | 0.3836 |
647
+ | 0.0306 | 231 | 0.3915 |
648
+ | 0.0308 | 232 | 0.3345 |
649
+ | 0.0309 | 233 | 0.4118 |
650
+ | 0.0310 | 234 | 0.4165 |
651
+ | 0.0312 | 235 | 0.3431 |
652
+ | 0.0313 | 236 | 0.3799 |
653
+ | 0.0314 | 237 | 0.3735 |
654
+ | 0.0316 | 238 | 0.4321 |
655
+ | 0.0317 | 239 | 0.4097 |
656
+ | 0.0318 | 240 | 0.4396 |
657
+ | 0.0320 | 241 | 0.3443 |
658
+ | 0.0321 | 242 | 0.4912 |
659
+ | 0.0322 | 243 | 0.4022 |
660
+ | 0.0324 | 244 | 0.3461 |
661
+ | 0.0325 | 245 | 0.444 |
662
+ | 0.0326 | 246 | 0.4546 |
663
+ | 0.0328 | 247 | 0.4318 |
664
+ | 0.0329 | 248 | 0.3992 |
665
+ | 0.0330 | 249 | 0.3472 |
666
+ | 0.0332 | 250 | 0.396 |
667
+ | 0.0333 | 251 | 0.3796 |
668
+ | 0.0334 | 252 | 0.3963 |
669
+ | 0.0335 | 253 | 0.423 |
670
+ | 0.0337 | 254 | 0.3953 |
671
+ | 0.0338 | 255 | 0.3504 |
672
+ | 0.0339 | 256 | 0.3481 |
673
+ | 0.0341 | 257 | 0.3675 |
674
+ | 0.0342 | 258 | 0.4163 |
675
+ | 0.0343 | 259 | 0.352 |
676
+ | 0.0345 | 260 | 0.401 |
677
+ | 0.0346 | 261 | 0.4511 |
678
+ | 0.0347 | 262 | 0.3748 |
679
+ | 0.0349 | 263 | 0.3149 |
680
+ | 0.0350 | 264 | 0.2681 |
681
+ | 0.0351 | 265 | 0.4258 |
682
+ | 0.0353 | 266 | 0.3183 |
683
+ | 0.0354 | 267 | 0.3674 |
684
+ | 0.0355 | 268 | 0.3169 |
685
+ | 0.0357 | 269 | 0.3665 |
686
+ | 0.0358 | 270 | 0.3627 |
687
+ | 0.0359 | 271 | 0.3394 |
688
+ | 0.0361 | 272 | 0.3814 |
689
+ | 0.0362 | 273 | 0.4377 |
690
+ | 0.0363 | 274 | 0.3149 |
691
+ | 0.0365 | 275 | 0.3458 |
692
+ | 0.0366 | 276 | 0.3835 |
693
+ | 0.0367 | 277 | 0.3858 |
694
+ | 0.0369 | 278 | 0.3735 |
695
+ | 0.0370 | 279 | 0.2908 |
696
+ | 0.0371 | 280 | 0.3302 |
697
+ | 0.0373 | 281 | 0.2657 |
698
+ | 0.0374 | 282 | 0.3283 |
699
+ | 0.0375 | 283 | 0.3472 |
700
+ | 0.0377 | 284 | 0.3701 |
701
+ | 0.0378 | 285 | 0.3984 |
702
+ | 0.0379 | 286 | 0.344 |
703
+ | 0.0381 | 287 | 0.3096 |
704
+ | 0.0382 | 288 | 0.382 |
705
+ | 0.0383 | 289 | 0.2969 |
706
+ | 0.0385 | 290 | 0.3521 |
707
+ | 0.0386 | 291 | 0.3656 |
708
+ | 0.0387 | 292 | 0.2156 |
709
+ | 0.0389 | 293 | 0.2769 |
710
+ | 0.0390 | 294 | 0.348 |
711
+ | 0.0391 | 295 | 0.2789 |
712
+ | 0.0393 | 296 | 0.3394 |
713
+ | 0.0394 | 297 | 0.2985 |
714
+ | 0.0395 | 298 | 0.2845 |
715
+ | 0.0396 | 299 | 0.2794 |
716
+ | 0.0398 | 300 | 0.3404 |
717
+ | 0.0399 | 301 | 0.272 |
718
+ | 0.0400 | 302 | 0.2806 |
719
+ | 0.0402 | 303 | 0.359 |
720
+ | 0.0403 | 304 | 0.2621 |
721
+ | 0.0404 | 305 | 0.2795 |
722
+ | 0.0406 | 306 | 0.2954 |
723
+ | 0.0407 | 307 | 0.3162 |
724
+ | 0.0408 | 308 | 0.401 |
725
+ | 0.0410 | 309 | 0.3367 |
726
+ | 0.0411 | 310 | 0.3762 |
727
+ | 0.0412 | 311 | 0.3056 |
728
+ | 0.0414 | 312 | 0.3379 |
729
+ | 0.0415 | 313 | 0.3156 |
730
+ | 0.0416 | 314 | 0.3274 |
731
+ | 0.0418 | 315 | 0.3386 |
732
+ | 0.0419 | 316 | 0.3434 |
733
+ | 0.0420 | 317 | 0.2867 |
734
+ | 0.0422 | 318 | 0.2996 |
735
+ | 0.0423 | 319 | 0.3022 |
736
+ | 0.0424 | 320 | 0.3414 |
737
+ | 0.0426 | 321 | 0.2923 |
738
+ | 0.0427 | 322 | 0.3175 |
739
+ | 0.0428 | 323 | 0.3304 |
740
+ | 0.0430 | 324 | 0.2774 |
741
+ | 0.0431 | 325 | 0.2385 |
742
+ | 0.0432 | 326 | 0.362 |
743
+ | 0.0434 | 327 | 0.3068 |
744
+ | 0.0435 | 328 | 0.2775 |
745
+ | 0.0436 | 329 | 0.3612 |
746
+ | 0.0438 | 330 | 0.3716 |
747
+ | 0.0439 | 331 | 0.3137 |
748
+ | 0.0440 | 332 | 0.2856 |
749
+ | 0.0442 | 333 | 0.3177 |
750
+ | 0.0443 | 334 | 0.2966 |
751
+ | 0.0444 | 335 | 0.351 |
752
+ | 0.0446 | 336 | 0.2747 |
753
+ | 0.0447 | 337 | 0.334 |
754
+ | 0.0448 | 338 | 0.2556 |
755
+ | 0.0450 | 339 | 0.2811 |
756
+ | 0.0451 | 340 | 0.293 |
757
+ | 0.0452 | 341 | 0.2998 |
758
+ | 0.0454 | 342 | 0.2859 |
759
+ | 0.0455 | 343 | 0.2737 |
760
+ | 0.0456 | 344 | 0.2677 |
761
+ | 0.0457 | 345 | 0.2629 |
762
+ | 0.0459 | 346 | 0.3393 |
763
+ | 0.0460 | 347 | 0.2077 |
764
+ | 0.0461 | 348 | 0.2861 |
765
+ | 0.0463 | 349 | 0.297 |
766
+ | 0.0464 | 350 | 0.2625 |
767
+ | 0.0465 | 351 | 0.2875 |
768
+ | 0.0467 | 352 | 0.3205 |
769
+ | 0.0468 | 353 | 0.2951 |
770
+ | 0.0469 | 354 | 0.3056 |
771
+ | 0.0471 | 355 | 0.3167 |
772
+ | 0.0472 | 356 | 0.3063 |
773
+ | 0.0473 | 357 | 0.2618 |
774
+ | 0.0475 | 358 | 0.2525 |
775
+ | 0.0476 | 359 | 0.2869 |
776
+ | 0.0477 | 360 | 0.268 |
777
+ | 0.0479 | 361 | 0.329 |
778
+ | 0.0480 | 362 | 0.2428 |
779
+ | 0.0481 | 363 | 0.4065 |
780
+ | 0.0483 | 364 | 0.36 |
781
+ | 0.0484 | 365 | 0.3337 |
782
+ | 0.0485 | 366 | 0.2657 |
783
+ | 0.0487 | 367 | 0.3232 |
784
+ | 0.0488 | 368 | 0.2078 |
785
+ | 0.0489 | 369 | 0.3193 |
786
+ | 0.0491 | 370 | 0.3445 |
787
+ | 0.0492 | 371 | 0.3573 |
788
+ | 0.0493 | 372 | 0.2867 |
789
+ | 0.0495 | 373 | 0.2931 |
790
+ | 0.0496 | 374 | 0.2472 |
791
+ | 0.0497 | 375 | 0.3192 |
792
+ | 0.0499 | 376 | 0.3306 |
793
+ | 0.0500 | 377 | 0.2881 |
794
+ | 0.0501 | 378 | 0.2421 |
795
+ | 0.0503 | 379 | 0.2565 |
796
+ | 0.0504 | 380 | 0.2229 |
797
+ | 0.0505 | 381 | 0.2859 |
798
+ | 0.0507 | 382 | 0.259 |
799
+ | 0.0508 | 383 | 0.2778 |
800
+ | 0.0509 | 384 | 0.2952 |
801
+ | 0.0511 | 385 | 0.2943 |
802
+ | 0.0512 | 386 | 0.2375 |
803
+ | 0.0513 | 387 | 0.2742 |
804
+ | 0.0515 | 388 | 0.3092 |
805
+ | 0.0516 | 389 | 0.2887 |
806
+ | 0.0517 | 390 | 0.2456 |
807
+ | 0.0518 | 391 | 0.2789 |
808
+ | 0.0520 | 392 | 0.2996 |
809
+ | 0.0521 | 393 | 0.2245 |
810
+ | 0.0522 | 394 | 0.2964 |
811
+ | 0.0524 | 395 | 0.2965 |
812
+ | 0.0525 | 396 | 0.2602 |
813
+ | 0.0526 | 397 | 0.3065 |
814
+ | 0.0528 | 398 | 0.2225 |
815
+ | 0.0529 | 399 | 0.2502 |
816
+ | 0.0530 | 400 | 0.2535 |
817
+ | 0.0532 | 401 | 0.3445 |
818
+ | 0.0533 | 402 | 0.3139 |
819
+ | 0.0534 | 403 | 0.232 |
820
+ | 0.0536 | 404 | 0.2447 |
821
+ | 0.0537 | 405 | 0.3257 |
822
+ | 0.0538 | 406 | 0.2641 |
823
+ | 0.0540 | 407 | 0.2454 |
824
+ | 0.0541 | 408 | 0.2973 |
825
+ | 0.0542 | 409 | 0.2934 |
826
+ | 0.0544 | 410 | 0.3454 |
827
+ | 0.0545 | 411 | 0.3162 |
828
+ | 0.0546 | 412 | 0.2517 |
829
+ | 0.0548 | 413 | 0.2399 |
830
+ | 0.0549 | 414 | 0.3433 |
831
+ | 0.0550 | 415 | 0.2313 |
832
+ | 0.0552 | 416 | 0.2285 |
833
+ | 0.0553 | 417 | 0.2798 |
834
+ | 0.0554 | 418 | 0.3407 |
835
+ | 0.0556 | 419 | 0.2674 |
836
+ | 0.0557 | 420 | 0.2969 |
837
+ | 0.0558 | 421 | 0.3665 |
838
+ | 0.0560 | 422 | 0.2255 |
839
+ | 0.0561 | 423 | 0.2393 |
840
+ | 0.0562 | 424 | 0.3153 |
841
+ | 0.0564 | 425 | 0.2871 |
842
+ | 0.0565 | 426 | 0.2331 |
843
+ | 0.0566 | 427 | 0.2986 |
844
+ | 0.0568 | 428 | 0.2717 |
845
+ | 0.0569 | 429 | 0.2719 |
846
+ | 0.0570 | 430 | 0.2401 |
847
+ | 0.0572 | 431 | 0.3039 |
848
+ | 0.0573 | 432 | 0.2839 |
849
+ | 0.0574 | 433 | 0.2681 |
850
+ | 0.0576 | 434 | 0.2383 |
851
+ | 0.0577 | 435 | 0.248 |
852
+ | 0.0578 | 436 | 0.2649 |
853
+ | 0.0579 | 437 | 0.2803 |
854
+ | 0.0581 | 438 | 0.2594 |
855
+ | 0.0582 | 439 | 0.2581 |
856
+ | 0.0583 | 440 | 0.1916 |
857
+ | 0.0585 | 441 | 0.2726 |
858
+ | 0.0586 | 442 | 0.3164 |
859
+ | 0.0587 | 443 | 0.2197 |
860
+ | 0.0589 | 444 | 0.2992 |
861
+ | 0.0590 | 445 | 0.2456 |
862
+ | 0.0591 | 446 | 0.2471 |
863
+ | 0.0593 | 447 | 0.2251 |
864
+ | 0.0594 | 448 | 0.2601 |
865
+ | 0.0595 | 449 | 0.2776 |
866
+ | 0.0597 | 450 | 0.2862 |
867
+ | 0.0598 | 451 | 0.2087 |
868
+ | 0.0599 | 452 | 0.2595 |
869
+ | 0.0601 | 453 | 0.2999 |
870
+ | 0.0602 | 454 | 0.2091 |
871
+ | 0.0603 | 455 | 0.2563 |
872
+ | 0.0605 | 456 | 0.2277 |
873
+ | 0.0606 | 457 | 0.2301 |
874
+ | 0.0607 | 458 | 0.2402 |
875
+ | 0.0609 | 459 | 0.2494 |
876
+ | 0.0610 | 460 | 0.2709 |
877
+ | 0.0611 | 461 | 0.286 |
878
+ | 0.0613 | 462 | 0.265 |
879
+ | 0.0614 | 463 | 0.2205 |
880
+ | 0.0615 | 464 | 0.3257 |
881
+ | 0.0617 | 465 | 0.2403 |
882
+ | 0.0618 | 466 | 0.2221 |
883
+ | 0.0619 | 467 | 0.2415 |
884
+ | 0.0621 | 468 | 0.2372 |
885
+ | 0.0622 | 469 | 0.2816 |
886
+ | 0.0623 | 470 | 0.2298 |
887
+ | 0.0625 | 471 | 0.3038 |
888
+ | 0.0626 | 472 | 0.2694 |
889
+ | 0.0627 | 473 | 0.238 |
890
+ | 0.0629 | 474 | 0.2296 |
891
+ | 0.0630 | 475 | 0.2784 |
892
+ | 0.0631 | 476 | 0.2422 |
893
+ | 0.0633 | 477 | 0.2675 |
894
+ | 0.0634 | 478 | 0.2939 |
895
+ | 0.0635 | 479 | 0.2393 |
896
+ | 0.0637 | 480 | 0.2433 |
897
+ | 0.0638 | 481 | 0.268 |
898
+ | 0.0639 | 482 | 0.2381 |
899
+ | 0.0640 | 483 | 0.3069 |
900
+ | 0.0642 | 484 | 0.2794 |
901
+ | 0.0643 | 485 | 0.2628 |
902
+ | 0.0644 | 486 | 0.2404 |
903
+ | 0.0646 | 487 | 0.2309 |
904
+ | 0.0647 | 488 | 0.282 |
905
+ | 0.0648 | 489 | 0.312 |
906
+ | 0.0650 | 490 | 0.1765 |
907
+ | 0.0651 | 491 | 0.2379 |
908
+ | 0.0652 | 492 | 0.2543 |
909
+ | 0.0654 | 493 | 0.2469 |
910
+ | 0.0655 | 494 | 0.2743 |
911
+ | 0.0656 | 495 | 0.2989 |
912
+ | 0.0658 | 496 | 0.2591 |
913
+ | 0.0659 | 497 | 0.2603 |
914
+ | 0.0660 | 498 | 0.2469 |
915
+ | 0.0662 | 499 | 0.2843 |
916
+ | 0.0663 | 500 | 0.3094 |
917
+ | 0.0664 | 501 | 0.308 |
918
+ | 0.0666 | 502 | 0.2748 |
919
+ | 0.0667 | 503 | 0.2872 |
920
+ | 0.0668 | 504 | 0.2911 |
921
+ | 0.0670 | 505 | 0.2638 |
922
+ | 0.0671 | 506 | 0.2492 |
923
+ | 0.0672 | 507 | 0.2105 |
924
+ | 0.0674 | 508 | 0.2691 |
925
+ | 0.0675 | 509 | 0.323 |
926
+ | 0.0676 | 510 | 0.2523 |
927
+ | 0.0678 | 511 | 0.24 |
928
+ | 0.0679 | 512 | 0.23 |
929
+ | 0.0680 | 513 | 0.2539 |
930
+ | 0.0682 | 514 | 0.1826 |
931
+ | 0.0683 | 515 | 0.2862 |
932
+ | 0.0684 | 516 | 0.2399 |
933
+ | 0.0686 | 517 | 0.3351 |
934
+ | 0.0687 | 518 | 0.2342 |
935
+ | 0.0688 | 519 | 0.3024 |
936
+ | 0.0690 | 520 | 0.2693 |
937
+ | 0.0691 | 521 | 0.2057 |
938
+ | 0.0692 | 522 | 0.2194 |
939
+ | 0.0694 | 523 | 0.155 |
940
+ | 0.0695 | 524 | 0.2445 |
941
+ | 0.0696 | 525 | 0.2262 |
942
+ | 0.0698 | 526 | 0.235 |
943
+ | 0.0699 | 527 | 0.2306 |
944
+ | 0.0700 | 528 | 0.2437 |
945
+ | 0.0701 | 529 | 0.2656 |
946
+ | 0.0703 | 530 | 0.2731 |
947
+ | 0.0704 | 531 | 0.281 |
948
+ | 0.0705 | 532 | 0.2421 |
949
+ | 0.0707 | 533 | 0.2406 |
950
+ | 0.0708 | 534 | 0.3476 |
951
+ | 0.0709 | 535 | 0.3076 |
952
+ | 0.0711 | 536 | 0.2794 |
953
+ | 0.0712 | 537 | 0.2168 |
954
+ | 0.0713 | 538 | 0.2138 |
955
+ | 0.0715 | 539 | 0.2067 |
956
+ | 0.0716 | 540 | 0.335 |
957
+ | 0.0717 | 541 | 0.2257 |
958
+ | 0.0719 | 542 | 0.2593 |
959
+ | 0.0720 | 543 | 0.2709 |
960
+ | 0.0721 | 544 | 0.2433 |
961
+ | 0.0723 | 545 | 0.2653 |
962
+ | 0.0724 | 546 | 0.2434 |
963
+ | 0.0725 | 547 | 0.2253 |
964
+ | 0.0727 | 548 | 0.2034 |
965
+ | 0.0728 | 549 | 0.2703 |
966
+ | 0.0729 | 550 | 0.3162 |
967
+ | 0.0731 | 551 | 0.2171 |
968
+ | 0.0732 | 552 | 0.2334 |
969
+ | 0.0733 | 553 | 0.2613 |
970
+ | 0.0735 | 554 | 0.2287 |
971
+ | 0.0736 | 555 | 0.2343 |
972
+ | 0.0737 | 556 | 0.2008 |
973
+ | 0.0739 | 557 | 0.2462 |
974
+ | 0.0740 | 558 | 0.2756 |
975
+ | 0.0741 | 559 | 0.2186 |
976
+ | 0.0743 | 560 | 0.2357 |
977
+ | 0.0744 | 561 | 0.1811 |
978
+ | 0.0745 | 562 | 0.2386 |
979
+ | 0.0747 | 563 | 0.2244 |
980
+ | 0.0748 | 564 | 0.3145 |
981
+ | 0.0749 | 565 | 0.2261 |
982
+ | 0.0751 | 566 | 0.2449 |
983
+ | 0.0752 | 567 | 0.2855 |
984
+ | 0.0753 | 568 | 0.235 |
985
+ | 0.0755 | 569 | 0.2283 |
986
+ | 0.0756 | 570 | 0.2084 |
987
+ | 0.0757 | 571 | 0.2431 |
988
+ | 0.0759 | 572 | 0.2362 |
989
+ | 0.0760 | 573 | 0.2498 |
990
+ | 0.0761 | 574 | 0.2542 |
991
+ | 0.0762 | 575 | 0.2262 |
992
+ | 0.0764 | 576 | 0.2368 |
993
+ | 0.0765 | 577 | 0.2673 |
994
+ | 0.0766 | 578 | 0.2123 |
995
+ | 0.0768 | 579 | 0.2354 |
996
+ | 0.0769 | 580 | 0.2616 |
997
+ | 0.0770 | 581 | 0.2296 |
998
+ | 0.0772 | 582 | 0.2837 |
999
+ | 0.0773 | 583 | 0.256 |
1000
+ | 0.0774 | 584 | 0.1973 |
1001
+ | 0.0776 | 585 | 0.2311 |
1002
+ | 0.0777 | 586 | 0.2219 |
1003
+ | 0.0778 | 587 | 0.2318 |
1004
+ | 0.0780 | 588 | 0.2215 |
1005
+ | 0.0781 | 589 | 0.2474 |
1006
+ | 0.0782 | 590 | 0.1652 |
1007
+ | 0.0784 | 591 | 0.2297 |
1008
+ | 0.0785 | 592 | 0.2132 |
1009
+ | 0.0786 | 593 | 0.2405 |
1010
+ | 0.0788 | 594 | 0.2012 |
1011
+ | 0.0789 | 595 | 0.2628 |
1012
+ | 0.0790 | 596 | 0.2305 |
1013
+ | 0.0792 | 597 | 0.1794 |
1014
+ | 0.0793 | 598 | 0.226 |
1015
+ | 0.0794 | 599 | 0.2852 |
1016
+ | 0.0796 | 600 | 0.2026 |
1017
+ | 0.0797 | 601 | 0.2286 |
1018
+ | 0.0798 | 602 | 0.2489 |
1019
+ | 0.0800 | 603 | 0.244 |
1020
+ | 0.0801 | 604 | 0.1933 |
1021
+ | 0.0802 | 605 | 0.2627 |
1022
+ | 0.0804 | 606 | 0.2742 |
1023
+ | 0.0805 | 607 | 0.2534 |
1024
+ | 0.0806 | 608 | 0.2006 |
1025
+ | 0.0808 | 609 | 0.2651 |
1026
+ | 0.0809 | 610 | 0.2365 |
1027
+ | 0.0810 | 611 | 0.2613 |
1028
+ | 0.0812 | 612 | 0.214 |
1029
+ | 0.0813 | 613 | 0.2631 |
1030
+ | 0.0814 | 614 | 0.2123 |
1031
+ | 0.0816 | 615 | 0.264 |
1032
+ | 0.0817 | 616 | 0.2476 |
1033
+ | 0.0818 | 617 | 0.1832 |
1034
+ | 0.0820 | 618 | 0.2502 |
1035
+ | 0.0821 | 619 | 0.2154 |
1036
+ | 0.0822 | 620 | 0.1827 |
1037
+ | 0.0823 | 621 | 0.1986 |
1038
+ | 0.0825 | 622 | 0.1941 |
1039
+ | 0.0826 | 623 | 0.3169 |
1040
+ | 0.0827 | 624 | 0.2879 |
1041
+ | 0.0829 | 625 | 0.1893 |
1042
+ | 0.0830 | 626 | 0.2422 |
1043
+ | 0.0831 | 627 | 0.1879 |
1044
+ | 0.0833 | 628 | 0.1934 |
1045
+ | 0.0834 | 629 | 0.2704 |
1046
+ | 0.0835 | 630 | 0.2647 |
1047
+ | 0.0837 | 631 | 0.172 |
1048
+ | 0.0838 | 632 | 0.2293 |
1049
+ | 0.0839 | 633 | 0.2379 |
1050
+ | 0.0841 | 634 | 0.2218 |
1051
+ | 0.0842 | 635 | 0.1942 |
1052
+ | 0.0843 | 636 | 0.2721 |
1053
+ | 0.0845 | 637 | 0.225 |
1054
+ | 0.0846 | 638 | 0.1792 |
1055
+ | 0.0847 | 639 | 0.2242 |
1056
+ | 0.0849 | 640 | 0.2294 |
1057
+ | 0.0850 | 641 | 0.245 |
1058
+ | 0.0851 | 642 | 0.2796 |
1059
+ | 0.0853 | 643 | 0.2202 |
1060
+ | 0.0854 | 644 | 0.2604 |
1061
+ | 0.0855 | 645 | 0.2502 |
1062
+ | 0.0857 | 646 | 0.2551 |
1063
+ | 0.0858 | 647 | 0.2426 |
1064
+ | 0.0859 | 648 | 0.2284 |
1065
+ | 0.0861 | 649 | 0.2045 |
1066
+ | 0.0862 | 650 | 0.2009 |
1067
+ | 0.0863 | 651 | 0.1626 |
1068
+ | 0.0865 | 652 | 0.1887 |
1069
+ | 0.0866 | 653 | 0.2635 |
1070
+ | 0.0867 | 654 | 0.2657 |
1071
+ | 0.0869 | 655 | 0.2294 |
1072
+ | 0.0870 | 656 | 0.2273 |
1073
+ | 0.0871 | 657 | 0.2435 |
1074
+ | 0.0873 | 658 | 0.2155 |
1075
+ | 0.0874 | 659 | 0.2994 |
1076
+ | 0.0875 | 660 | 0.2589 |
1077
+ | 0.0877 | 661 | 0.2215 |
1078
+ | 0.0878 | 662 | 0.2351 |
1079
+ | 0.0879 | 663 | 0.2421 |
1080
+ | 0.0881 | 664 | 0.2354 |
1081
+ | 0.0882 | 665 | 0.2121 |
1082
+ | 0.0883 | 666 | 0.2563 |
1083
+ | 0.0884 | 667 | 0.1664 |
1084
+ | 0.0886 | 668 | 0.2368 |
1085
+ | 0.0887 | 669 | 0.2324 |
1086
+ | 0.0888 | 670 | 0.1557 |
1087
+ | 0.0890 | 671 | 0.2187 |
1088
+ | 0.0891 | 672 | 0.2257 |
1089
+ | 0.0892 | 673 | 0.2098 |
1090
+ | 0.0894 | 674 | 0.2091 |
1091
+ | 0.0895 | 675 | 0.1942 |
1092
+ | 0.0896 | 676 | 0.2308 |
1093
+ | 0.0898 | 677 | 0.2143 |
1094
+ | 0.0899 | 678 | 0.1557 |
1095
+ | 0.0900 | 679 | 0.2221 |
1096
+ | 0.0902 | 680 | 0.2849 |
1097
+ | 0.0903 | 681 | 0.2145 |
1098
+ | 0.0904 | 682 | 0.2729 |
1099
+ | 0.0906 | 683 | 0.1669 |
1100
+ | 0.0907 | 684 | 0.2307 |
1101
+ | 0.0908 | 685 | 0.2233 |
1102
+ | 0.0910 | 686 | 0.2401 |
1103
+ | 0.0911 | 687 | 0.1956 |
1104
+ | 0.0912 | 688 | 0.1902 |
1105
+ | 0.0914 | 689 | 0.2097 |
1106
+ | 0.0915 | 690 | 0.2348 |
1107
+ | 0.0916 | 691 | 0.2459 |
1108
+ | 0.0918 | 692 | 0.2128 |
1109
+ | 0.0919 | 693 | 0.1694 |
1110
+ | 0.0920 | 694 | 0.2565 |
1111
+ | 0.0922 | 695 | 0.2284 |
1112
+ | 0.0923 | 696 | 0.2436 |
1113
+ | 0.0924 | 697 | 0.2159 |
1114
+ | 0.0926 | 698 | 0.2138 |
1115
+ | 0.0927 | 699 | 0.2371 |
1116
+ | 0.0928 | 700 | 0.2882 |
1117
+ | 0.0930 | 701 | 0.2451 |
1118
+ | 0.0931 | 702 | 0.2459 |
1119
+ | 0.0932 | 703 | 0.1529 |
1120
+ | 0.0934 | 704 | 0.1697 |
1121
+ | 0.0935 | 705 | 0.2245 |
1122
+ | 0.0936 | 706 | 0.2201 |
1123
+ | 0.0938 | 707 | 0.2318 |
1124
+ | 0.0939 | 708 | 0.2236 |
1125
+ | 0.0940 | 709 | 0.2343 |
1126
+ | 0.0942 | 710 | 0.2339 |
1127
+ | 0.0943 | 711 | 0.1975 |
1128
+ | 0.0944 | 712 | 0.2275 |
1129
+ | 0.0945 | 713 | 0.234 |
1130
+ | 0.0947 | 714 | 0.259 |
1131
+ | 0.0948 | 715 | 0.2044 |
1132
+ | 0.0949 | 716 | 0.1714 |
1133
+ | 0.0951 | 717 | 0.2841 |
1134
+ | 0.0952 | 718 | 0.2509 |
1135
+ | 0.0953 | 719 | 0.2107 |
1136
+ | 0.0955 | 720 | 0.1995 |
1137
+ | 0.0956 | 721 | 0.1877 |
1138
+ | 0.0957 | 722 | 0.2648 |
1139
+ | 0.0959 | 723 | 0.2381 |
1140
+ | 0.0960 | 724 | 0.2349 |
1141
+ | 0.0961 | 725 | 0.2148 |
1142
+ | 0.0963 | 726 | 0.2292 |
1143
+ | 0.0964 | 727 | 0.2327 |
1144
+ | 0.0965 | 728 | 0.2198 |
1145
+ | 0.0967 | 729 | 0.2125 |
1146
+ | 0.0968 | 730 | 0.241 |
1147
+ | 0.0969 | 731 | 0.1878 |
1148
+ | 0.0971 | 732 | 0.2262 |
1149
+ | 0.0972 | 733 | 0.3006 |
1150
+ | 0.0973 | 734 | 0.2525 |
1151
+ | 0.0975 | 735 | 0.2099 |
1152
+ | 0.0976 | 736 | 0.158 |
1153
+ | 0.0977 | 737 | 0.2308 |
1154
+ | 0.0979 | 738 | 0.2685 |
1155
+ | 0.0980 | 739 | 0.2047 |
1156
+ | 0.0981 | 740 | 0.1584 |
1157
+ | 0.0983 | 741 | 0.2674 |
1158
+ | 0.0984 | 742 | 0.2233 |
1159
+ | 0.0985 | 743 | 0.2767 |
1160
+ | 0.0987 | 744 | 0.2963 |
1161
+ | 0.0988 | 745 | 0.203 |
1162
+ | 0.0989 | 746 | 0.2725 |
1163
+ | 0.0991 | 747 | 0.1873 |
1164
+ | 0.0992 | 748 | 0.2225 |
1165
+ | 0.0993 | 749 | 0.2706 |
1166
+ | 0.0995 | 750 | 0.27 |
1167
+ | 0.0996 | 751 | 0.1753 |
1168
+ | 0.0997 | 752 | 0.2031 |
1169
+ | 0.0999 | 753 | 0.2059 |
1170
+ | 0.1000 | 754 | 0.2749 |
1171
+ | 0.1001 | 755 | 0.2011 |
1172
+ | 0.1003 | 756 | 0.2067 |
1173
+ | 0.1004 | 757 | 0.2486 |
1174
+ | 0.1005 | 758 | 0.257 |
1175
+ | 0.1006 | 759 | 0.236 |
1176
+ | 0.1008 | 760 | 0.2361 |
1177
+ | 0.1009 | 761 | 0.1818 |
1178
+ | 0.1010 | 762 | 0.1799 |
1179
+ | 0.1012 | 763 | 0.2408 |
1180
+ | 0.1013 | 764 | 0.2526 |
1181
+ | 0.1014 | 765 | 0.2234 |
1182
+ | 0.1016 | 766 | 0.2055 |
1183
+ | 0.1017 | 767 | 0.2068 |
1184
+ | 0.1018 | 768 | 0.2621 |
1185
+ | 0.1020 | 769 | 0.2182 |
1186
+ | 0.1021 | 770 | 0.309 |
1187
+ | 0.1022 | 771 | 0.2786 |
1188
+ | 0.1024 | 772 | 0.1517 |
1189
+ | 0.1025 | 773 | 0.2266 |
1190
+ | 0.1026 | 774 | 0.2028 |
1191
+ | 0.1028 | 775 | 0.2851 |
1192
+ | 0.1029 | 776 | 0.2474 |
1193
+ | 0.1030 | 777 | 0.2241 |
1194
+ | 0.1032 | 778 | 0.2593 |
1195
+ | 0.1033 | 779 | 0.2101 |
1196
+ | 0.1034 | 780 | 0.147 |
1197
+ | 0.1036 | 781 | 0.231 |
1198
+ | 0.1037 | 782 | 0.1734 |
1199
+ | 0.1038 | 783 | 0.2107 |
1200
+ | 0.1040 | 784 | 0.219 |
1201
+ | 0.1041 | 785 | 0.2229 |
1202
+ | 0.1042 | 786 | 0.2096 |
1203
+ | 0.1044 | 787 | 0.2777 |
1204
+ | 0.1045 | 788 | 0.1967 |
1205
+ | 0.1046 | 789 | 0.2445 |
1206
+ | 0.1048 | 790 | 0.1847 |
1207
+ | 0.1049 | 791 | 0.1525 |
1208
+ | 0.1050 | 792 | 0.201 |
1209
+ | 0.1052 | 793 | 0.181 |
1210
+ | 0.1053 | 794 | 0.1737 |
1211
+ | 0.1054 | 795 | 0.1893 |
1212
+ | 0.1056 | 796 | 0.2084 |
1213
+ | 0.1057 | 797 | 0.2367 |
1214
+ | 0.1058 | 798 | 0.2266 |
1215
+ | 0.1060 | 799 | 0.1858 |
1216
+ | 0.1061 | 800 | 0.2138 |
1217
+ | 0.1062 | 801 | 0.1704 |
1218
+ | 0.1064 | 802 | 0.2377 |
1219
+ | 0.1065 | 803 | 0.2107 |
1220
+ | 0.1066 | 804 | 0.172 |
1221
+ | 0.1067 | 805 | 0.1858 |
1222
+ | 0.1069 | 806 | 0.1804 |
1223
+ | 0.1070 | 807 | 0.2421 |
1224
+ | 0.1071 | 808 | 0.2433 |
1225
+ | 0.1073 | 809 | 0.1867 |
1226
+ | 0.1074 | 810 | 0.2003 |
1227
+ | 0.1075 | 811 | 0.1785 |
1228
+ | 0.1077 | 812 | 0.2538 |
1229
+ | 0.1078 | 813 | 0.1582 |
1230
+ | 0.1079 | 814 | 0.2325 |
1231
+ | 0.1081 | 815 | 0.2073 |
1232
+ | 0.1082 | 816 | 0.2168 |
1233
+ | 0.1083 | 817 | 0.1958 |
1234
+ | 0.1085 | 818 | 0.1847 |
1235
+ | 0.1086 | 819 | 0.1702 |
1236
+ | 0.1087 | 820 | 0.244 |
1237
+ | 0.1089 | 821 | 0.2063 |
1238
+ | 0.1090 | 822 | 0.1923 |
1239
+ | 0.1091 | 823 | 0.2571 |
1240
+ | 0.1093 | 824 | 0.2683 |
1241
+ | 0.1094 | 825 | 0.2088 |
1242
+ | 0.1095 | 826 | 0.3397 |
1243
+ | 0.1097 | 827 | 0.2355 |
1244
+ | 0.1098 | 828 | 0.2 |
1245
+ | 0.1099 | 829 | 0.2657 |
1246
+ | 0.1101 | 830 | 0.1738 |
1247
+ | 0.1102 | 831 | 0.2237 |
1248
+ | 0.1103 | 832 | 0.2023 |
1249
+ | 0.1105 | 833 | 0.1805 |
1250
+ | 0.1106 | 834 | 0.1801 |
1251
+ | 0.1107 | 835 | 0.2095 |
1252
+ | 0.1109 | 836 | 0.1901 |
1253
+ | 0.1110 | 837 | 0.2139 |
1254
+ | 0.1111 | 838 | 0.2157 |
1255
+ | 0.1113 | 839 | 0.2403 |
1256
+ | 0.1114 | 840 | 0.1356 |
1257
+ | 0.1115 | 841 | 0.2247 |
1258
+ | 0.1117 | 842 | 0.2338 |
1259
+ | 0.1118 | 843 | 0.185 |
1260
+ | 0.1119 | 844 | 0.2787 |
1261
+ | 0.1121 | 845 | 0.2026 |
1262
+ | 0.1122 | 846 | 0.2 |
1263
+ | 0.1123 | 847 | 0.2214 |
1264
+ | 0.1125 | 848 | 0.1887 |
1265
+ | 0.1126 | 849 | 0.2144 |
1266
+ | 0.1127 | 850 | 0.2552 |
1267
+ | 0.1128 | 851 | 0.2443 |
1268
+ | 0.1130 | 852 | 0.1934 |
1269
+ | 0.1131 | 853 | 0.1907 |
1270
+ | 0.1132 | 854 | 0.2258 |
1271
+ | 0.1134 | 855 | 0.212 |
1272
+ | 0.1135 | 856 | 0.2151 |
1273
+ | 0.1136 | 857 | 0.2173 |
1274
+ | 0.1138 | 858 | 0.1976 |
1275
+ | 0.1139 | 859 | 0.2427 |
1276
+ | 0.1140 | 860 | 0.1984 |
1277
+ | 0.1142 | 861 | 0.2138 |
1278
+ | 0.1143 | 862 | 0.2225 |
1279
+ | 0.1144 | 863 | 0.1992 |
1280
+ | 0.1146 | 864 | 0.1738 |
1281
+ | 0.1147 | 865 | 0.1853 |
1282
+ | 0.1148 | 866 | 0.2464 |
1283
+ | 0.1150 | 867 | 0.2278 |
1284
+ | 0.1151 | 868 | 0.2248 |
1285
+ | 0.1152 | 869 | 0.1515 |
1286
+ | 0.1154 | 870 | 0.1649 |
1287
+ | 0.1155 | 871 | 0.2059 |
1288
+ | 0.1156 | 872 | 0.2325 |
1289
+ | 0.1158 | 873 | 0.2582 |
1290
+ | 0.1159 | 874 | 0.2337 |
1291
+ | 0.1160 | 875 | 0.2171 |
1292
+ | 0.1162 | 876 | 0.2003 |
1293
+ | 0.1163 | 877 | 0.1839 |
1294
+ | 0.1164 | 878 | 0.3144 |
1295
+ | 0.1166 | 879 | 0.1853 |
1296
+ | 0.1167 | 880 | 0.2039 |
1297
+ | 0.1168 | 881 | 0.2692 |
1298
+ | 0.1170 | 882 | 0.2438 |
1299
+ | 0.1171 | 883 | 0.3044 |
1300
+ | 0.1172 | 884 | 0.2862 |
1301
+ | 0.1174 | 885 | 0.211 |
1302
+ | 0.1175 | 886 | 0.2682 |
1303
+ | 0.1176 | 887 | 0.2622 |
1304
+ | 0.1178 | 888 | 0.2321 |
1305
+ | 0.1179 | 889 | 0.2082 |
1306
+ | 0.1180 | 890 | 0.196 |
1307
+ | 0.1182 | 891 | 0.2833 |
1308
+ | 0.1183 | 892 | 0.202 |
1309
+ | 0.1184 | 893 | 0.1902 |
1310
+ | 0.1186 | 894 | 0.1899 |
1311
+ | 0.1187 | 895 | 0.2158 |
1312
+ | 0.1188 | 896 | 0.2342 |
1313
+ | 0.1189 | 897 | 0.1907 |
1314
+ | 0.1191 | 898 | 0.2876 |
1315
+ | 0.1192 | 899 | 0.192 |
1316
+ | 0.1193 | 900 | 0.1858 |
1317
+ | 0.1195 | 901 | 0.156 |
1318
+ | 0.1196 | 902 | 0.2121 |
1319
+ | 0.1197 | 903 | 0.2576 |
1320
+ | 0.1199 | 904 | 0.2424 |
1321
+ | 0.1200 | 905 | 0.1558 |
1322
+ | 0.1201 | 906 | 0.246 |
1323
+ | 0.1203 | 907 | 0.2339 |
1324
+ | 0.1204 | 908 | 0.258 |
1325
+ | 0.1205 | 909 | 0.197 |
1326
+ | 0.1207 | 910 | 0.212 |
1327
+ | 0.1208 | 911 | 0.1962 |
1328
+ | 0.1209 | 912 | 0.2636 |
1329
+ | 0.1211 | 913 | 0.16 |
1330
+ | 0.1212 | 914 | 0.201 |
1331
+ | 0.1213 | 915 | 0.237 |
1332
+ | 0.1215 | 916 | 0.1827 |
1333
+ | 0.1216 | 917 | 0.2384 |
1334
+ | 0.1217 | 918 | 0.2102 |
1335
+ | 0.1219 | 919 | 0.2366 |
1336
+ | 0.1220 | 920 | 0.2186 |
1337
+ | 0.1221 | 921 | 0.147 |
1338
+ | 0.1223 | 922 | 0.2121 |
1339
+ | 0.1224 | 923 | 0.1364 |
1340
+ | 0.1225 | 924 | 0.2493 |
1341
+ | 0.1227 | 925 | 0.2246 |
1342
+ | 0.1228 | 926 | 0.2436 |
1343
+ | 0.1229 | 927 | 0.2798 |
1344
+ | 0.1231 | 928 | 0.1885 |
1345
+ | 0.1232 | 929 | 0.178 |
1346
+ | 0.1233 | 930 | 0.2246 |
1347
+ | 0.1235 | 931 | 0.3115 |
1348
+ | 0.1236 | 932 | 0.2451 |
1349
+ | 0.1237 | 933 | 0.1786 |
1350
+ | 0.1239 | 934 | 0.159 |
1351
+ | 0.1240 | 935 | 0.1896 |
1352
+ | 0.1241 | 936 | 0.2422 |
1353
+ | 0.1243 | 937 | 0.2497 |
1354
+ | 0.1244 | 938 | 0.2339 |
1355
+ | 0.1245 | 939 | 0.1685 |
1356
+ | 0.1247 | 940 | 0.162 |
1357
+ | 0.1248 | 941 | 0.2064 |
1358
+ | 0.1249 | 942 | 0.1232 |
1359
+ | 0.1250 | 943 | 0.2158 |
1360
+ | 0.1252 | 944 | 0.2738 |
1361
+ | 0.1253 | 945 | 0.1813 |
1362
+ | 0.1254 | 946 | 0.1498 |
1363
+ | 0.1256 | 947 | 0.1617 |
1364
+ | 0.1257 | 948 | 0.1967 |
1365
+ | 0.1258 | 949 | 0.2021 |
1366
+ | 0.1260 | 950 | 0.144 |
1367
+ | 0.1261 | 951 | 0.2569 |
1368
+ | 0.1262 | 952 | 0.2608 |
1369
+ | 0.1264 | 953 | 0.1876 |
1370
+ | 0.1265 | 954 | 0.1767 |
1371
+ | 0.1266 | 955 | 0.1712 |
1372
+ | 0.1268 | 956 | 0.2498 |
1373
+ | 0.1269 | 957 | 0.2866 |
1374
+ | 0.1270 | 958 | 0.1918 |
1375
+ | 0.1272 | 959 | 0.2038 |
1376
+ | 0.1273 | 960 | 0.1982 |
1377
+ | 0.1274 | 961 | 0.2127 |
1378
+ | 0.1276 | 962 | 0.2411 |
1379
+ | 0.1277 | 963 | 0.2639 |
1380
+ | 0.1278 | 964 | 0.2552 |
1381
+ | 0.1280 | 965 | 0.2376 |
1382
+ | 0.1281 | 966 | 0.2645 |
1383
+ | 0.1282 | 967 | 0.1697 |
1384
+ | 0.1284 | 968 | 0.1944 |
1385
+ | 0.1285 | 969 | 0.1807 |
1386
+ | 0.1286 | 970 | 0.2027 |
1387
+ | 0.1288 | 971 | 0.219 |
1388
+ | 0.1289 | 972 | 0.2317 |
1389
+ | 0.1290 | 973 | 0.2104 |
1390
+ | 0.1292 | 974 | 0.2191 |
1391
+ | 0.1293 | 975 | 0.2081 |
1392
+ | 0.1294 | 976 | 0.239 |
1393
+ | 0.1296 | 977 | 0.189 |
1394
+ | 0.1297 | 978 | 0.1859 |
1395
+ | 0.1298 | 979 | 0.2516 |
1396
+ | 0.1300 | 980 | 0.217 |
1397
+ | 0.1301 | 981 | 0.269 |
1398
+ | 0.1302 | 982 | 0.2385 |
1399
+ | 0.1304 | 983 | 0.198 |
1400
+ | 0.1305 | 984 | 0.2239 |
1401
+ | 0.1306 | 985 | 0.2006 |
1402
+ | 0.1308 | 986 | 0.3049 |
1403
+ | 0.1309 | 987 | 0.1857 |
1404
+ | 0.1310 | 988 | 0.2048 |
1405
+ | 0.1311 | 989 | 0.2556 |
1406
+ | 0.1313 | 990 | 0.1578 |
1407
+ | 0.1314 | 991 | 0.2305 |
1408
+ | 0.1315 | 992 | 0.2078 |
1409
+ | 0.1317 | 993 | 0.2333 |
1410
+ | 0.1318 | 994 | 0.1999 |
1411
+ | 0.1319 | 995 | 0.2347 |
1412
+ | 0.1321 | 996 | 0.2293 |
1413
+ | 0.1322 | 997 | 0.1871 |
1414
+ | 0.1323 | 998 | 0.1855 |
1415
+ | 0.1325 | 999 | 0.1786 |
1416
+ | 0.1326 | 1000 | 0.181 |
1417
+
1418
+ </details>
1419
+
1420
+ ### Framework Versions
1421
+ - Python: 3.10.12
1422
+ - Sentence Transformers: 3.2.1
1423
+ - Transformers: 4.44.2
1424
+ - PyTorch: 2.3.1+cu121
1425
+ - Accelerate: 1.1.1
1426
+ - Datasets: 2.21.0
1427
+ - Tokenizers: 0.19.1
1428
+
1429
+ ## Citation
1430
+
1431
+ ### BibTeX
1432
+
1433
+ #### Sentence Transformers
1434
+ ```bibtex
1435
+ @inproceedings{reimers-2019-sentence-bert,
1436
+ title = "Sentence-BERT: Sentence Embeddings using Siamese BERT-Networks",
1437
+ author = "Reimers, Nils and Gurevych, Iryna",
1438
+ booktitle = "Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing",
1439
+ month = "11",
1440
+ year = "2019",
1441
+ publisher = "Association for Computational Linguistics",
1442
+ url = "https://arxiv.org/abs/1908.10084",
1443
+ }
1444
+ ```
1445
+
1446
+ #### MultipleNegativesRankingLoss
1447
+ ```bibtex
1448
+ @misc{henderson2017efficient,
1449
+ title={Efficient Natural Language Response Suggestion for Smart Reply},
1450
+ author={Matthew Henderson and Rami Al-Rfou and Brian Strope and Yun-hsuan Sung and Laszlo Lukacs and Ruiqi Guo and Sanjiv Kumar and Balint Miklos and Ray Kurzweil},
1451
+ year={2017},
1452
+ eprint={1705.00652},
1453
+ archivePrefix={arXiv},
1454
+ primaryClass={cs.CL}
1455
+ }
1456
+ ```
1457
+
1458
+ <!--
1459
+ ## Glossary
1460
+
1461
+ *Clearly define terms in order to be accessible across audiences.*
1462
+ -->
1463
+
1464
+ <!--
1465
+ ## Model Card Authors
1466
+
1467
+ *Lists the people who create the model card, providing recognition and accountability for the detailed work that goes into its construction.*
1468
+ -->
1469
+
1470
+ <!--
1471
+ ## Model Card Contact
1472
+
1473
+ *Provides a way for people who have updates to the Model Card, suggestions, or questions, to contact the Model Card authors.*
1474
+ -->
config.json ADDED
@@ -0,0 +1,28 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ {
2
+ "_name_or_path": "models/e5-large-neg-v0-bs40-lr1e-6/checkpoint-1000",
3
+ "architectures": [
4
+ "XLMRobertaModel"
5
+ ],
6
+ "attention_probs_dropout_prob": 0.1,
7
+ "bos_token_id": 0,
8
+ "classifier_dropout": null,
9
+ "eos_token_id": 2,
10
+ "hidden_act": "gelu",
11
+ "hidden_dropout_prob": 0.1,
12
+ "hidden_size": 1024,
13
+ "initializer_range": 0.02,
14
+ "intermediate_size": 4096,
15
+ "layer_norm_eps": 1e-05,
16
+ "max_position_embeddings": 514,
17
+ "model_type": "xlm-roberta",
18
+ "num_attention_heads": 16,
19
+ "num_hidden_layers": 24,
20
+ "output_past": true,
21
+ "pad_token_id": 1,
22
+ "position_embedding_type": "absolute",
23
+ "torch_dtype": "float32",
24
+ "transformers_version": "4.44.2",
25
+ "type_vocab_size": 1,
26
+ "use_cache": true,
27
+ "vocab_size": 250002
28
+ }
config_sentence_transformers.json ADDED
@@ -0,0 +1,10 @@
 
 
 
 
 
 
 
 
 
 
 
1
+ {
2
+ "__version__": {
3
+ "sentence_transformers": "3.2.1",
4
+ "transformers": "4.44.2",
5
+ "pytorch": "2.3.1+cu121"
6
+ },
7
+ "prompts": {},
8
+ "default_prompt_name": null,
9
+ "similarity_fn_name": null
10
+ }
model.safetensors ADDED
@@ -0,0 +1,3 @@
 
 
 
 
1
+ version https://git-lfs.github.com/spec/v1
2
+ oid sha256:949d326ebf5283518d88a135474985633e07243ab84540693aab85b943e003de
3
+ size 2239607176
modules.json ADDED
@@ -0,0 +1,20 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ [
2
+ {
3
+ "idx": 0,
4
+ "name": "0",
5
+ "path": "",
6
+ "type": "sentence_transformers.models.Transformer"
7
+ },
8
+ {
9
+ "idx": 1,
10
+ "name": "1",
11
+ "path": "1_Pooling",
12
+ "type": "sentence_transformers.models.Pooling"
13
+ },
14
+ {
15
+ "idx": 2,
16
+ "name": "2",
17
+ "path": "2_Normalize",
18
+ "type": "sentence_transformers.models.Normalize"
19
+ }
20
+ ]
sentence_bert_config.json ADDED
@@ -0,0 +1,4 @@
 
 
 
 
 
1
+ {
2
+ "max_seq_length": 512,
3
+ "do_lower_case": false
4
+ }
special_tokens_map.json ADDED
@@ -0,0 +1,51 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ {
2
+ "bos_token": {
3
+ "content": "<s>",
4
+ "lstrip": false,
5
+ "normalized": false,
6
+ "rstrip": false,
7
+ "single_word": false
8
+ },
9
+ "cls_token": {
10
+ "content": "<s>",
11
+ "lstrip": false,
12
+ "normalized": false,
13
+ "rstrip": false,
14
+ "single_word": false
15
+ },
16
+ "eos_token": {
17
+ "content": "</s>",
18
+ "lstrip": false,
19
+ "normalized": false,
20
+ "rstrip": false,
21
+ "single_word": false
22
+ },
23
+ "mask_token": {
24
+ "content": "<mask>",
25
+ "lstrip": true,
26
+ "normalized": false,
27
+ "rstrip": false,
28
+ "single_word": false
29
+ },
30
+ "pad_token": {
31
+ "content": "<pad>",
32
+ "lstrip": false,
33
+ "normalized": false,
34
+ "rstrip": false,
35
+ "single_word": false
36
+ },
37
+ "sep_token": {
38
+ "content": "</s>",
39
+ "lstrip": false,
40
+ "normalized": false,
41
+ "rstrip": false,
42
+ "single_word": false
43
+ },
44
+ "unk_token": {
45
+ "content": "<unk>",
46
+ "lstrip": false,
47
+ "normalized": false,
48
+ "rstrip": false,
49
+ "single_word": false
50
+ }
51
+ }
tokenizer.json ADDED
@@ -0,0 +1,3 @@
 
 
 
 
1
+ version https://git-lfs.github.com/spec/v1
2
+ oid sha256:883b037111086fd4dfebbbc9b7cee11e1517b5e0c0514879478661440f137085
3
+ size 17082987
tokenizer_config.json ADDED
@@ -0,0 +1,61 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ {
2
+ "added_tokens_decoder": {
3
+ "0": {
4
+ "content": "<s>",
5
+ "lstrip": false,
6
+ "normalized": false,
7
+ "rstrip": false,
8
+ "single_word": false,
9
+ "special": true
10
+ },
11
+ "1": {
12
+ "content": "<pad>",
13
+ "lstrip": false,
14
+ "normalized": false,
15
+ "rstrip": false,
16
+ "single_word": false,
17
+ "special": true
18
+ },
19
+ "2": {
20
+ "content": "</s>",
21
+ "lstrip": false,
22
+ "normalized": false,
23
+ "rstrip": false,
24
+ "single_word": false,
25
+ "special": true
26
+ },
27
+ "3": {
28
+ "content": "<unk>",
29
+ "lstrip": false,
30
+ "normalized": false,
31
+ "rstrip": false,
32
+ "single_word": false,
33
+ "special": true
34
+ },
35
+ "250001": {
36
+ "content": "<mask>",
37
+ "lstrip": true,
38
+ "normalized": false,
39
+ "rstrip": false,
40
+ "single_word": false,
41
+ "special": true
42
+ }
43
+ },
44
+ "bos_token": "<s>",
45
+ "clean_up_tokenization_spaces": true,
46
+ "cls_token": "<s>",
47
+ "eos_token": "</s>",
48
+ "mask_token": "<mask>",
49
+ "max_length": 512,
50
+ "model_max_length": 512,
51
+ "pad_to_multiple_of": null,
52
+ "pad_token": "<pad>",
53
+ "pad_token_type_id": 0,
54
+ "padding_side": "right",
55
+ "sep_token": "</s>",
56
+ "stride": 0,
57
+ "tokenizer_class": "XLMRobertaTokenizer",
58
+ "truncation_side": "right",
59
+ "truncation_strategy": "longest_first",
60
+ "unk_token": "<unk>"
61
+ }