Upload folder using huggingface_hub
Browse files- .gitattributes +1 -0
- 1_Pooling/config.json +10 -0
- README.md +539 -0
- config.json +28 -0
- config_sentence_transformers.json +10 -0
- model.safetensors +3 -0
- modules.json +20 -0
- sentence_bert_config.json +4 -0
- sentencepiece.bpe.model +3 -0
- special_tokens_map.json +51 -0
- tokenizer.json +3 -0
- tokenizer_config.json +55 -0
.gitattributes
CHANGED
@@ -33,3 +33,4 @@ saved_model/**/* filter=lfs diff=lfs merge=lfs -text
|
|
33 |
*.zip filter=lfs diff=lfs merge=lfs -text
|
34 |
*.zst filter=lfs diff=lfs merge=lfs -text
|
35 |
*tfevents* filter=lfs diff=lfs merge=lfs -text
|
|
|
|
33 |
*.zip filter=lfs diff=lfs merge=lfs -text
|
34 |
*.zst filter=lfs diff=lfs merge=lfs -text
|
35 |
*tfevents* filter=lfs diff=lfs merge=lfs -text
|
36 |
+
tokenizer.json filter=lfs diff=lfs merge=lfs -text
|
1_Pooling/config.json
ADDED
@@ -0,0 +1,10 @@
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
1 |
+
{
|
2 |
+
"word_embedding_dimension": 1024,
|
3 |
+
"pooling_mode_cls_token": false,
|
4 |
+
"pooling_mode_mean_tokens": true,
|
5 |
+
"pooling_mode_max_tokens": false,
|
6 |
+
"pooling_mode_mean_sqrt_len_tokens": false,
|
7 |
+
"pooling_mode_weightedmean_tokens": false,
|
8 |
+
"pooling_mode_lasttoken": false,
|
9 |
+
"include_prompt": true
|
10 |
+
}
|
README.md
ADDED
@@ -0,0 +1,539 @@
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
1 |
+
---
|
2 |
+
tags:
|
3 |
+
- sentence-transformers
|
4 |
+
- sentence-similarity
|
5 |
+
- feature-extraction
|
6 |
+
- generated_from_trainer
|
7 |
+
- dataset_size:17552
|
8 |
+
- loss:MultipleNegativesRankingLoss
|
9 |
+
base_model: intfloat/multilingual-e5-large-instruct
|
10 |
+
widget:
|
11 |
+
- source_sentence: 지금까지도 전통도자기를 제조하는 도예가들 다수가 살고 있는 곳은?
|
12 |
+
sentences:
|
13 |
+
- "1884년 나마쿠아(현재의 나미비아)를 식민지화 한 독일은 1904년 수탈에 참다 못해 봉기한 헤레로인을 독일 해군을 동원해 학살하였다.\
|
14 |
+
\ 그 이후로부터 현대사에서, 나미비아의 헤테로 족이 독일 정부로부터 공식적인 사과를 받는 것은 과거 제국주의 침략을 제대로 식민 전쟁과 대량\
|
15 |
+
\ 학살로써 인정받는 것인 만큼 커다란 염원이었다. 헤레로인은 베를린의 독일 기업들이 과거 나미비아에 수천 만 달러의 피해를 입힌 것에 대해\
|
16 |
+
\ 미국 국제 재판소에 소송을 했었다.\n\n독일 정부는 이 학살에 대해 1951년 '인종 학살 범죄에 관한 유엔 협약'이 발효되기 전의 사건이라며\
|
17 |
+
\ '인종 학살 (Genocide)'라는 표현을 쓰는 것을 꺼렸다. 이는 나치 독일의 유대인 인종 학살에 대한 태도와 상반되었고, 이는 독일이\
|
18 |
+
\ 프랑스, 이스라엘 등 강자에게만 사과한다는 비판으로 이어졌다. 2016년 6월, 독일 연방 의회가 오스만 튀르크의 아르메니아인 학살을 인종\
|
19 |
+
\ 학살로 인정하는 결의안을 택하자, 터키 공화국의 레제프 타이이프 에르도안 대통령은 \"독일은 나미비아 학살에 대해서나 얘기해 보라\"고\
|
20 |
+
\ 비판했다. 이후, 독일 외무부 피셔 장관은 나미비아 방문 중, 독일에 배상금을 물게 할 수도 있다는 우려에서 공식적인 사과를 거절하였다.\n\
|
21 |
+
\n2004년 독일 경제 장관 비초레크초일 하이데마리가 학살 100주년 추모식에 \"역사적이고 도덕적인 책임을 인정한다\"라고 발언하였으나\
|
22 |
+
\ 도덕적 차원의 사과였을 뿐, 정부 주도의 사과는 아니었다.\n\n또한 지금까지도 공식 사과는 인정하지 않은 채, 독일이 나미비아가 남아프리카공화국에서\
|
23 |
+
\ 독립한 1990년 이후 수억 유로에 달하는 원조를 했다며 공식 사과와 배상을 거부해왔다. 단지, 나미비아에 대해 1884년부터 1915년까지의\
|
24 |
+
\ 식민통치만을 공식 인정하고, 인종 학살에 대해서는 사과를 않고 있었다.\n\n하지만 2016년 7월 13일 (독일 현지시간), 독일 정부는\
|
25 |
+
\ 2016년에서 112년 전인 1904년 아프리카 남서부 나미비아에서 저지른 집단 살해 행위를 '인종학살 (Genocide)'로 인정하고\
|
26 |
+
\ 공식 사과하기로 결정했다. 독일 외교부는 나미비아 정부와 공동으로 2016년 말까지 공동 선언문을 완성해 발표할 것이라고 밝혔다.\n\n\
|
27 |
+
독일 외교부는 이번 독일-나미비아 공동선언문의 사과는 법적 배상의 근거가 되지 않을 것이라 밝혔다. 이번에도 배상은 하지 않은 채로, 담수처리\
|
28 |
+
\ 시설 등 인프라 건설을 지원하는 방안을 고려 중이라 밝혔다. \n\n이번 독일 정부의 나미비아 헤레로인과 정부에 대한 공식적인 사과는 배상이\
|
29 |
+
\ 아닌 인프라 건설을 지원하는 방식으로 배상한다는 한계점이 있다. 하지만, 유럽 이외의 피해 국가나 제2차 세계 대전 이전 피해 국가에 대한\
|
30 |
+
\ 공식 사과를 함으로써, 지금까지 제국주의 국가들의 '그땐 다들 그랬지' 식으로 피해 국가에 대한 공식 사과를 하지 않은 채, 패권 국가들끼리\
|
31 |
+
\ 서로가 서로를 묵인해주는 체제를 깨뜨릴 수 있는 선례가 된 것이다. 또한, 이러한 독일의 선례는 일본이 제1차 세계 대전과 만주사변, 난징\
|
32 |
+
\ 대학살, 제2차 세계 대전당시 일본 제국의 대한민국, 중화인민공화국, 중화민국, 류큐국와 동남아시아 국가들에 대한 인종 학살과 침략 행위를\
|
33 |
+
\ 인정하지 않는 것과 대조된다."
|
34 |
+
- '예부터 단양군 대강면 방곡리 일대는 조선시대의 민수용 도자기의 집산지로 알려진 곳으로 현재도 전통도자기를 만들고 있는 도예가들이 많이 생활하고
|
35 |
+
있다
|
36 |
+
|
37 |
+
|
38 |
+
서동규(徐東圭)는 1956년부터 선친(先親) 서병욱(徐炳旭)의 가업인 방곡도예에 입문하여 전통도자기에 관심을 갖고 전통도자 수업을 시작하였으며,
|
39 |
+
일생동안 단양 방곡에서만 전통도예방식으로 활발한 작업활동을 하고 있다. 전통도자기 전승계보가 뚜렷하고, 전승자의 전승의지가 확고하며 독자적인
|
40 |
+
도예기술을 확보하여 독창적인 도예기술이 성숙단계이 이르고 있다
|
41 |
+
|
42 |
+
|
43 |
+
초기에는 "다완(茶碗)"을 중심으로 찻그릇 제작에 힘을 쏟아 일본 애용가들의 호응을 받았고, 특��� 짙은 갈색이 발색되는 종래의 도자기와 달리
|
44 |
+
방곡의 특유한 토질에 느릅나무 외 수종(數種)의 나무를 태운 재를 원료로 독특한 황녹색으로 발색시킨 녹자의 재현으로 1999년 특허청 특허등록되었으며,
|
45 |
+
2000년 노동부 명장 제28호로 선정되었다
|
46 |
+
|
47 |
+
|
48 |
+
서동규(徐東圭)는 단양 방곡에서 출생하여 현재까지 이곳에서 3대째(徐炳旭→徐東圭→徐贊紀) 도예의 맥을 이어오고 있으며, 녹자, 생활자기, 이조다왕
|
49 |
+
등을 전통방식에 의한 장작가마만을 고수하며, 전통도자기 복원을 위하여 활발하게 작업활동을 하고 있다
|
50 |
+
|
51 |
+
|
52 |
+
느릅나무 재를 유약원료로 이용하여 독특한 기법으로 황녹색을 발색시킨 독창적인 도예기술을 개발하여 이를 특허 등록함으로써 독자적인 도예기술을
|
53 |
+
확보하였고 꾸준한 도예기술개발과 전통도예 복원을 위하여 노력하고 있다
|
54 |
+
|
55 |
+
|
56 |
+
단양군 대강면 "방곡리(傍谷里)" 마을은 먹을 것이 풍부하여 뒷방에 음식물을 가득쌓아 두었다는 데서 유래된 이름이다. 이곳에서 17세기경부터
|
57 |
+
백자와 분청사기를 생산하여 조선시대 민수용 도자기를 만들어온 마을로 지금도 농경지에서 백자편들을 많이 발견할 수 있다
|
58 |
+
|
59 |
+
|
60 |
+
저잣거리, 빗재 등 지역의 유래에서 도자기 제작 및 판매시장이 형성되었음을 알 수 있으며, 지금도 옛 가마터가 있다'
|
61 |
+
- 6·4 지방선거를 앞두고 재원 대책 없는 선심성 공약이 쏟아지고 있다. ‘무상버스’ ‘100원 택시’ 같은 무상 시리즈 공약부터 광역급행철도(GTX)처럼
|
62 |
+
수조원이 들어가는 공약도 등장했다. 하나같이 이렇다 할 재원 대책은 없다. 국회는 이런 것을 막기 위해 2012년 의원입법으로 ‘페이고’ 법안을
|
63 |
+
발의했다. 하지만 1년6개월이 지나도록 논의조차 이뤄지지 않고 있다. 페이고(pay-go)는 ‘pay as you go(번 만큼 쓴다)’의
|
64 |
+
줄인 말로, 중앙이나 지방 정부가 새로운 재정 지출 사업을 추진할 때 이에 상응하는 세입 증가나 지출 축소 등 재원 조달 방안을 동시에 마련하도록
|
65 |
+
의무화하는 것이다. 국회가 페이고 도입에 미온적인 데는 이유가 있다. 현재 계류돼 있는 관련 법안은 페이고 원칙을 정부는 물론 의원입법에도
|
66 |
+
적용하자는 것이다. 의원들이 지역구의 표를 얻기 위해 ‘포퓰리즘(대중 인기 영합주의)’ 법안을 양산해 국가의 재정건전성을 해치는 것을 막자는
|
67 |
+
취지다. 하지만 야당은 물론 여당 일각에서도 페이고가 도입되면 자신들의 권한이 축소될 것이란 이유로 반대하는 기류가 강하다. 페이고 원칙 없이
|
68 |
+
예산이 낭비되면 피해는 국민에게 돌아온다. 서울시는 2010년 지방선거 당시 공약으로 내건 ‘3무정책’(무상보육·무상급식·무상의료)에 따라
|
69 |
+
보편적인 복지를 시행하다 보니 예산이 부족해 올봄부터 저소득층이 이용하는 초등학생 돌봄교실 혜택을 줄였다. 표를 얻기 위해 재원 대책 없이
|
70 |
+
내놓은 공약 때문에 정작 필요한 곳에 지원해야 할 예산이 ‘펑크’난 것이다. 민경국 강원대 경제학과 교수는 “지자체의 복지 사업도 중앙정부의
|
71 |
+
매칭 지원이 없으면 시행할 수 없는 만큼 국회에서 재정준칙에 따라 정부 사업을 감시했다면 무상복지 같은 무리한 공약은 애초 태어날 수 없었을
|
72 |
+
것”이라고 말했다. 안충영 전 규제개혁위원장(중앙대 석좌교수)은 “정치적 목적의 입법을 막도록 국회 스스로 규제하는 장치가 시급하다”고 강조했다.
|
73 |
+
- source_sentence: 체크포인트에 와서 총을 쏜 것은 누구인가?
|
74 |
+
sentences:
|
75 |
+
- "반정부 시위대가 점령한 체크포인트에서 총격전이 발생하면서 부활절 휴전이 깨졌다. 알 수 없는 무장 괴한들이 차 4대를 가지고 체크포인트에\
|
76 |
+
\ 도착한 이후, 헤드라이트를 켜야 해야 한다고 말하고 ID카드를 꺼내고 트렁크 검사를 해야 한다고 트렁크를 연 직후 발포했다. 휴전 때문에,\
|
77 |
+
\ 체크포인트에 있던 지역 시위대들은 무장 세력이 박쥐로 분장했다고 말했다. 슬로비얀스크 자위대 20명이 공격자를 격퇴하기 위해 지원을 왔다.\
|
78 |
+
\ 그들이 도착한 이후, 괴한 2명을 살해하고 나머지 괴한 2명은 하르키우 방향으로 차를 타고 현장을 떠났다고 말했다 또한, 이 공격 현장에서\
|
79 |
+
\ 우익 섹터의 심벌로 보이는 물건들이 발견되었다고 말했다. 스카이 뉴스의 기자 케이티 스텔라드는 분리주의자들의 말들이 서로 불일치하고 그들의\
|
80 |
+
\ 말이 일관된다는 증거가 거의 없다고 보고했다. BBC 뉴스의 다니엘 스탠포드는 이���이 제시한 증거들이 '반신반의'한 것이라고 말했다. \n\
|
81 |
+
\n4월 20일 저녁, 러시아의 라이프 뉴스에서는 4월 19일 유튜브에 업로드 된 영상 및 사건의 보고서를 보여주었다. 이 사건의 비디오 보고서는\
|
82 |
+
\ 현지 시간 4월 20일 오전 2시에 촬영되었음에도 불구하고 일광이 보이는 영상이 포함되어 있다. 러시아 TV가 발표한 비디오는 실제 우익\
|
83 |
+
\ 섹터의 공격이 있기 10시간 전에 촬영한 것으로, 러시아 카메라맨이 실수로 지우는 것을 잊었다는 주장으로 타임 스탬프를 보여준 것으로 증명되었다.\
|
84 |
+
\ \n\n우크라이나 내무부는 적어도 분리주의자 3명이 사망했고 3명이 부상했으며 이 중에는 러시아 요원들도 포함되어 있는 것으로 의심된다고\
|
85 |
+
\ 말했다."
|
86 |
+
- '키요미는 히즈루국의 대사관이자 방계 출신으로서 직계가 끊겨져 대마저 끊겨질 위기에 놓인 아즈마비토 가문의 수장으로서 살아가면서 무슨 연유에서인지
|
87 |
+
아즈마비토 쇼군의 후계를 이을 정통 후계자를 물색하는 데에 혈안이 되어 있었다. 그러던 어느 날, 마레군 전사대의 전사장인 지크 예거가 키요미에게
|
88 |
+
접근하여 최근에 알려진 파라디 섬에 남은 쇼군의 후예를 담보로 둘만의 비밀 거래를 시도한다. 그렇찮아도 행방불명된 쇼군의 직계 후손을 찾아내서
|
89 |
+
후계자로 간절히 삼고 싶었던 키요미는 거래를 받아들이고 지크와 비밀리에 히즈루 본국으로 추정되는 어떤 장소 에서 비밀리에 접촉한다. 키요미는
|
90 |
+
복권파를 운영하던 부모를 일곱 살 나이에 폭로한 지크의 명성을 익히 알고 있었다.
|
91 |
+
|
92 |
+
|
93 |
+
키요미는 지크가 알려 준 중대한 진실 을 전해듣고, 처음에는 골수 엘디아 복권파라고 주장하던 그가 부모와 복권파를 배신하고 밀고했다는 것에
|
94 |
+
의아해 했지만 얼마 안 가 치안 보안 당국에 의해 복권파가 거의 발각되기 직전까지 가자 자신만이라도 그 유지를 잇기 위해 선택의 여지 없이
|
95 |
+
밀고를 감행했다는 걸 알게 된다. 철저히 이익 지향적인 키요미는 지크가 왕가의 후손이라는 사실이 가문에게 도움이 되지 않는다면 주저하지 않고
|
96 |
+
마레군에 그 정보를 넘기겠다고 협박하는 자세를 취한다. 이럼에도 지크는 하나도 동요하지 않고 오히려 여유로운 태세를 갖추며 키요미에게 환심을
|
97 |
+
살 어떤 물건을 보여 주는데, 다름 아닌 지크가 주워 온 미케 자카리아스의 입체기동장치 가스 봄베였다. 입체기동장치에는 핵심적인 동력 자원이자
|
98 |
+
파라디 섬에 유일하게 매장된 희귀자원인 빙폭석이 들어 있었고 빙폭석에 대한 정보를 입수한 상태였던 키요미는 손을 입에 댈 정도로 놀라워한다.
|
99 |
+
|
100 |
+
|
101 |
+
빙폭석을 보고서 눈을 빛낸 키요미는 지크로부터 파라디 섬에 이 빙폭석만 아니라 먼 옛날에 한 거인의 왕이 깊숙이 숨겨둔 비밀 지하동굴에 더
|
102 |
+
많은 귀한 광물과 보석들을 숨겼다는 이야기를 듣게 된다. 파라디와 다시 수교하면 빙폭석을 생산하는 건 물론이고 가세가 기울어져 가는 아즈마비토
|
103 |
+
가문과 재벌을 부흥시킬 거라는 말에 파라디와의 수교를 결심하게 된다. 그리고 거래 제안을 완전히 수락하고 그가 서류 형태로 제공한 비책들을
|
104 |
+
전해 받으며, 마침내 851년, 히즈루국의 증기선을 이끌고 부하들과 보좌관들과 함께 파라디 섬 항구에 도착한다. 제145대 프리츠 왕의 무저항주의
|
105 |
+
정책으로 강제로 단교되었던 파라디 섬과 히즈루국의 외교 관계가 103년 만에 다시 회복되는 기념비적인 날이었다.'
|
106 |
+
- 스페이스리버는 쇼핑몰 통합관리 솔루션 개발사인 이비즈웨이와 손잡고 사용자들의 상품관리부터 출고까지의 물류 관리 서비스를 강화하는 업무협약(MOU)를
|
107 |
+
체결했다고 6일 밝혔다. ‘노스노스’는 스페이스리버가 개발한 WMS (물류관리 시스템)이다. 온라인상에서 재고 및 유통기간, 입, 출고를 관리하고
|
108 |
+
이비즈웨이의 쇼핑몰 관리 솔루션인 ‘비젬’과 연동하여 온오프라인의 판매채널과 물류창고 내 상품 상황을 통합관리 할 수 있다. 이번 제휴를 통해서
|
109 |
+
노스노스와 비젬이 지원되는 솔루션을 이용중인 셀러라면 노스노스에서 비젬의 주문수집과 운송장 송신을 제한없이 이용할 수 있게된다. 오픈마켓,
|
110 |
+
종합몰, 전문몰 등 70개 이상의 다양한 온라인 채널의 재고, 상품정보가 실시간 연동돼 시간과 비용을 절약할수 있게 되었다. 이번 제휴로 기존의
|
111 |
+
노스노스가 제공하는 WMS 기능의 편리성을 향상시켜 다수의 판매채널에서 ���집된 정보를 비젬에서 취합하고 이를 클릭 한번으로 노스노스와 연동
|
112 |
+
및 출고지시까지 자동으로 진행된다. 기존에 엑셀로 수기 작성하여 업, 다운로드하던 주문 관리의 어려움을 간소화시킬 수 있게 되었다.
|
113 |
+
- source_sentence: 아트 서울-김과장 전시장 가는 날'에 전시된 대략적인 작품 수는?
|
114 |
+
sentences:
|
115 |
+
- 과장 명함을 가진 직장인은 물론 동반 가족까지 무료로 감상할 수 있는 그림장터 ‘아트 서울-김과장 전시장 가는 날’이 6~21일 서울 예술의전당
|
116 |
+
한가람미술관 2, 3층에서 펼쳐진다. 아트컴퍼니 마니프(대표 김영석)가 마련한 이 행사에는 연령이나 성별, 구상과 비구상, 회화와 입체 등
|
117 |
+
특별한 제한 없이 모든 장르의 유망 작가 136명이 부스별 개인전 형식으로 회화·조각·설치 작품 2500여점을 전시, 판매한다. 한국국제아트페어(KIAF)나
|
118 |
+
화랑미술제의 경우 화랑들이 각 부스에서 소속 작가들의 작품을 내거는 데 비해 마니프의 ‘아트서울’ 아트페어에선 작가들이 부스를 열고 전시장에
|
119 |
+
매일 나와 관람객을 맞이하며 작품을 판매한다. 마음에 드는 작품이 있으면 작가에게 설명을 들을 수 있고 대화도 나눌 수 있다. 주최 측은 최근
|
120 |
+
경기 침체와 샐러리맨들의 주머니 사정을 감안해 출품작의 90%인 2000여점의 작품 가격을 점당 10만~1000만원으로 책정했다. 나머지 작품도
|
121 |
+
대부분 4000만원 이하에 나오며 모든 출품작은 정찰제로 판매한다. 김 대표는 “미술시장 활성화와 전시문화의 새로운 대안 제시를 위해 유망한
|
122 |
+
신진·중견작가를 많이 초대했다”고 말했다. 관람료 어른 6000원, 학생 5000원. (02)514-9292
|
123 |
+
- 현정은 현대그룹 회장(사진)이 1년 만에 금강산을 찾을 것으로 알려졌다. 내달 4일 열리는 정몽헌 회장의 11주기 추모식에 참석하기 위해서다.
|
124 |
+
얼어붙은 남북관계를 개선하는 계기가 될 수 있을지 관심이 쏠리고 있다.현대아산 관계자는 28일 “현 회장과 조건식 현대아산 사장 등 현대그룹
|
125 |
+
관계자 20여명의 방북 신청서를 조만간 통일부에 접수할 계획”이라고 말했다. 현 회장이 방북하는 것은 지난해 정 회장의 10주기를 맞아 금강산을
|
126 |
+
찾은 지 1년 만이다.금강산에서는 매년 8월4일 정 회장 추모식이 열린다. 현 회장은 2009년 11월 금강산 관광 11주년 기념행사에 참가한
|
127 |
+
뒤 금강산을 찾지 않다가 지난해 10주기를 계기로 금강산에서 열리는 추모식에 참석했다. 특히 지난해에는 김정은 북한 국방위원회 제1위원장의
|
128 |
+
편지를 대리인이 낭독하는 ‘구두친서’를 받기도 했다.지난해에는 10주기라는 상징성 때문에 현대그룹 계열사 최고경영자(CEO)들이 모두 참석해
|
129 |
+
금강산 추모식 참석 인원이 38명에 달했지만 올해는 방북단 규모가 그 절반 정도로 줄어들 것으로 예상된다.관련 업계는 현 회장의 방북이 경색된
|
130 |
+
남북관계 개선에 조금이라도 도움이 되기를 기대하고 있다. 현대아산 관계자는 “이번 방북은 추모식에 참석하고 사업현장 시설을 점검하려는 목적”이라며
|
131 |
+
“아직 일정이 최종 확정된 것은 아니다”고 말했다. 이상은 기자
|
132 |
+
- '미르너는 아들의 양육을 보그말과 리어흐 루어크라라는 여전사에게 맡겼다. 두 여인은 아이를 슬리어우 블라드머 숲에 숨겨 기르면서 싸움과 사냥을
|
133 |
+
가르쳤다. 어느 정도 나이를 먹자 신분을 숨긴 채 군인으로 복무했는데, 어디를 가든 더이니가 쿠월의 아들이라는 것이 밝혀지면 그를 지켜줄 수
|
134 |
+
없다며 왕들이 그를 내쳐서 여러 소왕국을 전전했다.
|
135 |
+
|
136 |
+
|
137 |
+
더이니는 보인 강 근처에서 레프리컨 같은 드루이드이자 시인인 핀 에케스를서 만났고 그 밑에서 배웠다. 핀 에케스는 지식의 연어를 잡으려고 7년째
|
138 |
+
시도하고 있었다. 지식의 연어는 보인 강에 사는 물고기인데, 강에 떨어지는 성스러운 개암나무 열매를 받아먹었다. 때문에 이 연어를 잡아먹으면
|
139 |
+
세상의 모든 지식을 얻게 될 것이라고 했다. 마침내 연어를 잡은 핀 에케스는 더이니에게 연어를 요리해 오라고 시켰다. 요리를 하던 도중 엄지손가락에
|
140 |
+
연어 기름이 튀자 더이니는 손가락을 입에 넣고 빨았다. 이로 인해 연어의 지식이 더이니에게 흘러들어갔다. 더이니가 연어의 지혜를 얻은 것을
|
141 |
+
본 핀 에케스는 어린 더이니에게 연어를 다 먹으라고 주었다. 이 때 얻은 지식으로 핀 막 쿠월은 어떻게 해야 생부의 원수 골에게 복수할 수
|
142 |
+
있을지를 알아냈다. 그 뒤로도 핀은 연어의 ���혜를 떠올려야 할 때면 처음 연어의 맛을 보았을 때처럼 엄지손가락을 입술 위에 올리게 되었다.
|
143 |
+
핀과 연어 이야기는 웨일스의 그위온 바흐의 이야기와 유사하다.'
|
144 |
+
- source_sentence: 세션 3의 토론에 참여한 사람은?
|
145 |
+
sentences:
|
146 |
+
- ㈜이건창호(대표 김재엽)가 품격이 다른 알루미늄 시스템 현관도어 ‘ADS 70 AP(Aluminum Door System 70 AP)’를 출시했다고
|
147 |
+
17일 밝혔다. 이건창호의 30여 년의 노하우를 담은 제품으로 단독주택 및 갤러리, 상업시설 등 다양한 건물에 사용할 수 있으며 단순한 출입문을
|
148 |
+
넘어 공간의 첫 인상을 한층 더 세련되게 만들어주는 프리미엄 도어이다. ADS 70 AP는 견고한 알루미늄 소재의 프레임에 알루미늄 판넬과
|
149 |
+
디자인 3중유리를 탑재해 도어의 기본 기능인 보안성은 물론 감각적인 디자인과 세련된 스타일을 겸비했다. 또한 알루미늄 시스템 하드웨어를 적용하여
|
150 |
+
우수한 단열성과 기밀성능을 모두 갖추었다. 신제품의 유리는 실외와 실내면이 다른 특수 유리가 사용됐다. 실외 면은 투과율 0%의 골드사틴 유리로
|
151 |
+
시원한 느낌을 주면서도 뛰어난 보안성을 갖췄으며, 실내면은 반사 유리가 사용돼 현관 앞 공간을 확장되어 보이게 하고 외출 시 전신거울로 활용할
|
152 |
+
수도 있다. 이와 함께 도어 클로저(열린 문을 자동으로 닫아주는 장치)는 매립형 방식을 사용해 돌출형 도어 클로저에 비해 디자인이 깔끔하며,
|
153 |
+
다양한 각도에서 정지가 가능하고 안전하게 닫힌다. 또한, 실내 핸들은 독일 슈코사의 프리미엄 핸들을 채택해 자동 잠금 기능이 있고, 여성,
|
154 |
+
노약자, 아이들의 작은 힘에도 쉽게 열고 닫을 수 있다. 그리고 지문인식, 번호, RFID 카드 사용이 가능한 디지털 도어락 적용으로 보안성도
|
155 |
+
한층 높였다. 도어 디자인은 소재의 다양성에 모던 감각을 입힌 모던유로스타일 트렌드를 반영했다. 취향에 따라 ▲메탈릭 챠콜 ▲메탈릭 골드 실버
|
156 |
+
▲메트로 브론즈 ▲리갈 블루 등 도시적인 4가지 색상의 판넬과 ▲골드 사틴 ▲브론즈 반사 ▲브론즈 미스트 등 3가지 종류의 유리를 조합할 수
|
157 |
+
있다. 또, 개폐 방식 역시 외닫이와 양여닫이 스타일 중 선택 가능하다. 이건창호 관계자는 “최근 건물의 외관 디자인이 강조되며 도어도 가치
|
158 |
+
있는 건물을 완성하기 위한 위한 중요한 인테리어 아이템으로 자리잡고 있는 추세”라며 “이건창호 ADS 70 AP는 앞으로 시스템 도어 트렌드를
|
159 |
+
이끌어갈 대표적 아이템이 될 것”이라고 밝혔다.
|
160 |
+
- "이팝나무란 이름은 꽃이 필 때 나무 전체가 하얀꽃으로 뒤덥여 이밥, 즉 쌀밥과 같다고 하여 붙여진 것이라고 하며, 여름이 시작될 때인 입하에\
|
161 |
+
\ 꽃이 피기 때문에 ‘입하목(立夏木)’이라 부르기 시작하여 입하목에서 입하나무를 거쳐 오늘의 이팝나무가 되었다고 한다. \n\n장승포 덕포리\
|
162 |
+
\ 이팝나무의 나이는 300년 정도로 추정되며, 높이는 15m, 둘레는 3m이다. 마을 안에서 자라고 있으며, 나무 곁에는 작은 돌무더기로\
|
163 |
+
\ 된 탑이 있다. 이 작은 탑들은 이곳 사람들이 마을의 평화와 모든 일이 잘 되길 기원하며 쌓았다고 하며, 예전에는 왜적이 침입할 때 방어용\
|
164 |
+
\ 무기로 사용했다고 한다.\n\n한국의 크고 오래된 이팝나무에는 거의 한결같은 이야기가 전해지고 있는데, 그것은 이팝나무의 꽃이 많이 피고\
|
165 |
+
\ 적게 피는 것으로써 그해 농사의 풍년과 흉년을 점칠 수 있다는 것이다. 이팝나무는 물이 많은 곳에서 잘 자라는 식물이므로 비의 양이 적당하면\
|
166 |
+
\ 꽃이 활짝 피고, 부족하면 잘 피지 못한다. 물의 양은 벼농사에도 관련되는 것으로, 오랜 경험을 통한 자연관찰의 결과로서 이와 같은 전설이\
|
167 |
+
\ 생겼다고 본다. \n\n장승포 덕포리 이팝나무는 크고 오래된 나무로 생물학적 가치가 높아 기념물에 지정되어 보호하고 있다."
|
168 |
+
- 2013년 ‘세계 경제·금융 컨퍼런스’ 둘째날인 다음달 3일 열리는 세션 1과 세션 3도 알찬 주제발표에 이은 심도 있는 토론으로 청중의 ‘지식
|
169 |
+
갈증’을 시원하게 풀어줄 전망이다.‘저성장 시대의 세계 경제, 공정한 경쟁과 상생의 협력을 통한 회복과 새로운 도약’을 주제로 한 세션 1은
|
170 |
+
케이 베일리 허치슨 전 미국 상원의원, 리다오쿠이 중국 칭화대 세계경제연구센터 소장, 하마다 고이치 미국 예일대 명예교수가 20분씩 연설한
|
171 |
+
뒤 함께 열띤 토론을 벌인다.허치슨 전 의원은 20년간 미국 상원의원으로 일하��서 통상·과학·교통위원회 등에서 활동했다. 현재는 국제전략연구소
|
172 |
+
자문위원을 맡고 있다. 그만큼 미국 정부의 정책 이면을 엿볼 수 있는 분석과 전망을 내놓을 것으로 기대된다. 여기에다 박근혜 정부의 경제정책
|
173 |
+
밑그림을 그린 김광두 국가미래연구원 원장이 세션을 이끌어 흥미를 더한다.중국 인민은행 통화정책위원을 지낸 리 교수는 “중국의 생산가능인구(15~64세)가
|
174 |
+
줄어들기 시작하면서 임금 상승에 따른 인플레이션이 본격화하고 있다”고 진단했다. “중국 정부가 올해 물가상승률을 목표치인 3.5% 이내로 억제하기
|
175 |
+
쉽지 않을 것”이라는 시각도 갖고 있다. 중국의 인플레이션은 경기 회복이나 정부 통화정책 등의 일시적인 요인보다 경제구조 변화에 따른 결과라는
|
176 |
+
얘기다.리 교수는 각국이 벌이고 있는 ‘환율전쟁’에 대해서도 “선진국들이 경쟁적인 통화가치 평가절하에 나서고 있는 상황은 우려스럽다”고 얘기해왔다.
|
177 |
+
하마다 명예교수의 연설과 토론은 아베 신조 일본 총리의 경제정책을 직·간접적으로 전해 들을 수 있는 기회를 제공한다. 그는 아베 총리의 경제
|
178 |
+
브레인답게 최근 “지금은 일본 경제가 가속페달을 밟아야 할 때”라며 “디플레이션(지속적인 물가 하락) 탈출에 수반되는 부작용에 대해선 어느
|
179 |
+
정도 눈감아줄 필요가 있다”고 주장해 눈길을 끌었다.하마다 교수는 “통화정책은 효과가 즉시 나타난다는 점을 감안해 집중적으로 정책을 집행하는
|
180 |
+
게 바람직하다”고 말하기도 했다. 세션 3에서는 ‘세계 3대 산업디자이너’로 꼽히는 이스라엘의 아릭 레비가 ‘즐거움으로 경제를 디자인하다’는
|
181 |
+
주제로 특별강연을 한다. 레비는 이스라엘 출신으로 프랑스 파리에서 ‘L’ 디자인 스튜디오를 운영하고 있다. 명품 브랜드 까르띠에의 프랑스 파리
|
182 |
+
본사 건물 인테리어를 비롯해 가구업체인 비트라와 자노타, 르노자동차, 아디다스 등의 제품 디자인을 맡기도 했다. 레비는 한국경제신문과의 서면
|
183 |
+
인터뷰에서 “이탈리아풍으로 디자인한 살수 펌프의 경우 같은 디자인의 제품이 40억개 넘게 생산됐다”며 “잘 디자인한 제품은 그 자체로 경제
|
184 |
+
전체에 영향을 미친다”고 말했다. 창의적 디자인의 비결을 묻는 질문에 “디자인적 상상력은 일상생활에서 직접 다양한 활동을 하며 얻게 되는 동물적인
|
185 |
+
감각에서 나온다”며 “일상생활에서 실제 효용이 높은 것이 우수한 디자인”이라고 설명했다.그는 박근혜 정부의 ‘창조 경제’에 대해 “새로운 아이디어를
|
186 |
+
강조한다는 점에서 중요한 진전”이라고 평가하면서 “창의적이고 혁신적인 아이디어를 내놓기 위해서는 민간 부문의 자율성을 극대화해야 한다”고 당부했다.
|
187 |
+
- source_sentence: 국방부 장관이 제시한 전작권 반환시기는 몇 년도인가?
|
188 |
+
sentences:
|
189 |
+
- 한국이 미국에 2015년으로 예정된 전시작전통제권 전환 시기를 다시 연기하자고 제안한 것으로 알려졌다.미국 국방부 고위 당국자는 17일 김관진
|
190 |
+
국방부 장관이 척 헤이글 국방장관에게 최근 전작권 전환의 재연기를 제안해 양국 정부가 이 문제를 협의하고 있다고 연합뉴스에 밝혔다. 이에 대해
|
191 |
+
한국 국방부 관계자는 “2013년 전반기에 심각해진 북한 핵 문제 등 안보 상황을 중요한 조건으로 고려하면서 전작권 전환 준비를 점검해 나가자고
|
192 |
+
미국 측에 제의해 한·미 간 논의 중에 있다”고 말했다. 그는 이어 “전작권 전환은 향후 한·미 안보협의회(SCM), 군사위원회의(MCM)
|
193 |
+
등을 통해 지속적으로 협의해 나갈 것”이라고 말했다.전작권 재연기론의 배경에는 북한이 지난해 말부터 핵실험을 강행하는 등 대남 전쟁위협 수위를
|
194 |
+
급격하게 높인 것을 꼽을 수 있다. 북한은 지난 2월 3차 핵실험 이후 정전협정을 백지화하겠다고 위협한 데 이어 ‘1호 전투근무태세’ 명령을
|
195 |
+
내리는 등 위협 강도를 끌어올렸다.정부가 전작권 전환 재연기를 제의한 시기가 지난 3월이며 김 장관이 샹그릴라 대화에서 헤이글 국방장관에게
|
196 |
+
전환 시기의 연기를 제의했다는 관측이 제기되기도 했다. 정부의 한 고위 관계자는 “올해 초 북한의 위협이 계속되는 등 남북관계 상황을 고려하지
|
197 |
+
않을 수 없었다”고 말해 전작권 전환시기의 재연기를 제의했음을 시사했다. 한·미 양국은 2006년 전작권을 2013년 전환하기로 합의한 뒤
|
198 |
+
2010년에 전환 시기를 2015년으�� 연기했다.
|
199 |
+
- "1982년 숭의여자고등학교를 졸업하고 창단팀 신용보증기금 농구단에 입단하였다. 숭의여고 시절 '초고교급 가드'로 일찌감치 인정받아 명문팀과의\
|
200 |
+
\ 계약이 유력시 되었지만 '여자 농구의 대모' 박신자를 감독으로 추대하고 고교 유망주들을 적극적으로 영입하는 등 다음 해 시작될 농구대잔치를\
|
201 |
+
\ 위해 적극적인 스카웃 노력을 기울인 신용보증기금과 결국 계약이 이루어졌다. 1982년 10월 필리핀 마닐라에서 열린 아시아 청소년 여자\
|
202 |
+
\ 농구 선수권 대회를 위한 청소년 대표팀에 선발되어 주전 가드로서 활약하였으나 대한민국팀은 중국에 밀려 은메달에 그쳤다. \n\n1984년\
|
203 |
+
\ 5월 쿠바 아바나에서 열린 프레올림픽에 처음 국가대표로 선발되었으며 1984년 LA 올림픽에서는 백업 가드로서 미국과의 결승전 등 세 경기에\
|
204 |
+
\ 교체 출장하며 은메달을 거머쥐었다. 그해 10월에는 중국 상하이에서 열린 아시아 여자 농구 선수권 대회에도 참가, 인도 전에서 최애영을\
|
205 |
+
\ 대신하여 베스트 5로 선발 출장 하는 등 백업 가드로 활약하며 대한민국팀의 대회 4연패에 일조하였다.\n\n1986년에도 국가대표팀에 선발되어\
|
206 |
+
\ 세계 여자 농구 선수권 대회와 아시안게임에 출전하지만 '만년하위팀' 의 오명을 극복하지 못한 소속팀의 부진으로 인해 대중들의 조명을 크게\
|
207 |
+
\ 받지는 못하였다. 1987-88 시즌 농구대잔치에서 국가대표 구정희와 함께 황금 가드 콤비를 이루며 잠시 돌풍을 일으키기도 했지 신생팀의\
|
208 |
+
\ 핸디캡과 포스트진의 부재로 우승권에 근접하지 못하고 1988-89 시즌을 끝으로 은퇴를 선언하였다."
|
209 |
+
- 경남도가 매년 경영 손실로 약 300억원에 이르는 부채를 감당할 수 없다는 이유로 도립 진주의료원(사진)을 폐업하기로 결정하자 지역에서 반대
|
210 |
+
여론이 거세게 일고 있다. 176명의 노조원이 가입한 보건의료산업노조 진주의료원지부는 의료원 폐업 결정이 내려진 직후 긴급 대책회의를 열고
|
211 |
+
27일 민주노총과 함께 경남도청을 항의 방문했다. 박성용 진주의료원 지부장은 “수천억원의 적자를 낸 경남개발공사는 그대로 두고 200여억원
|
212 |
+
적자인 진주의료원을 폐업하려는 도의 결정은 취소돼야 한다”며 “공공의료기관으로 수행해왔던 역할은 무시하고 만성 적자를 이유로 문을 닫는 것은
|
213 |
+
있을 수 없다”고 말했다. 이에 대해 경남도 측은 “매년 수십억원씩 적자를 내고 있어 폐업할 수밖에 없다”고 밝혔다.환자와 가족, 시민들도
|
214 |
+
폐업 결정에 당황스럽다는 반응이다. 입원한 아내를 간호하고 있는 유한명 씨(70)는 “생활보호대상자인 중증 환자들이 일반 병원보다 싼 덕분에
|
215 |
+
치료를 받고 있는데 폐업하려는 것은 환자 보고 죽으라는 것”이라고 토로했다. 진주시 하대동에 사는 박상호 씨(45)는 “사람의 목숨을 다루는
|
216 |
+
병원에서 자본의 논리에 얽매이는 현실이 안타깝다”고 말했다. 진주의료원이 폐업하면 203명의 환자 이송과 233명의 종사자 재취업 문제도 해결해야
|
217 |
+
할 과제다. 도는 환자에 대해 자발적 퇴원과 지역 내 인근 병원 이송을 추진하고 직원은 자진 퇴사와 이직을 유도할 방침이다. 한편 도는 이날
|
218 |
+
남해도립대와 거창도립대를 경남도립대(가칭)로, 문화재단·문화콘텐츠진흥원·영상위원회는 경남문화예술진흥원(가칭)으로 통합한다고 밝혔다.
|
219 |
+
pipeline_tag: sentence-similarity
|
220 |
+
library_name: sentence-transformers
|
221 |
+
---
|
222 |
+
|
223 |
+
# SentenceTransformer based on intfloat/multilingual-e5-large-instruct
|
224 |
+
|
225 |
+
This is a [sentence-transformers](https://www.SBERT.net) model finetuned from [intfloat/multilingual-e5-large-instruct](https://huggingface.co/intfloat/multilingual-e5-large-instruct). It maps sentences & paragraphs to a 1024-dimensional dense vector space and can be used for semantic textual similarity, semantic search, paraphrase mining, text classification, clustering, and more.
|
226 |
+
|
227 |
+
## Model Details
|
228 |
+
|
229 |
+
### Model Description
|
230 |
+
- **Model Type:** Sentence Transformer
|
231 |
+
- **Base model:** [intfloat/multilingual-e5-large-instruct](https://huggingface.co/intfloat/multilingual-e5-large-instruct) <!-- at revision c9e87c786ffac96aeaeb42863276930883923ecb -->
|
232 |
+
- **Maximum Sequence Length:** 512 tokens
|
233 |
+
- **Output Dimensionality:** 1024 tokens
|
234 |
+
- **Similarity Function:** Cosine Similarity
|
235 |
+
<!-- - **Training Dataset:** Unknown -->
|
236 |
+
<!-- - **Language:** Unknown -->
|
237 |
+
<!-- - **License:** Unknown -->
|
238 |
+
|
239 |
+
### Model Sources
|
240 |
+
|
241 |
+
- **Documentation:** [Sentence Transformers Documentation](https://sbert.net)
|
242 |
+
- **Repository:** [Sentence Transformers on GitHub](https://github.com/UKPLab/sentence-transformers)
|
243 |
+
- **Hugging Face:** [Sentence Transformers on Hugging Face](https://huggingface.co/models?library=sentence-transformers)
|
244 |
+
|
245 |
+
### Full Model Architecture
|
246 |
+
|
247 |
+
```
|
248 |
+
SentenceTransformer(
|
249 |
+
(0): Transformer({'max_seq_length': 512, 'do_lower_case': False}) with Transformer model: XLMRobertaModel
|
250 |
+
(1): Pooling({'word_embedding_dimension': 1024, 'pooling_mode_cls_token': False, 'pooling_mode_mean_tokens': True, 'pooling_mode_max_tokens': False, 'pooling_mode_mean_sqrt_len_tokens': False, 'pooling_mode_weightedmean_tokens': False, 'pooling_mode_lasttoken': False, 'include_prompt': True})
|
251 |
+
(2): Normalize()
|
252 |
+
)
|
253 |
+
```
|
254 |
+
|
255 |
+
## Usage
|
256 |
+
|
257 |
+
### Direct Usage (Sentence Transformers)
|
258 |
+
|
259 |
+
First install the Sentence Transformers library:
|
260 |
+
|
261 |
+
```bash
|
262 |
+
pip install -U sentence-transformers
|
263 |
+
```
|
264 |
+
|
265 |
+
Then you can load this model and run inference.
|
266 |
+
```python
|
267 |
+
from sentence_transformers import SentenceTransformer
|
268 |
+
|
269 |
+
# Download from the 🤗 Hub
|
270 |
+
model = SentenceTransformer("sentence_transformers_model_id")
|
271 |
+
# Run inference
|
272 |
+
sentences = [
|
273 |
+
'국방부 장관이 제시한 전작권 반환시기는 몇 년도인가?',
|
274 |
+
'한국이 미국에 2015년으로 예정된 전시작전통제권 전환 시기를 다시 연기하자고 제안한 것으로 알려졌다.미국 국방부 고위 당국자는 17일 김관진 국방부 장관이 척 헤이글 국방장관에게 최근 전작권 전환의 재연기를 제안해 양국 정부가 이 문제를 협의하고 있다고 연합뉴스에 밝혔다. 이에 대해 한국 국방부 관계자는 “2013년 전반기에 심각해진 북한 핵 문제 등 안보 상황을 중요한 조건으로 고려하면서 전작권 전환 준비를 점검해 나가자고 미국 측에 제의해 한·미 간 논의 중에 있다”고 말했다. 그는 이어 “전작권 전환은 향후 한·미 안보협의회(SCM), 군사위원회의(MCM) 등을 통해 지속적으로 협의해 나갈 것”이라고 말했다.전작권 재연기론의 배경에는 북한이 지난해 말부터 핵실험을 강행하는 등 대남 전쟁위협 수위를 급격하게 높인 것을 꼽을 수 있다. 북한은 지난 2월 3차 핵실험 이후 정전협정을 백지화하겠다고 위협한 데 이어 ‘1호 전투근무태세’ 명령을 내리는 등 위협 강도를 끌어올렸다.정부가 전작권 전환 재연기를 제의한 시기가 지난 3월이며 김 장관이 샹그릴라 대화에서 헤이글 국방장관에게 전환 시기의 연기를 제의했다는 관측이 제기되기도 했다. 정부의 한 고위 관계자는 “올해 초 북한의 위협이 계속되는 등 남북관계 상황을 고려하지 않을 수 없었다”고 말해 전작권 전환시기의 재연기를 제의했음을 시사했다. 한·미 양국은 2006년 전작권을 2013년 전환하기로 합의한 뒤 2010년에 전환 시기를 2015년으로 연기했다.',
|
275 |
+
"1982년 숭의여자고등학교를 졸업하고 창단팀 신용보증기금 농구단에 입단하였다. 숭의여고 시절 '초고교급 가드'로 일찌감치 인정받아 명문팀과의 계약이 유력시 되었지만 '여자 농구의 대모' 박신자를 감독으로 추대하고 고교 유망주들을 적극적으로 영입하는 등 다음 해 시작될 농구대잔치를 위해 적극적인 스카웃 노력을 기울인 신용보증기금과 결국 계약이 이루어졌다. 1982년 10월 필리핀 마닐라에서 열린 아시아 청소년 여자 농구 선수권 대회를 위한 청소년 대표팀에 선발되어 주전 가드로서 활약하였으나 대한민국팀은 중국에 밀려 은메달에 그쳤다. \n\n1984년 5월 쿠바 아바나에서 열린 프레올림픽에 처음 국가대표로 선발되었으며 1984년 LA 올림픽에서는 백업 가드로서 미국과의 결승전 등 세 경기에 교체 출장하며 은메달을 거머쥐었다. 그해 10월에는 중국 상하이에서 열린 아시아 여자 농구 선수권 대회에도 참가, 인도 전에서 최애영을 대신하여 베스트 5로 선발 출장 하는 등 백업 가드로 활약하며 대한민국팀의 대회 4연패에 일조하였다.\n\n1986년에도 국가대표팀에 선발되어 세계 여자 농구 선수권 대회와 아시안게임에 출전하지만 '만년하위팀' 의 오명을 극복하지 못한 소속팀의 부진으로 인해 대중들의 조명을 크게 받지는 못하였다. 1987-88 시즌 농구대잔치에서 국가대표 구정희와 함께 황금 가드 콤비를 이루며 잠시 돌풍을 일으키기도 했지 신생팀의 핸디캡과 포스트진의 부재로 우승권에 근접하지 못하고 1988-89 시즌을 끝으로 은퇴를 선언하였다.",
|
276 |
+
]
|
277 |
+
embeddings = model.encode(sentences)
|
278 |
+
print(embeddings.shape)
|
279 |
+
# [3, 1024]
|
280 |
+
|
281 |
+
# Get the similarity scores for the embeddings
|
282 |
+
similarities = model.similarity(embeddings, embeddings)
|
283 |
+
print(similarities.shape)
|
284 |
+
# [3, 3]
|
285 |
+
```
|
286 |
+
|
287 |
+
<!--
|
288 |
+
### Direct Usage (Transformers)
|
289 |
+
|
290 |
+
<details><summary>Click to see the direct usage in Transformers</summary>
|
291 |
+
|
292 |
+
</details>
|
293 |
+
-->
|
294 |
+
|
295 |
+
<!--
|
296 |
+
### Downstream Usage (Sentence Transformers)
|
297 |
+
|
298 |
+
You can finetune this model on your own dataset.
|
299 |
+
|
300 |
+
<details><summary>Click to expand</summary>
|
301 |
+
|
302 |
+
</details>
|
303 |
+
-->
|
304 |
+
|
305 |
+
<!--
|
306 |
+
### Out-of-Scope Use
|
307 |
+
|
308 |
+
*List how the model may foreseeably be misused and address what users ought not to do with the model.*
|
309 |
+
-->
|
310 |
+
|
311 |
+
<!--
|
312 |
+
## Bias, Risks and Limitations
|
313 |
+
|
314 |
+
*What are the known or foreseeable issues stemming from this model? You could also flag here known failure cases or weaknesses of the model.*
|
315 |
+
-->
|
316 |
+
|
317 |
+
<!--
|
318 |
+
### Recommendations
|
319 |
+
|
320 |
+
*What are recommendations with respect to the foreseeable issues? For example, filtering explicit content.*
|
321 |
+
-->
|
322 |
+
|
323 |
+
## Training Details
|
324 |
+
|
325 |
+
### Training Dataset
|
326 |
+
|
327 |
+
#### Unnamed Dataset
|
328 |
+
|
329 |
+
|
330 |
+
* Size: 17,552 training samples
|
331 |
+
* Columns: <code>sentence_0</code> and <code>sentence_1</code>
|
332 |
+
* Approximate statistics based on the first 1000 samples:
|
333 |
+
| | sentence_0 | sentence_1 |
|
334 |
+
|:--------|:----------------------------------------------------------------------------------|:--------------------------------------------------------------------------------------|
|
335 |
+
| type | string | string |
|
336 |
+
| details | <ul><li>min: 9 tokens</li><li>mean: 18.99 tokens</li><li>max: 39 tokens</li></ul> | <ul><li>min: 256 tokens</li><li>mean: 455.66 tokens</li><li>max: 512 tokens</li></ul> |
|
337 |
+
* Samples:
|
338 |
+
| sentence_0 | sentence_1 |
|
339 |
+
|:--------------------------------------------|:-----------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|
|
340 |
+
| <code>무대의 공감각적 이미지를 살리기 위해 사용한 관악기는?</code> | <code>무대는 끊임없이 관객의 상상력을 자극한다. 비스듬히 경사진 사각 나무판 무대에서 배우들이 맨발로 움직인다. 새의 몸짓으로 역동적인 삼각 군무를 펼치다 원을 그리며 빙글빙글 뛰어다니기도 한다. 새의 영역이던 무대는 점점 기울어져 거대한 성벽이 됐다가 다시 완만해져 위대한 새의 나라 ‘조국(鳥國)’의 안마당으로 변한다. 국립극단이 기획한 ‘아리스토파네스 희극 3부작’ 시리즈의 마지막 무대로 서울 서계동 백성희장민호극장에서 공연 중인 연극 ‘새’(윤조병 극본, 윤시중 연출)는 단출하고 현대적인 무대·언어 미학으로 고전 희극을 풀어낸다. 시리즈 전작인 ‘개구리’ ‘구름’과는 사뭇 다르다. 원작이 쓰여진 2500여년 전 그리스 아테네 상황과 ‘오늘의 한국’을 애써 꿰맞추려 하지 않는다. 공연은 원작의 뼈대와 구성은 그대로 살리되 내용은 과감히 줄이면서 조금씩 윤색해 인물과 결말을 살짝 비틀었다. 인물들의 대사는 간결하고 쉽다. 어렵거나 추상적 표현은 전혀 없이 일상에서 살아 숨 쉬는 언어들을 툭툭 리듬에 맞춰 던진다. 원작이나 전작들처럼 장황하게 늘어놓거나 묘사하지 않는다. 극이 주로 ‘새의 나라’에서 벌어지는 만큼 날개 단 인간들이 ‘새대가리’라고 놀리는 새의 수준에 맞춘 것 같다. 그래서 더 웃기고 재미있고, 뭔가 상상하게 만든다.빚을 지고 현실세계에서 도망친 ‘교활 덩어리’ 피스가 자리와 상황 변화에 따라 시시각각으로 변하는 모습을 지켜보는 재미가 쏠쏠하다. 원작에선 남성인 피스가 여성으로 나오는 것도 흥미롭다. 여생을 편안하게 보낼 수 있는 곳을 찾던 피스는 인간과 신들의 세계를 좌지우지할 수 있는 ‘조국’을 구상하고 건설하는 지도자가 되고, 다시 왕에 오르면서 탐욕과 권력욕에 물든다. ‘새의 나라’에 만족하지 못하고 신의 세계까지 올라가 천상을 지배하려던 피스는 신이 된 듯한 착각에 빠져 그만 날개를 스스로 떼어버리고 추락한다. 원작의 해피엔딩과는 달리 극은 유토피아에 대한 인간의 헛된 꿈과 끝을 모르는 욕심의 종착점을 직설적으로 제시한다. 새의 특성을 분장과 의상, 몸짓으로 보여주는 배우들이 나무판 무대를 타거나 넘거나 뚫거나 휘돌며 극을 만든다. 플루트와 타악기가 어우러져 빚어내는 신비롭고 매력적인 음악이 무대에 입혀져 공감각적 이미지를 만들어낸다. 흥겹고 즐거운 놀이와 환상의 연극성이 충만한 무대다. 공연은 내달 3일까지. 1만~3만원.</code> |
|
341 |
+
| <code>올해 창립 25주년을 맞는 공공연구소는?</code> | <code>삼성그룹 계열 연구기관인 삼성경제연구소(SERI)가 올해로 창립 25주년을 맞는다. 1991년 그룹 내부 연구소로 출발해 연 매출 1600억원 이상을 올리는 국내 최대 민간연구소가 됐다. 한때 ‘세리CEO’, ‘세리 인포메이션’ 등 유료 콘텐츠를 통해 민간연구소 업계에 ‘지식으로 돈 버는 모델’을 제시했던 이 연구소는 최근 컨설팅 회사로 빠르게 변신 중이다. 최근 5년 새 연구인력을 50명 늘렸고 삼성SDS, 삼성중공업 등 계열사 사업 재편의 방향도 이곳에서 조언한다. 맥킨지 등 외부 컨설팅업체에서 조언을 받던 삼성 계열사들은 사업 재편 등 핵심 사안에 대한 컨설팅 용역을 삼성경제연구소에 맡기는 추���다.○‘지식기업’ 꿈꿨던 SERI삼성경제연구소(사장 정기영·사진)는 1986년 삼성생명 부속 조직으로 출발해 1991년 그룹 연구조직으로 확대 개편됐다. 삼성전자 등 그룹 내 주요 계열사 대상 연구용역과 임직원 재교육을 주로 담당해왔다. ‘돈 버는 일’보다 ‘경영 자문’이 이 연구소의 주된 역할이었다. 그러던 1998년, 삼성경제연구소는 변신에 나섰다. 삼성그룹 고위 임원에게 제공하던 내부 콘텐츠인 세리CEO를 외부에 개방하기 시작했다. 세리CEO는 최신 경영 트렌드, 경제동향, 산업·기술 변화, 인문학, 매니지먼트, 리더십, 철학, 문학, 스포츠 등을 동영상 등 멀티미디어 콘텐츠로 제공하는 ‘통섭형’ 지식상품이다. 제공 콘텐츠는 1만2000여건이다. 삼성경제연구소는 세리CEO 콘텐츠 제공 대가로 100만원이 넘는 연회비를 받았다. ‘지식으로 돈을 버는’ 수익형 연구소로 탈바꿈한 것. 비싼 회비에도 세리CEO의 인기는 뜨거웠다. 외부 개방 첫해부터 기업, 교수, 관료 등 오피니언리더들의 가입이 줄을 이었다. 120만~150만원을 내는 개인·단체 유료회원은 1만3300여명(2014년 기준). 여기에 국방부와 일선 학교 등 콘텐츠를 일괄 제공받는 준회원을 합하면 30만여명에 달한다.실적도 좋았다. 세리CEO의 매출과 영업이익은 2011년 각각 206억원과 93억원, 2012년 각각 190억원과 87억원을 기록했다. 세리CEO 인기 덕분에 삼성경제연구소 매출(연구용역+인력교육)도 급증했다. 2001년 382억원이던 매출은 2013년 1660억원으로 4배가량 늘었다. 2013년 매출은 경쟁사인 LG경제연구원의 2.2배, 현대경제연구원의 6.7배에 달한다.○계열사 경영자문…삼성의 ‘컨설팅 펌’세리CEO를 내세워 잘나가던 삼성경제연구소는 2013년 또 한 번 변신을 시도했다. 2012년 자회사로 떼어낸 세리CEO를 이듬해 11월 그룹 계열사인 크레듀에 전격 매각했다. 비슷한 시기 삼성경제연구소는 매년 하반기 외부에 공개해왔던 성장률·환율·유가 동향 등을 담은 ‘경제 전망’ 발표도 중단했다. 그룹 관계자는 “지식콘텐츠 사업은 크레듀로 일원화하고 삼성경제연구소는 컨설팅 전문조직으로 바꾸기 위한 시도”라고 설명했다.외부 콘텐츠 제공사업을 전면 중단한 삼성경제연구소는 내부 컨설팅 전문조직으로 탈바꿈했다. 우선 2009년 100여명이던 연구인력을 작년 말 150여명으로 늘렸다. LG경제연구원(103명), 현대경제연구원(50명)과 비교하면 월등히 많은 인력 규모다. 다음달 건설·엔지니어링, 광고·호텔·식음료 등 서비스 부문 연구인력 10여명을 추가 채용하는 등 연구조직을 계속 확충한다는 계획이다.계열사 컨설팅 업무 비중도 크게 늘었다. 2013년 그룹 계열사에 대한 경영자문으로 올린 매출은 778억원으로 전년(2012년) 대비 100억원 가까이 늘었다. 경영자문과 함께 인력 재교육을 해주고서 올린 매출(2013년 기준)도 삼성전자 811억원, 삼성디스플레이 117억원, 삼성물산 81억원 등에 달한다. 재계 관계자는 “삼성그룹이 2013년부터 추진한 계열사 구조조정의 상당수가 삼성경제연구소 컨설팅을 받아 진행된 것들”이라며 “(삼성경제연구소가) ‘미래 삼성’의 방향성을 제시할 두뇌 조직으로 변신하고 있다”고 설명했다.</code> |
|
342 |
+
| <code>동부와의 인수합병을 찬성하는 사람은?</code> | <code>“그동안 380억원을 투자해서 못해도 400억원 이상은 받아야 한다.”(동부그룹)“앞으로 들어갈 돈이 최소한 80억원이어서 290억원 이상은 안된다.”(화성그린팜)동부그룹이 경기 화성에 지은 토마토용 유리온실 매각 작업이 표류하고 있다. 당초 지난달 말까지 본계약을 맺기로 했지만 사는 쪽과 파는 쪽의 눈높이가 달라 이견이 좁혀지지 않고 있다.양측의 의견 차이가 가장 큰 부문은 가격. 유리온실을 매각하려는 동부그룹은 400억원 이상은 받아야 한다고 주장한다. 2010년 7월부터 작년 말까지 화성에 아시아 최대 규모(15만㎡)의 유리온실을 완공하는 데 380억원이 들었기 때문이다. 반면 유리온실을 인수하려는 화성그린팜은 290억원 이상 줄 수 없다고 맞서고 있다. 유리온실 인수 후 시설을 보수하고 토마토 경작을 정상화하는 데 80억원가량이 더 들 것으로 보고 있어서다. 화성그린팜은 화성지역 12개 농협과 5개 화성시 농민단체, 1개 영농법인 등으로 구성돼 있다.화성그린팜은 또 동부가 보유한 유리온실 지분(68.4%) 외에 나머지 지분도 모두 넘길 것을 인수 조건으로 내세우고 있다. 남기철 화성그린팜 회���은 “동부 외에 누가 주주인지도 모르는데 어떻게 같이 사업을 할 수 있느냐”며 “동부가 2대 주주로 들어오든지 아니면 지분 100%를 다 넘겨야 한다”고 말했다. 동부가 유리온실 예비협상대상자를 선정하지 않은 것도 매각 작업이 늦어지는 요인으로 지적되고 있다. 동부는 작년 말 유리온실을 완공한 뒤 이곳에서 수확한 토마토를 전량 수출하겠다고 했지만 농민들의 불매운동에 부딪혀 지난 3월 사업을 포기하고 유리온실을 매각하기로 했다. 지난 6월 화성그린팜과 양해각서(MOU)를 맺고 당초 9월 말까지 협상을 끝내기로 했다가 10월 말로 한 차례 연장했다.</code> |
|
343 |
+
* Loss: [<code>MultipleNegativesRankingLoss</code>](https://sbert.net/docs/package_reference/sentence_transformer/losses.html#multiplenegativesrankingloss) with these parameters:
|
344 |
+
```json
|
345 |
+
{
|
346 |
+
"scale": 20.0,
|
347 |
+
"similarity_fct": "cos_sim"
|
348 |
+
}
|
349 |
+
```
|
350 |
+
|
351 |
+
### Training Hyperparameters
|
352 |
+
#### Non-Default Hyperparameters
|
353 |
+
|
354 |
+
- `per_device_train_batch_size`: 16
|
355 |
+
- `per_device_eval_batch_size`: 16
|
356 |
+
- `num_train_epochs`: 1
|
357 |
+
- `batch_sampler`: no_duplicates
|
358 |
+
- `multi_dataset_batch_sampler`: round_robin
|
359 |
+
|
360 |
+
#### All Hyperparameters
|
361 |
+
<details><summary>Click to expand</summary>
|
362 |
+
|
363 |
+
- `overwrite_output_dir`: False
|
364 |
+
- `do_predict`: False
|
365 |
+
- `eval_strategy`: no
|
366 |
+
- `prediction_loss_only`: True
|
367 |
+
- `per_device_train_batch_size`: 16
|
368 |
+
- `per_device_eval_batch_size`: 16
|
369 |
+
- `per_gpu_train_batch_size`: None
|
370 |
+
- `per_gpu_eval_batch_size`: None
|
371 |
+
- `gradient_accumulation_steps`: 1
|
372 |
+
- `eval_accumulation_steps`: None
|
373 |
+
- `torch_empty_cache_steps`: None
|
374 |
+
- `learning_rate`: 5e-05
|
375 |
+
- `weight_decay`: 0.0
|
376 |
+
- `adam_beta1`: 0.9
|
377 |
+
- `adam_beta2`: 0.999
|
378 |
+
- `adam_epsilon`: 1e-08
|
379 |
+
- `max_grad_norm`: 1
|
380 |
+
- `num_train_epochs`: 1
|
381 |
+
- `max_steps`: -1
|
382 |
+
- `lr_scheduler_type`: linear
|
383 |
+
- `lr_scheduler_kwargs`: {}
|
384 |
+
- `warmup_ratio`: 0.0
|
385 |
+
- `warmup_steps`: 0
|
386 |
+
- `log_level`: passive
|
387 |
+
- `log_level_replica`: warning
|
388 |
+
- `log_on_each_node`: True
|
389 |
+
- `logging_nan_inf_filter`: True
|
390 |
+
- `save_safetensors`: True
|
391 |
+
- `save_on_each_node`: False
|
392 |
+
- `save_only_model`: False
|
393 |
+
- `restore_callback_states_from_checkpoint`: False
|
394 |
+
- `no_cuda`: False
|
395 |
+
- `use_cpu`: False
|
396 |
+
- `use_mps_device`: False
|
397 |
+
- `seed`: 42
|
398 |
+
- `data_seed`: None
|
399 |
+
- `jit_mode_eval`: False
|
400 |
+
- `use_ipex`: False
|
401 |
+
- `bf16`: False
|
402 |
+
- `fp16`: False
|
403 |
+
- `fp16_opt_level`: O1
|
404 |
+
- `half_precision_backend`: auto
|
405 |
+
- `bf16_full_eval`: False
|
406 |
+
- `fp16_full_eval`: False
|
407 |
+
- `tf32`: None
|
408 |
+
- `local_rank`: 0
|
409 |
+
- `ddp_backend`: None
|
410 |
+
- `tpu_num_cores`: None
|
411 |
+
- `tpu_metrics_debug`: False
|
412 |
+
- `debug`: []
|
413 |
+
- `dataloader_drop_last`: False
|
414 |
+
- `dataloader_num_workers`: 0
|
415 |
+
- `dataloader_prefetch_factor`: None
|
416 |
+
- `past_index`: -1
|
417 |
+
- `disable_tqdm`: False
|
418 |
+
- `remove_unused_columns`: True
|
419 |
+
- `label_names`: None
|
420 |
+
- `load_best_model_at_end`: False
|
421 |
+
- `ignore_data_skip`: False
|
422 |
+
- `fsdp`: []
|
423 |
+
- `fsdp_min_num_params`: 0
|
424 |
+
- `fsdp_config`: {'min_num_params': 0, 'xla': False, 'xla_fsdp_v2': False, 'xla_fsdp_grad_ckpt': False}
|
425 |
+
- `fsdp_transformer_layer_cls_to_wrap`: None
|
426 |
+
- `accelerator_config`: {'split_batches': False, 'dispatch_batches': None, 'even_batches': True, 'use_seedable_sampler': True, 'non_blocking': False, 'gradient_accumulation_kwargs': None}
|
427 |
+
- `deepspeed`: None
|
428 |
+
- `label_smoothing_factor`: 0.0
|
429 |
+
- `optim`: adamw_torch
|
430 |
+
- `optim_args`: None
|
431 |
+
- `adafactor`: False
|
432 |
+
- `group_by_length`: False
|
433 |
+
- `length_column_name`: length
|
434 |
+
- `ddp_find_unused_parameters`: None
|
435 |
+
- `ddp_bucket_cap_mb`: None
|
436 |
+
- `ddp_broadcast_buffers`: False
|
437 |
+
- `dataloader_pin_memory`: True
|
438 |
+
- `dataloader_persistent_workers`: False
|
439 |
+
- `skip_memory_metrics`: True
|
440 |
+
- `use_legacy_prediction_loop`: False
|
441 |
+
- `push_to_hub`: False
|
442 |
+
- `resume_from_checkpoint`: None
|
443 |
+
- `hub_model_id`: None
|
444 |
+
- `hub_strategy`: every_save
|
445 |
+
- `hub_private_repo`: False
|
446 |
+
- `hub_always_push`: False
|
447 |
+
- `gradient_checkpointing`: False
|
448 |
+
- `gradient_checkpointing_kwargs`: None
|
449 |
+
- `include_inputs_for_metrics`: False
|
450 |
+
- `eval_do_concat_batches`: True
|
451 |
+
- `fp16_backend`: auto
|
452 |
+
- `push_to_hub_model_id`: None
|
453 |
+
- `push_to_hub_organization`: None
|
454 |
+
- `mp_parameters`:
|
455 |
+
- `auto_find_batch_size`: False
|
456 |
+
- `full_determinism`: False
|
457 |
+
- `torchdynamo`: None
|
458 |
+
- `ray_scope`: last
|
459 |
+
- `ddp_timeout`: 1800
|
460 |
+
- `torch_compile`: False
|
461 |
+
- `torch_compile_backend`: None
|
462 |
+
- `torch_compile_mode`: None
|
463 |
+
- `dispatch_batches`: None
|
464 |
+
- `split_batches`: None
|
465 |
+
- `include_tokens_per_second`: False
|
466 |
+
- `include_num_input_tokens_seen`: False
|
467 |
+
- `neftune_noise_alpha`: None
|
468 |
+
- `optim_target_modules`: None
|
469 |
+
- `batch_eval_metrics`: False
|
470 |
+
- `eval_on_start`: False
|
471 |
+
- `use_liger_kernel`: False
|
472 |
+
- `eval_use_gather_object`: False
|
473 |
+
- `batch_sampler`: no_duplicates
|
474 |
+
- `multi_dataset_batch_sampler`: round_robin
|
475 |
+
|
476 |
+
</details>
|
477 |
+
|
478 |
+
### Training Logs
|
479 |
+
| Epoch | Step | Training Loss |
|
480 |
+
|:------:|:----:|:-------------:|
|
481 |
+
| 0.4558 | 500 | 0.1965 |
|
482 |
+
| 0.9116 | 1000 | 0.0956 |
|
483 |
+
|
484 |
+
|
485 |
+
### Framework Versions
|
486 |
+
- Python: 3.10.12
|
487 |
+
- Sentence Transformers: 3.1.1
|
488 |
+
- Transformers: 4.45.2
|
489 |
+
- PyTorch: 2.5.1+cu121
|
490 |
+
- Accelerate: 1.1.1
|
491 |
+
- Datasets: 3.1.0
|
492 |
+
- Tokenizers: 0.20.3
|
493 |
+
|
494 |
+
## Citation
|
495 |
+
|
496 |
+
### BibTeX
|
497 |
+
|
498 |
+
#### Sentence Transformers
|
499 |
+
```bibtex
|
500 |
+
@inproceedings{reimers-2019-sentence-bert,
|
501 |
+
title = "Sentence-BERT: Sentence Embeddings using Siamese BERT-Networks",
|
502 |
+
author = "Reimers, Nils and Gurevych, Iryna",
|
503 |
+
booktitle = "Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing",
|
504 |
+
month = "11",
|
505 |
+
year = "2019",
|
506 |
+
publisher = "Association for Computational Linguistics",
|
507 |
+
url = "https://arxiv.org/abs/1908.10084",
|
508 |
+
}
|
509 |
+
```
|
510 |
+
|
511 |
+
#### MultipleNegativesRankingLoss
|
512 |
+
```bibtex
|
513 |
+
@misc{henderson2017efficient,
|
514 |
+
title={Efficient Natural Language Response Suggestion for Smart Reply},
|
515 |
+
author={Matthew Henderson and Rami Al-Rfou and Brian Strope and Yun-hsuan Sung and Laszlo Lukacs and Ruiqi Guo and Sanjiv Kumar and Balint Miklos and Ray Kurzweil},
|
516 |
+
year={2017},
|
517 |
+
eprint={1705.00652},
|
518 |
+
archivePrefix={arXiv},
|
519 |
+
primaryClass={cs.CL}
|
520 |
+
}
|
521 |
+
```
|
522 |
+
|
523 |
+
<!--
|
524 |
+
## Glossary
|
525 |
+
|
526 |
+
*Clearly define terms in order to be accessible across audiences.*
|
527 |
+
-->
|
528 |
+
|
529 |
+
<!--
|
530 |
+
## Model Card Authors
|
531 |
+
|
532 |
+
*Lists the people who create the model card, providing recognition and accountability for the detailed work that goes into its construction.*
|
533 |
+
-->
|
534 |
+
|
535 |
+
<!--
|
536 |
+
## Model Card Contact
|
537 |
+
|
538 |
+
*Provides a way for people who have updates to the Model Card, suggestions, or questions, to contact the Model Card authors.*
|
539 |
+
-->
|
config.json
ADDED
@@ -0,0 +1,28 @@
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
1 |
+
{
|
2 |
+
"_name_or_path": "intfloat/multilingual-e5-large-instruct",
|
3 |
+
"architectures": [
|
4 |
+
"XLMRobertaModel"
|
5 |
+
],
|
6 |
+
"attention_probs_dropout_prob": 0.1,
|
7 |
+
"bos_token_id": 0,
|
8 |
+
"classifier_dropout": null,
|
9 |
+
"eos_token_id": 2,
|
10 |
+
"hidden_act": "gelu",
|
11 |
+
"hidden_dropout_prob": 0.1,
|
12 |
+
"hidden_size": 1024,
|
13 |
+
"initializer_range": 0.02,
|
14 |
+
"intermediate_size": 4096,
|
15 |
+
"layer_norm_eps": 1e-05,
|
16 |
+
"max_position_embeddings": 514,
|
17 |
+
"model_type": "xlm-roberta",
|
18 |
+
"num_attention_heads": 16,
|
19 |
+
"num_hidden_layers": 24,
|
20 |
+
"output_past": true,
|
21 |
+
"pad_token_id": 1,
|
22 |
+
"position_embedding_type": "absolute",
|
23 |
+
"torch_dtype": "float32",
|
24 |
+
"transformers_version": "4.45.2",
|
25 |
+
"type_vocab_size": 1,
|
26 |
+
"use_cache": true,
|
27 |
+
"vocab_size": 250002
|
28 |
+
}
|
config_sentence_transformers.json
ADDED
@@ -0,0 +1,10 @@
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
1 |
+
{
|
2 |
+
"__version__": {
|
3 |
+
"sentence_transformers": "3.1.1",
|
4 |
+
"transformers": "4.45.2",
|
5 |
+
"pytorch": "2.5.1+cu121"
|
6 |
+
},
|
7 |
+
"prompts": {},
|
8 |
+
"default_prompt_name": null,
|
9 |
+
"similarity_fn_name": null
|
10 |
+
}
|
model.safetensors
ADDED
@@ -0,0 +1,3 @@
|
|
|
|
|
|
|
|
|
1 |
+
version https://git-lfs.github.com/spec/v1
|
2 |
+
oid sha256:e21f310b8bba7da7a619fadd0a82df86cb15cc59d1b762d3ff0274f4220ee603
|
3 |
+
size 2239607176
|
modules.json
ADDED
@@ -0,0 +1,20 @@
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
1 |
+
[
|
2 |
+
{
|
3 |
+
"idx": 0,
|
4 |
+
"name": "0",
|
5 |
+
"path": "",
|
6 |
+
"type": "sentence_transformers.models.Transformer"
|
7 |
+
},
|
8 |
+
{
|
9 |
+
"idx": 1,
|
10 |
+
"name": "1",
|
11 |
+
"path": "1_Pooling",
|
12 |
+
"type": "sentence_transformers.models.Pooling"
|
13 |
+
},
|
14 |
+
{
|
15 |
+
"idx": 2,
|
16 |
+
"name": "2",
|
17 |
+
"path": "2_Normalize",
|
18 |
+
"type": "sentence_transformers.models.Normalize"
|
19 |
+
}
|
20 |
+
]
|
sentence_bert_config.json
ADDED
@@ -0,0 +1,4 @@
|
|
|
|
|
|
|
|
|
|
|
1 |
+
{
|
2 |
+
"max_seq_length": 512,
|
3 |
+
"do_lower_case": false
|
4 |
+
}
|
sentencepiece.bpe.model
ADDED
@@ -0,0 +1,3 @@
|
|
|
|
|
|
|
|
|
1 |
+
version https://git-lfs.github.com/spec/v1
|
2 |
+
oid sha256:cfc8146abe2a0488e9e2a0c56de7952f7c11ab059eca145a0a727afce0db2865
|
3 |
+
size 5069051
|
special_tokens_map.json
ADDED
@@ -0,0 +1,51 @@
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
1 |
+
{
|
2 |
+
"bos_token": {
|
3 |
+
"content": "<s>",
|
4 |
+
"lstrip": false,
|
5 |
+
"normalized": false,
|
6 |
+
"rstrip": false,
|
7 |
+
"single_word": false
|
8 |
+
},
|
9 |
+
"cls_token": {
|
10 |
+
"content": "<s>",
|
11 |
+
"lstrip": false,
|
12 |
+
"normalized": false,
|
13 |
+
"rstrip": false,
|
14 |
+
"single_word": false
|
15 |
+
},
|
16 |
+
"eos_token": {
|
17 |
+
"content": "</s>",
|
18 |
+
"lstrip": false,
|
19 |
+
"normalized": false,
|
20 |
+
"rstrip": false,
|
21 |
+
"single_word": false
|
22 |
+
},
|
23 |
+
"mask_token": {
|
24 |
+
"content": "<mask>",
|
25 |
+
"lstrip": true,
|
26 |
+
"normalized": false,
|
27 |
+
"rstrip": false,
|
28 |
+
"single_word": false
|
29 |
+
},
|
30 |
+
"pad_token": {
|
31 |
+
"content": "<pad>",
|
32 |
+
"lstrip": false,
|
33 |
+
"normalized": false,
|
34 |
+
"rstrip": false,
|
35 |
+
"single_word": false
|
36 |
+
},
|
37 |
+
"sep_token": {
|
38 |
+
"content": "</s>",
|
39 |
+
"lstrip": false,
|
40 |
+
"normalized": false,
|
41 |
+
"rstrip": false,
|
42 |
+
"single_word": false
|
43 |
+
},
|
44 |
+
"unk_token": {
|
45 |
+
"content": "<unk>",
|
46 |
+
"lstrip": false,
|
47 |
+
"normalized": false,
|
48 |
+
"rstrip": false,
|
49 |
+
"single_word": false
|
50 |
+
}
|
51 |
+
}
|
tokenizer.json
ADDED
@@ -0,0 +1,3 @@
|
|
|
|
|
|
|
|
|
1 |
+
version https://git-lfs.github.com/spec/v1
|
2 |
+
oid sha256:883b037111086fd4dfebbbc9b7cee11e1517b5e0c0514879478661440f137085
|
3 |
+
size 17082987
|
tokenizer_config.json
ADDED
@@ -0,0 +1,55 @@
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
1 |
+
{
|
2 |
+
"added_tokens_decoder": {
|
3 |
+
"0": {
|
4 |
+
"content": "<s>",
|
5 |
+
"lstrip": false,
|
6 |
+
"normalized": false,
|
7 |
+
"rstrip": false,
|
8 |
+
"single_word": false,
|
9 |
+
"special": true
|
10 |
+
},
|
11 |
+
"1": {
|
12 |
+
"content": "<pad>",
|
13 |
+
"lstrip": false,
|
14 |
+
"normalized": false,
|
15 |
+
"rstrip": false,
|
16 |
+
"single_word": false,
|
17 |
+
"special": true
|
18 |
+
},
|
19 |
+
"2": {
|
20 |
+
"content": "</s>",
|
21 |
+
"lstrip": false,
|
22 |
+
"normalized": false,
|
23 |
+
"rstrip": false,
|
24 |
+
"single_word": false,
|
25 |
+
"special": true
|
26 |
+
},
|
27 |
+
"3": {
|
28 |
+
"content": "<unk>",
|
29 |
+
"lstrip": false,
|
30 |
+
"normalized": false,
|
31 |
+
"rstrip": false,
|
32 |
+
"single_word": false,
|
33 |
+
"special": true
|
34 |
+
},
|
35 |
+
"250001": {
|
36 |
+
"content": "<mask>",
|
37 |
+
"lstrip": true,
|
38 |
+
"normalized": false,
|
39 |
+
"rstrip": false,
|
40 |
+
"single_word": false,
|
41 |
+
"special": true
|
42 |
+
}
|
43 |
+
},
|
44 |
+
"additional_special_tokens": [],
|
45 |
+
"bos_token": "<s>",
|
46 |
+
"clean_up_tokenization_spaces": true,
|
47 |
+
"cls_token": "<s>",
|
48 |
+
"eos_token": "</s>",
|
49 |
+
"mask_token": "<mask>",
|
50 |
+
"model_max_length": 512,
|
51 |
+
"pad_token": "<pad>",
|
52 |
+
"sep_token": "</s>",
|
53 |
+
"tokenizer_class": "XLMRobertaTokenizer",
|
54 |
+
"unk_token": "<unk>"
|
55 |
+
}
|