SentenceTransformer based on BM-K/KoSimCSE-bert-multitask

This is a sentence-transformers model finetuned from BM-K/KoSimCSE-bert-multitask. It maps sentences & paragraphs to a 768-dimensional dense vector space and can be used for semantic textual similarity, semantic search, paraphrase mining, text classification, clustering, and more.

Model Details

Model Description

  • Model Type: Sentence Transformer
  • Base model: BM-K/KoSimCSE-bert-multitask
  • Maximum Sequence Length: 512 tokens
  • Output Dimensionality: 768 tokens
  • Similarity Function: Cosine Similarity

Model Sources

Full Model Architecture

SentenceTransformer(
  (0): Transformer({'max_seq_length': 512, 'do_lower_case': False}) with Transformer model: BertModel 
  (1): Pooling({'word_embedding_dimension': 768, 'pooling_mode_cls_token': False, 'pooling_mode_mean_tokens': True, 'pooling_mode_max_tokens': False, 'pooling_mode_mean_sqrt_len_tokens': False, 'pooling_mode_weightedmean_tokens': False, 'pooling_mode_lasttoken': False, 'include_prompt': True})
)

Usage

Direct Usage (Sentence Transformers)

First install the Sentence Transformers library:

pip install -U sentence-transformers

Then you can load this model and run inference.

from sentence_transformers import SentenceTransformer

# Download from the 🤗 Hub
model = SentenceTransformer("Atipico1/simcse-2000")
# Run inference
sentences = [
    '연제구의 도시미화와 저소득층 노인들의 일자리 창출에도 도움이 되는 게 뭐야',
    '연제구(구청장 이성문)는 지난해에 이어 ‘2021년 불법 유동광고물 수거보상사업’을 시행한다. ‘불법 유동광고물 수거보상사업’은 도시미관을 해치는 불법 광고물을 근절하기 위해 사업 참여자가 불법 유동광고물을 수거하여 구청 도시재생과에 가져가면 구청에서는 보상금을 지급하는 사업이다. 구는 1월 11일부터 15일까지 연제구민 중 만 60세 이상 저소득 어르신을 대상으로 신청을 받아 총 50명을 수거보상사업 참여자로 선발하였다. 참여자로 선발된 어르신들은 오는 2월부터 시작하는 수거 활동에 앞서 연제구청 구민홀에서 불법 유동광고물 구분 기준, 수거 방법, 수거 시 안전 수칙 등에 대해서 사전 교육을 받았으며 수거활동 중 발생할 수 있는 안전사고에 대비해 단체 보험에도 가입했다. 불법 광고물 정비에 주민들이 참여할 수 있는 기회를 제공하여 주민들로부터 불법 광고물에 대한 경각심을 제고 할 수 있을 것으로 기대된다. 구 관계자는 “이번 사업을 통해 주민과 함께 품격 있는 연제구를 만드는 데 일조하고, 저소득 어르신의 실버 일자리 창출에도 기여할 것으로 기대된다”고 말했다.',
    '4. 나가며\n노인복지주택이 지속가능한 노인복지정책이 되기 위해서는 사업시행자에게는 경제적으로 이득이 되고, 정책대상인 노인가구에게도 주거생활에 실질적인 도움을 줄 수 있어야 할 것이다. 그러나 그간 노인복지주택에의 사업시행자는 건설부지 및 부대시설 기준완화, 조세감면 등 각종 혜택을 받아 경제적 이득을 실현한 반면, 정책대상가구인 노인가구는 입소자격 제한규정으로 재산권 행사에 많은 불편을 겪어왔다. 이러한 정책집행 의지와 현실 간 괴리 속에서 다수의 노인복지주택에서 입소자격이 없는 자가 탈법적으로 입주하는 행위가 발생해온 것이다. 다음과 같은 측면에서도 노인복지주택정책에 대한 면밀한 검토가 필요하다. 첫째, 노인복지주택이 용도상 자연경관이 우수한 녹지지역 혹은 기반시설이 확보되지 않은 지역에도 건축될 수 있어 국토난개발을 유발할 가능성이 크다. 둘째, 보다 근본적으로 노인복지주택과 같이 노인들만 거주하는 주택이 노인복지 측면에서 바람직한지를 검토할 필요가 있다. 우리나라와 같이 급격한 고령화를 경험하고 있는 일본의 경우, 젊은 세대와 노인 세대가 함께 거주하는(age-mix) 정책이 중요하게 인식되고 있기 때문이다. 현행 노인복지주택 입소자자격 등은 노인의 주거복지증진과 행복추구에 부정적인 영향을 끼치고 있다는 점을 볼 때, 현행의 노인복지주택정책을 지속시키는 것이 실익이 있는지에 대한 면밀한 검토가 필요한 시점이다. 이를 위해 향후 공급되는 분양형 노인복지주택제도를 폐지하고, 노인복지주택을 「주택법」 체계 내로 흡수하는 방안을 적극적으로 검토할 필요가 있을 것이다.',
]
embeddings = model.encode(sentences)
print(embeddings.shape)
# [3, 768]

# Get the similarity scores for the embeddings
similarities = model.similarity(embeddings, embeddings)
print(similarities.shape)
# [3, 3]

Evaluation

Metrics

Triplet

Metric Value
cosine_accuracy 0.9314
dot_accuracy 0.0826
manhattan_accuracy 0.928
euclidean_accuracy 0.9309
max_accuracy 0.9314

Training Details

Training Dataset

Unnamed Dataset

  • Size: 473,130 training samples
  • Columns: anchor, positive, and negative
  • Approximate statistics based on the first 1000 samples:
    anchor positive negative
    type string string string
    details
    • min: 9 tokens
    • mean: 23.09 tokens
    • max: 88 tokens
    • min: 34 tokens
    • mean: 355.74 tokens
    • max: 512 tokens
    • min: 55 tokens
    • mean: 338.33 tokens
    • max: 512 tokens
  • Samples:
    anchor positive negative
    국회세종의사당 건립을 위한 법안을 누가 새로 제안했어 국민의힘 정진석 의원(공주·부여·청양)이 국회세종의사당 설치를 위한 '국회법' 일부개정법률안을 대표발의했다고 21일 밝혔다. 국회와 세종시 정부청사와의 물리적인 거리로 세종시 공무원의 관외 출장비는 3년간 917억원에 달한다. 출장횟수는 87만회에 달하고 있어 업무 불편과 비효율성 심화는 물론 정책 질 저하도 우려되는 실정이다. 개정안은 △서울시에 국회서울의사당을, 세종시에 국회세종의사당을 두도록 하고 △상임위원회는 국회세종의사당에 두는 것으로 하되, 국회운영위원회와 정보위원회 및 세종시로 이전하지 않은 부(部)를 소관하는 상임위원회는 국회서울의사당에 둘 수 있도록 했다. 행복도시법에 따른 이전 제외 대상 부처는 외교부, 통일부, 법무부, 국방부, 여성가족부 등 5곳이다. 또 예산결산특별위원회와 국회예산정책처는 세종시에 두도록하고 국회사무처, 국회도서관, 국회입법조사처는 국회세종의사당에 별도 기관을 둘 수 있도록 했다. 정진석 의원은 "여야 합의로 세종의사당 설계비 147억원이 확정됐고 지난 2월 국회 운영위원회 공청회에서 나온 의견들을 다듬어 법의 완성도를 높인 개정안인 만큼, 여야 합의를 통해 21대 국회 임기 중에 첫 삽을 뜰 있도록 최선을 다하겠다"고 말했다. 새로 들어온 법률안 등 - 2014. 5. 15. 의안접수현황 -
    □ 국회사무처(사무총장직무대리 임병규)는 2014년 5월 15일(목) 전병헌의원 등18인이 발의한 “방송법 일부개정법률안”, 서청원의원 등 12인이 발의한 “세월호 4ㆍ16사고 반성과 진상조사 및 국가재난방지체계 혁신을 위한 특별법안” 등 12건의 법률안과 “국회의원(남경필) 사직의 건”을 포함하여 총 13건의 의안이 접수되었다고 밝혔다. 접수된 의안 중 법률안은 앞으로 미래창조과학방송통신위원회 등 소관 위원회에 회부되어 심사될 예정이다. □ 어제 접수된 법률안 중 주요내용을 소개하면 다음과 같다. - 방송법 개정안(전병헌의원 대표발의): 홈쇼핑 사업자가 그 지위를 이용하여 납품업체에게 불공정 계약을 강요하거나 부당이익을 취득한 경우 허가취소나 업무 정지 등의 제재를 할 수 있도록 하려는 것임. - 세월호 4ㆍ16사고 반성과 진상조사 및 국가재난방지체계 혁신을 위한 특별법안(서청원의원 대표발의): 세월호 참사에 대한 진상조사, 피해자 보상ㆍ배상 및 지원 대책, 재발방지 대책을 심의ㆍ의결하기 위하여 국회에 특별위원회를 구성하도록 하려는 것임.
    어떤 국가가 과반수의 표를 확보해야 중의원 의장이 될 수 있게 정해 놨어 3. 일본
    가. 의장 선출
    □ 중의원 의장은 중의원 선거 후 최초 집회일에 열리는 회의에서 중의원 의원의 무기명 투표에 의해 직선으로 선출됨(「국회법」제6조, 「중의원규칙」제3조, 제8조)
    ○ 의장 선거는 전체 의원의 3분의 1 이상이 참석해서 사무총장이 의장의 직무대행을 하여 실시함(「국회법」제7조)
    ○ 의장으로 당선되기 위해서는 과반수 득표를 해야 하므로, 1차 투표에서 총 투표수의 과반수를 획득한 득표자가 없으면, 최다득표자 2인에 대하여 결선투표를 실시함
    ○ 결선투표에서 두 후보자의 득표수가 같은 경우 추첨으로 당선인이 결정됨
    ○ 중의원 의장의 임기는 4년이나, 임기 중에 해산에 의해서 모든 중의원 의원이 지위를 잃으면, 의장도 그 지위를 상실함
    □ 의장 선거절차는 중의원 규칙에서 정하는 것 외에, 제1회 일본 제국의회에서 정한 ‘의장 후보자 선거절차수칙’을 따르고 있음 ○ 의장 선출은 선거 전에 각 회파(교섭단체에 해당) 간의 대화로 미리 후보자가 결정되지만, 공식절차상으로는 각 의원의 본회의에서 선거로 선임함
    ○ 1970년대 중반까지는 집권여당이 국회의장과 부의장을 모두 독점하였으나, 제79회 국회(1976년) 이후 중의원 국회의장은 여당 제1당에서, 국회부의장은 야당 제1당(제2당)에서 선출하는 관행이 정착되었음. 그러나 1993년 연립정권 성립 후에는 중의원에서 자민당이 제1당이면서 여당이 아니었기 때문에 여당 간에 의장직을 둘러싸고 다툼이 있었음
    이에 반해 비례대표제에는 중선거구제 내 선호순위를 표시하는 단기이양투표(single transferable vote, 예: 아일랜드, 몰타), 정당이 후보 명부를 제시하고 당선자를 득표율대로 결정해나가는 명부식 비례대표제(list proportional representation system, 예: 벨기에, 스웨덴, 덴마크 등)가 있다. 대표적인 명부식 비례대표제는 다시 전국을 하나의 선거구로 사용하는 전국통합구제도(이스라엘, 네덜란드)와 선거구를 권역별로 나누되, 불비례성을 전국구 의석으로 보정하는 권역다층선거구제도(스웨덴, 핀란드, 포르투갈, 스페인) 등으로 나뉜다. 이러한 명부식 비례제는 기계적 효과나 제조된 과반 효과가 없고 비례성이 매우 높은 특징을 지닌다. 군소정당도 당선자를 배출할 수 있고 대표성도 향상된다. 원내 정당의 난립을 막기 위해 봉쇄조항(threshold, 3~5%의 정당득표율)을 두기도 한다.
    1분기 코로나 예방접종을 약 2000명에게 시행할 건 누구야 부산 동래구(구청장 김우룡)는 코로나19 예방접종의 차질 없는 추진을 통한 빠른 일상회복을 위해 코로나19 예방접종 계획을 마련하고, 이달 말 1분기 대상자 2000여명을 대상으로 ‘코로나19 예방접종’을 시작한다고 밝혔다. 코로나19 예방접종 추진기간은 인플루엔자 유행시기인 11월 이전까지로, 접종대상은 18세 이상 전 구민이며, 임신부 및 만 18세 미만 소아·청소년, 65세 이상 고령자는 임상시험 결과에 따라 추후 접종 여부 및 시기가 결정된다. 동래구는 △과학적 근거를 기반으로 안전하고 효과적인 접종 추진 △코로나19의 사망예방 및 지역 사회 전파 차단을 위하여 전 구민의 70%인 189천여 명을 목표로 예방접종을 추진할 계획이다 1분기 우선 접종대상자는 △요양병원·요양시설입원·입원자, 종사자 △고위험 의료기관종사자, 코로나 1차 대응요원 △정신요양·재활시설 등 입소자·종사자 등 2000여 명이며, 백신 배송 등 일정을 조율해 26일부터 병원은 자체접종, 시설은 보건소 방문팀·시설별 협약의료기관 또는 계약된 의사가 방문 접종할 계획이다. 단계별 예방접종 기관은 △7월 개소 예정인 예방접종센터(사직실내체육관) △위탁의료기관 △방문접종 △자체접종 △내소접종을 병행하며, 위탁의료기관 정보는 질병관리청 코로나19 백신 및 예방접종 홈페이지에서 확인할 수 있다. 또한 동래구는 지난 4일 코로나19 예방접종 추진단을 운영 중이며, 22일 민·관·군과 병협·의협·간협 및 민간 등으로 구성된 민-관 협력체계인 ‘동래구 코로나19 예방접종 지역협의체’를 발족하여 전 구민의 코로나19 예방접종의 차질 없는 추진을 위해 최선을 다하고 있다. 김우룡 동래구청장은 “코로나19 예방접종은 전 국민 대상의 대규모 사업으로 관의 철저하고 꼼꼼한 계획과 함께 주민과 유관기관의 협조가 반드시 필요하다”며 “안전하고 신속한 예방접종을 추진을 위해 최선을 다하겠다”고 말했다. 문재인 대통령과 김정숙 여사가 오는 23일 아스트라제네카의 코로나19 백신을 공개 접종한다. 또 일반인에 대한 백신 접종 시기가 빨라지고, 교사의 경우 2분기에 접종을 받는다. 강민석 청와대 대변인은 15일 브리핑에서 문 대통령 부부의 백신 접종 계획을 설명하면서 “오는 6월 영국 G7(주요 7개국) 정상회의 참석, 즉 필수목적 출국을 위한 것”이라며 “질병관리청의 예방 접종 절차에 따른 것”이라고 설명했다. 공무 등으로 해외 출장을 하는 공무원은 우선 접종 대상이다. 강 대변인은 “문 대통령이 우선 접종하는 것은 일각의 안정성, 효과성 논란을 불식시키고 솔선수범하겠다는 의미”라고 덧붙였다. 3분기 예정이었던 일반인들에 대한 접종 시기도 빨라져, 고령층에 대한 접종이 4월부터 시작된다. 15일 코로나19 예방접종 대응추진단에 따르면 2분기 코로나19 백신 예방접종은 △요양병원 및 요양시설 △코로나19 취약시설 입소자 및 종사자 △65세 이상 어르신 △학교 및 돌봄 공간 △만성질환자 △보건의료인과 사회필수인력 등 6개군을 대상으로 진행한다. 이에 따라 4월 첫 주부터 75세 이상 어르신 364만 명에 대한 접종이 예방접종센터에서 실시된다. 65세부터 74세까지의 494만여 명은 6월부터 위탁의료기관에서 접종이 이뤄질 예정이다. 학교 돌봄 공간도 2분기 접종 대상이다. 4월 중 특수교육과 장애아보육 5만 1000명, 유치원과 학교 내 보건교사와 어린이집의 간호인력 1만 3000명에 대한 접종이 이뤄진다. 6월에는 유치원과 어린이집, 초등학교 1‧2학년을 담당하는 교사, 교직원, 관련 종사자 49만 1000명이 단계별로 접종을 받는다. 노인‧장애인‧노숙인시설 등의 거주‧이용시설 접종도 2분기 중 진행할 예정이지만, 아직 정확한 시기는 미정이다. 한편 15일 0시 기준 부산의 코로나19 예방백신 접종자는 4만 5897명으로 우선 접종 대상자 6만 310명의 72.8%가 접종을 마쳤다. 근육통, 발열 등 이상 반응 사례는 모두 589건이다.
  • Loss: MultipleNegativesRankingLoss with these parameters:
    {
        "scale": 20.0,
        "similarity_fct": "cos_sim"
    }
    

Evaluation Dataset

Unnamed Dataset

  • Size: 10,000 evaluation samples
  • Columns: anchor, positive, and negative
  • Approximate statistics based on the first 1000 samples:
    anchor positive negative
    type string string string
    details
    • min: 9 tokens
    • mean: 22.86 tokens
    • max: 115 tokens
    • min: 20 tokens
    • mean: 351.34 tokens
    • max: 512 tokens
    • min: 93 tokens
    • mean: 346.69 tokens
    • max: 512 tokens
  • Samples:
    anchor positive negative
    릴레이로 이번주 TV와 라디오 방송 출연을 확정한게 누구야? ▲ 사진=롯데엔터테인먼트 제공 영화 완벽한 타인의 주역 유해진, 조진웅, 이서진, 염정아가 릴레이로 이번주 TV와 라디오 방송 출연을 확정했다. 완벽한 타인은 완벽해 보이는 커플 모임에서 한정된 시간 동안 핸드폰으로 오는 전화, 문자, 카톡을 강제로 공개해야 하는 게임 때문에 벌어지는 예측불허 이야기를 담은 작품이다. 완벽한 타인에서 완벽한 연기를 펼친 배우들은 이번 주 릴레이로 TV와 라디오 방송 출연을 확정하며 열일 행보를 펼친다. 먼저 오는 24일 오후 7시 MBC FM영화음악 한예리입니다에는 유해진과 염정아가 함께 출연한다. 간첩, 전우치에 이어 세 번째로 함께 호흡을 맞춘 두 사람은 이번 라디오 출연에서 영화에 대한 이야기를 나누며 걸출한 입담과 절친 케미스트리를 선보일 것으로 보인다. 이어 이번 영화로 처음 만나 절친이 된 유해진, 조진웅, 이서진이 25일 오후 11시 10분 KBS2 해피투게더4에 출연한다. 세끼 인연 유해진과 이서진, 그리고 조진웅의 예능감이 유감없이 발휘될 예정이다. 마지막으로 26일에는 MBC 배철수의 음악캠프에서 이서진을 만날 수 있다. 완벽한 타인에서 가장 파격적인 연기 변신을 선보인 그는 음악캠프 특별 DJ로 활약했던 인연으로 이번 출연이 성사됐다. 이서진은 거침없는 언변으로 영화 완벽한 타인의 현장 비하인드 스토리를 밝힐 예정이다. 한편 완벽한 타인은 오는 31일 개봉을 앞두고 있다. 그룹 세븐틴이 미국 간판 토크쇼 ‘엘렌 쇼’에 첫 출연을 확정 지었다. 세븐틴은 다음 달 1일(현지 시각) 방송되는 미국 토크쇼 ‘엘렌 드제너러스 쇼’(이하 엘렌 쇼)에 첫 출연을 확정 지어 전 세계 팬들의 폭발적인 반응을 얻었다. 이날 방송에서 세븐틴은 지난 2019년 8월 발매한 디지털 싱글 ‘HIT’ 무대를 선보인다. ‘HIT’는 제목처럼 타격감이 느껴지는 사운드와 세븐틴의 폭발적인 에너지가 그대로 전해지는 강렬한 EDM 장르의 댄스곡으로 발매와 동시에 국내는 물론 해외에서도 큰 사랑을 받았다. ‘엘렌 쇼’는 미국 유명 코미디언이자 작가, 배우 등 멀티 엔터테이너인 엘렌 드제너러스가 진행하는 토크쇼로 브루노 마스, 두아 리파, 존 레전드, 저스틴 비버 등 세계적인 팝스타들이 대거 출연해 화제를 모았으며 미국의 데이타임 쇼 중 높은 인기를 보유하고 있는 프로그램이다. 앞서 세븐틴은 지난 1월 방송된 미국 CBS ‘제임스 코든 쇼’와 NBC ‘켈리 클락슨 쇼’에 연달아 출연해 스페셜 앨범 타이틀곡 ‘HOME;RUN’과 미니 7집 타이틀곡 ‘Left & Right’의 무대를 선사, 막강한 글로벌 영향력을 확인 시켜 주며 전 세계 팬들과 해외 유수 매체의 호평 세례를 받았다. 이렇듯 세븐틴은 스토리텔링이 담긴 완성도 높은 무대와 세븐틴만이 할 수 있는 퍼포먼스를 선보여 ‘K팝 퍼포먼스 강자’라는 칭호를 얻는 등 전 세계를 열광시킨 바 있어 이번 ‘엘렌쇼’에서 어떤 무대를 선보일지 기대감이 치솟고 있다. 한편 세븐틴이 출연하는 미국 토크쇼 ‘엘렌 쇼’는 다음 달 1일(현지 시각)에 만나볼 수 있다.
    벡터맵 빈 분류 기반의 제안기법은 무엇에 비하여서 압출효율이 높다는 것을 표 4에서 알 수 있어?

    IV. 실험 결과

    제안한 빈 분류기반 벡터맵 압축 기법에 대한 성능 평가를 위한 실험을 수행하였다. 실험을 위해 그림 10 과 같이, ( 10 \mathrm{km} \times 10 \mathrm{km} ) 의 국부 영역을 갖는 벡터맵 레이어를 생성하였으며, 이 중 폴리곤으로 구성된 '건물' 레이어와 폴리라인으로 구성된 '일반도로’ 레이어에 대해 각각의 실험을 수행하였다. 또한 TM 좌표계에 의해 표현되는 실측치 ( 1 \mathrm{cm} ) 이내의 오차를 갖도록 식 (1)의 ( c=100 ) 으로 설정하여 정밀 벡터맵 압축에 대해 결과를 도출하였다. 또한 ( 10 \mathrm{km} \times 10 \mathrm{km} ) 영역에서 ( 1 \mathrm{cm} ) 정밀도를 갖는 벡터맵 데이터의 최적의 압축효율을 위해, 실험적으로 dist ( {D B}=10 \mathrm{~m} ) 및 dist ( { }{A B}=0.64 \mathrm{m} ) 로 결정하였다.

    제안 기법의 객관적 비교를 위해 일반적인 데이터 압축기법으로서 7-zib 알고리즘, 대표적인 벡터 간소화 알고리즘으로서 Douglas-Peucker 알고리즘[16] 및 기존의 공간 에너지집중 기반에서의 압축 알고리즘등과 압축 결과를 비교하였다. 표 4 에 각각의 알고리즘 에 대한 압축 결과를 나타내었다.

    표 4 의 결과로부터 벡터맵의 특성을 고려하지 않은 7-Zip과 비교하였을 때, 각 좌표점들의 오차범위로 ( 0.01 \mathrm{m} ) 미만을 갖는 벡터맵 빈 분류 기반의 제안 기법이 월등히 높은 압축효율을 가짐을 확인하였다. 한편, 벡터 간소화 기법을 사용하는 Douglas-Peucker 알고리즘과 제안 알고리즘은 압축원리가 상이하므로 RMSE(root mean square error) 등의 방법을 통한 직접적인 비교는 어렵다. 또한 제안 기법과의 비교를 위해 Douglas-Peucker 알고리즘의 정밀도 범위 ( \epsilon=0.01 \mathrm{m} ) 로 설정하게 되면, 각 좌표점들의 간소화 조건이 대부분 만족하지 않으므로 실제 간소화를 통한 압축은 거의 이루어지지 않는다. 따라서 그림 10의 벡터맵 레이어에서 시각적으로 용인할 수 있을 것으로 간주되는 적정 임계치 ( \epsilon=1 \mathrm{m} ) 로 설정하여 압축을 수행하였다. 표 4의 실험 결과는 이때의 압축 결과를 나타낸 것이다. 그림 11은 벡터맵을 확대하였을 때, 표 4 의 압축 효율에 대해 제안 알고리즘과 Douglas-Peucker 알고리즘의 시각적 오차를 비교한 것이다.

    표 4와 그림 11로부터 제안 기법이 Duglas-Peucker 알고리즘보다 월등히 적은 시각적 오차를 가짐에도 불구하고 보다 높은 압축효율을 나타냄을 확인할 수 있다. 더욱이, 표 4에서 Duglas-Peucker 알고리즘의 특성상 연속한 좌표점들이 급격히 꺽히는 오브젝트들의 집합인 '건물' 레이어에서 압축효율의 저하가 발생한다. 반면. 제안 기법은 Duglas-Peucker 알고리즘에서와 같은 압축효율의 저하는 발생하지 않음을 확인하였다. 공간영역에서의 에너지 집중(SEC)을 이용한 기존방법과의 비교에서 역시 제안 알고리즘이 보다 우수한 압축 효율을 가짐을 알 수 있었다. 또한 에너지 집중 이후 실질적 데이터 압축을 위한 엔트로피 코딩으로써 zlib 또는 7-zip 알고리즘을 이용하는 기존 기법과는 달리, 제안 기법은 압축 과정의 일부로써 정의된 단순한 허프만 테이블을 참조하므로 계산 복잡도에서 큰 이점을 얻을 수 있다.

    VI. 결 론

    본 논문에서는 집적 영상을 효율적으로 압축하기 위한 3D-DCT 기반의 압축 방법을 제안하였다. 제안한 방법은 집적 영상이 촬영 물체나 촬영 방법에 따라 다양한 특성을 가지는 특성을 바탕으로, 적응적으로 3D-DCT 블록을 구성하는 방법과 각 3D-DCT 블록별로 가변 블록 크기 3D-DCT를 수행하는 방법이다. 제안 방법은 영상 특성에 따라 최적의 3D-DCT를 수행하기 때문에 기존의 방법보다 뛰어난 성능을 보여준다. 제안 방법은 기존의 3D-DCT 방법과 비교해서 각 영상별로 동일 비트량에서 약 ( 1 \mathrm{dB} )에서 ( 2 \mathrm{dB} )의 PSNR 향상 효과를 보여주었다.

    본 논문에서 제안된 방법은 여러 가지 블록 모드를 정의하고 그 중 최적의 모드를 선택하는 과정을 수행하므로 이에 따른 계산량의 증가를 초래한다. 블록 모드의 개수가 증가할수록 계산량의 그 개수에 정비례하여 증가하므로 이의 개선을 위한 연구가 추가적으로 필요하다. 또한 보다 효율적인 오버헤드 비트 부호화를 통해 추가적인 압축 효율 향상을 기대할 수 있다.

    대면하지 않고 진료에서 약 배달까지 해주는 처방솔루션은 뭐야 비대면 진료 서비스에 기반한 브랜드 페어(pare)는 올해 초부터 비대면 진료와 처방을 모바일로 쉽고 빠르게 받을 수 있게 하고, 처방받은 약은 집까지 배송해 주는 서비스를 국내 환자와 재외국민들을 위해 시작했다. 페어는 의사의 처방을 통해서만 구매가 가능한 의사의 솔루션을 페어만의 브랜드 감성을 깃들여 환자에게 노출한다. 이는 기존의 처방약이라는 고질적인 부분을 소비자 감성 브랜드로 승화해 환자와 소비자의 벽을 허무는 국내 최초의 전문처방 솔루션 비즈니스 모델이다. 또한, 플랫폼 내 처방이 필요하지 않은 일반 건강기능식품을 통한 사후관리 서비스도 제공한다. 강신욱 대표는 “페어만의 브랜드 감성과 의사들의 전문성이 실린 솔루션을 집까지 배송해 주는 게 특징”이라며 “처방약뿐만 아니라 진료에 따른 맞춤형 건강관리제품을 추천 혹은 패키지로 받아 볼 수 있는 국내 최초 비대면 진료 기반의 커머스형 처방솔루션”이라고 강조했다. 국민 의약품 구입 불편 해소 방안 관련 의약품 재분류 논의 시작
    국가별 의약품 분류체계
    분류국명처방약(처방필수)비처방약비고
    2분류한국- 전문의약품- 일반의약품의약외품은 판매장소 제한 없음
    일본- 의료용의약품(E): 의사의 처방에 의해서만 조제·판매- 일반용의약품(OTC) : 약국 외에서도 제한적으로 판매
    미국- 처방의약품(Rx): 연방법에 의해 처방전 없이 조제하는 것을 금한다는 표시가 있음 - 비처방의약품(OTC): 약국 및 약국 외에서 자유롭게 판매
    ※ 제산제, 비타민, 치질, 해열진통제 등
    일반약 전체, 또는 일부 약국외 판매 허용
    3분류영국- 처방약(POM): 의사의 처방에 의해서만 조제·판매- 약국약(P) : 처방없이 약국에서 판매 가능
    - 자유판매품목(GSL): 약국 외에서도 판매 가능
    ※ 어린이용 아스피린, 구충제, 관장약 등 제외
    독일- 처방약(Rp): 처방전이 필요하며 약국을 통해서만 판매 - 약국약(Ap): 처방을 요하지 않고 약국에서 판매가능
    - 자유판매품목(F):약국 외에서도 판매가능
    ※ 민간치료약초, 저함량비타민·미네랄 등
    4분류프랑스- 처방약 list Ⅰ: 의사의 처방을 필요로 하며 처방자의 허가 없이 반복 사용할 수 없고, 약사는 판매상황을 기록
    - 처방약 list Ⅱ: 환자의 요청이 있을 때 2달까지 처방전을 반복 사용
    - 특별처방약Stupefiants : 의사는 일련번호가 붙은 양식에 의해 처방하며 약사는 판매상황을 기록
    - 비처방약 (대중광고 가능) : 대중광로를 하는 약으로 사회 건강보험대상에서 제외 의약품 약국 외 판매 불허
    캐나다- 처방약 (P) : 처방에 의해서 약국에서만 판매- 약사약 (BTC) : 처방없이 약국에서 약사만이 판매할 수 있음
    - 약국진열약 (OTC) : 약국에서 자유롭게 진열하여 판매할 수 있는 약으로서, 대중광고 허용
    - 자유판매약(OTP) : 약국 이외에서도 판매되는 약
    스위스- 처방약 list Ⅰ : 약품 명단을 법률로 정하며, 처방전 반복사용 금지
    - 처방약 list Ⅱ : 약사의 반복 처방 가능
    - 비처방약 list Ⅲ (약국약), list Ⅳ (약종상약), list Ⅴ (자유판매약
    )- list Ⅳ 와 list Ⅴ는 대중광고 허용
  • Loss: MultipleNegativesRankingLoss with these parameters:
    {
        "scale": 20.0,
        "similarity_fct": "cos_sim"
    }
    

Training Hyperparameters

Non-Default Hyperparameters

  • eval_strategy: steps
  • per_device_train_batch_size: 16
  • per_device_eval_batch_size: 16
  • learning_rate: 5e-06
  • max_grad_norm: 5.0
  • num_train_epochs: 10
  • warmup_steps: 500
  • dataloader_drop_last: True

All Hyperparameters

Click to expand
  • overwrite_output_dir: False
  • do_predict: False
  • eval_strategy: steps
  • prediction_loss_only: True
  • per_device_train_batch_size: 16
  • per_device_eval_batch_size: 16
  • per_gpu_train_batch_size: None
  • per_gpu_eval_batch_size: None
  • gradient_accumulation_steps: 1
  • eval_accumulation_steps: None
  • torch_empty_cache_steps: None
  • learning_rate: 5e-06
  • weight_decay: 0.0
  • adam_beta1: 0.9
  • adam_beta2: 0.999
  • adam_epsilon: 1e-08
  • max_grad_norm: 5.0
  • num_train_epochs: 10
  • max_steps: -1
  • lr_scheduler_type: linear
  • lr_scheduler_kwargs: {}
  • warmup_ratio: 0.0
  • warmup_steps: 500
  • log_level: passive
  • log_level_replica: warning
  • log_on_each_node: True
  • logging_nan_inf_filter: True
  • save_safetensors: True
  • save_on_each_node: False
  • save_only_model: False
  • restore_callback_states_from_checkpoint: False
  • no_cuda: False
  • use_cpu: False
  • use_mps_device: False
  • seed: 42
  • data_seed: None
  • jit_mode_eval: False
  • use_ipex: False
  • bf16: False
  • fp16: False
  • fp16_opt_level: O1
  • half_precision_backend: auto
  • bf16_full_eval: False
  • fp16_full_eval: False
  • tf32: None
  • local_rank: 0
  • ddp_backend: None
  • tpu_num_cores: None
  • tpu_metrics_debug: False
  • debug: []
  • dataloader_drop_last: True
  • dataloader_num_workers: 0
  • dataloader_prefetch_factor: None
  • past_index: -1
  • disable_tqdm: False
  • remove_unused_columns: True
  • label_names: None
  • load_best_model_at_end: False
  • ignore_data_skip: False
  • fsdp: []
  • fsdp_min_num_params: 0
  • fsdp_config: {'min_num_params': 0, 'xla': False, 'xla_fsdp_v2': False, 'xla_fsdp_grad_ckpt': False}
  • fsdp_transformer_layer_cls_to_wrap: None
  • accelerator_config: {'split_batches': False, 'dispatch_batches': None, 'even_batches': True, 'use_seedable_sampler': True, 'non_blocking': False, 'gradient_accumulation_kwargs': None}
  • deepspeed: None
  • label_smoothing_factor: 0.0
  • optim: adamw_torch
  • optim_args: None
  • adafactor: False
  • group_by_length: False
  • length_column_name: length
  • ddp_find_unused_parameters: None
  • ddp_bucket_cap_mb: None
  • ddp_broadcast_buffers: False
  • dataloader_pin_memory: True
  • dataloader_persistent_workers: False
  • skip_memory_metrics: True
  • use_legacy_prediction_loop: False
  • push_to_hub: False
  • resume_from_checkpoint: None
  • hub_model_id: None
  • hub_strategy: every_save
  • hub_private_repo: False
  • hub_always_push: False
  • gradient_checkpointing: False
  • gradient_checkpointing_kwargs: None
  • include_inputs_for_metrics: False
  • eval_do_concat_batches: True
  • fp16_backend: auto
  • push_to_hub_model_id: None
  • push_to_hub_organization: None
  • mp_parameters:
  • auto_find_batch_size: False
  • full_determinism: False
  • torchdynamo: None
  • ray_scope: last
  • ddp_timeout: 1800
  • torch_compile: False
  • torch_compile_backend: None
  • torch_compile_mode: None
  • dispatch_batches: None
  • split_batches: None
  • include_tokens_per_second: False
  • include_num_input_tokens_seen: False
  • neftune_noise_alpha: None
  • optim_target_modules: None
  • batch_eval_metrics: False
  • eval_on_start: False
  • eval_use_gather_object: False
  • batch_sampler: batch_sampler
  • multi_dataset_batch_sampler: proportional

Training Logs

Click to expand
Epoch Step Training Loss loss eval_max_accuracy
0 0 - - 0.8097
0.0003 1 1.179 - -
0.0005 2 1.0733 - -
0.0008 3 0.9841 - -
0.0011 4 1.0739 - -
0.0014 5 1.2194 - -
0.0016 6 1.1582 - -
0.0019 7 0.9616 - -
0.0022 8 1.0596 - -
0.0024 9 0.9503 - -
0.0027 10 1.031 - -
0.0030 11 1.1054 - -
0.0032 12 1.0184 - -
0.0035 13 0.8953 - -
0.0038 14 1.2405 - -
0.0041 15 1.0238 - -
0.0043 16 0.9845 - -
0.0046 17 1.0546 - -
0.0049 18 1.0675 - -
0.0051 19 0.9762 - -
0.0054 20 0.7939 - -
0.0057 21 1.0777 - -
0.0060 22 1.0382 - -
0.0062 23 1.0807 - -
0.0065 24 1.1184 - -
0.0068 25 0.881 - -
0.0070 26 1.1134 - -
0.0073 27 1.0594 - -
0.0076 28 0.7923 - -
0.0078 29 0.947 - -
0.0081 30 0.9587 - -
0.0084 31 0.8561 - -
0.0087 32 0.9037 - -
0.0089 33 0.9165 - -
0.0092 34 1.1332 - -
0.0095 35 0.9526 - -
0.0097 36 0.9094 - -
0.0100 37 0.8902 - -
0.0103 38 0.9149 - -
0.0106 39 0.8626 - -
0.0108 40 1.0476 - -
0.0111 41 1.1116 - -
0.0114 42 0.9363 - -
0.0116 43 1.1492 - -
0.0119 44 0.88 - -
0.0122 45 0.8953 - -
0.0124 46 0.9056 - -
0.0127 47 0.8712 - -
0.0130 48 0.8783 - -
0.0133 49 0.8998 - -
0.0135 50 0.9089 - -
0.0138 51 0.9943 - -
0.0141 52 0.7594 - -
0.0143 53 1.0239 - -
0.0146 54 0.8189 - -
0.0149 55 0.8898 - -
0.0152 56 0.7309 - -
0.0154 57 0.7656 - -
0.0157 58 0.8408 - -
0.0160 59 0.9071 - -
0.0162 60 0.8157 - -
0.0165 61 0.8421 - -
0.0168 62 0.9124 - -
0.0170 63 0.8379 - -
0.0173 64 0.8278 - -
0.0176 65 0.8997 - -
0.0179 66 0.7988 - -
0.0181 67 0.8498 - -
0.0184 68 0.8588 - -
0.0187 69 0.8846 - -
0.0189 70 0.8923 - -
0.0192 71 0.7344 - -
0.0195 72 0.7002 - -
0.0198 73 0.8444 - -
0.0200 74 0.8148 - -
0.0203 75 0.7002 - -
0.0206 76 0.8735 - -
0.0208 77 0.8718 - -
0.0211 78 0.672 - -
0.0214 79 0.6914 - -
0.0216 80 0.7521 - -
0.0219 81 0.8297 - -
0.0222 82 0.774 - -
0.0225 83 0.977 - -
0.0227 84 0.736 - -
0.0230 85 0.778 - -
0.0233 86 0.9048 - -
0.0235 87 0.8656 - -
0.0238 88 0.8066 - -
0.0241 89 0.6944 - -
0.0244 90 0.7122 - -
0.0246 91 0.8266 - -
0.0249 92 0.7199 - -
0.0252 93 0.7296 - -
0.0254 94 0.9107 - -
0.0257 95 0.7637 - -
0.0260 96 0.6374 - -
0.0262 97 0.6547 - -
0.0265 98 0.6328 - -
0.0268 99 0.6648 - -
0.0271 100 0.7403 - -
0.0273 101 0.6864 - -
0.0276 102 0.6947 - -
0.0279 103 0.6662 - -
0.0281 104 0.657 - -
0.0284 105 0.663 - -
0.0287 106 0.5928 - -
0.0290 107 0.8488 - -
0.0292 108 0.5981 - -
0.0295 109 0.7565 - -
0.0298 110 0.6583 - -
0.0300 111 0.8198 - -
0.0303 112 0.7473 - -
0.0306 113 0.6791 - -
0.0308 114 0.5024 - -
0.0311 115 0.6391 - -
0.0314 116 0.7007 - -
0.0317 117 0.6424 - -
0.0319 118 0.508 - -
0.0322 119 0.6518 - -
0.0325 120 0.7681 - -
0.0327 121 0.7549 - -
0.0330 122 0.7161 - -
0.0333 123 0.575 - -
0.0335 124 0.7983 - -
0.0338 125 0.6369 - -
0.0341 126 0.5207 - -
0.0344 127 0.7792 - -
0.0346 128 0.5507 - -
0.0349 129 0.5769 - -
0.0352 130 0.7462 - -
0.0354 131 0.7728 - -
0.0357 132 0.5582 - -
0.0360 133 0.6999 - -
0.0363 134 0.7194 - -
0.0365 135 0.7125 - -
0.0368 136 0.6527 - -
0.0371 137 0.6318 - -
0.0373 138 0.5249 - -
0.0376 139 0.6114 - -
0.0379 140 0.577 - -
0.0381 141 0.6302 - -
0.0384 142 0.65 - -
0.0387 143 0.5753 - -
0.0390 144 0.5812 - -
0.0392 145 0.5641 - -
0.0395 146 0.6745 - -
0.0398 147 0.5224 - -
0.0400 148 0.6954 - -
0.0403 149 0.7016 - -
0.0406 150 0.4932 - -
0.0409 151 0.587 - -
0.0411 152 0.573 - -
0.0414 153 0.6685 - -
0.0417 154 0.6023 - -
0.0419 155 0.5884 - -
0.0422 156 0.4895 - -
0.0425 157 0.7572 - -
0.0427 158 0.6522 - -
0.0430 159 0.6946 - -
0.0433 160 0.6449 - -
0.0436 161 0.6483 - -
0.0438 162 0.6022 - -
0.0441 163 0.5624 - -
0.0444 164 0.6458 - -
0.0446 165 0.5737 - -
0.0449 166 0.6261 - -
0.0452 167 0.5635 - -
0.0455 168 0.4913 - -
0.0457 169 0.6958 - -
0.0460 170 0.592 - -
0.0463 171 0.4624 - -
0.0465 172 0.565 - -
0.0468 173 0.5542 - -
0.0471 174 0.6587 - -
0.0473 175 0.4727 - -
0.0476 176 0.6049 - -
0.0479 177 0.7385 - -
0.0482 178 0.5175 - -
0.0484 179 0.5711 - -
0.0487 180 0.4591 - -
0.0490 181 0.7063 - -
0.0492 182 0.4954 - -
0.0495 183 0.6444 - -
0.0498 184 0.6686 - -
0.0501 185 0.5229 - -
0.0503 186 0.4338 - -
0.0506 187 0.5582 - -
0.0509 188 0.5881 - -
0.0511 189 0.5609 - -
0.0514 190 0.6607 - -
0.0517 191 0.491 - -
0.0519 192 0.4687 - -
0.0522 193 0.5842 - -
0.0525 194 0.5544 - -
0.0528 195 0.5778 - -
0.0530 196 0.5591 - -
0.0533 197 0.5872 - -
0.0536 198 0.5807 - -
0.0538 199 0.593 - -
0.0541 200 0.4658 - -
0.0544 201 0.4649 - -
0.0547 202 0.4912 - -
0.0549 203 0.5475 - -
0.0552 204 0.5182 - -
0.0555 205 0.5281 - -
0.0557 206 0.6302 - -
0.0560 207 0.6346 - -
0.0563 208 0.5309 - -
0.0565 209 0.5499 - -
0.0568 210 0.5368 - -
0.0571 211 0.4647 - -
0.0574 212 0.5316 - -
0.0576 213 0.5165 - -
0.0579 214 0.6294 - -
0.0582 215 0.4526 - -
0.0584 216 0.5157 - -
0.0587 217 0.6337 - -
0.0590 218 0.4911 - -
0.0593 219 0.5696 - -
0.0595 220 0.4651 - -
0.0598 221 0.6098 - -
0.0601 222 0.6329 - -
0.0603 223 0.7011 - -
0.0606 224 0.4582 - -
0.0609 225 0.6332 - -
0.0611 226 0.5138 - -
0.0614 227 0.6474 - -
0.0617 228 0.5059 - -
0.0620 229 0.3617 - -
0.0622 230 0.4401 - -
0.0625 231 0.5159 - -
0.0628 232 0.6072 - -
0.0630 233 0.5079 - -
0.0633 234 0.3517 - -
0.0636 235 0.5604 - -
0.0639 236 0.4834 - -
0.0641 237 0.5719 - -
0.0644 238 0.4928 - -
0.0647 239 0.4558 - -
0.0649 240 0.4483 - -
0.0652 241 0.5027 - -
0.0655 242 0.4534 - -
0.0657 243 0.6228 - -
0.0660 244 0.653 - -
0.0663 245 0.4585 - -
0.0666 246 0.6514 - -
0.0668 247 0.6069 - -
0.0671 248 0.5267 - -
0.0674 249 0.4457 - -
0.0676 250 0.4966 - -
0.0679 251 0.5595 - -
0.0682 252 0.4991 - -
0.0685 253 0.5233 - -
0.0687 254 0.5883 - -
0.0690 255 0.4411 - -
0.0693 256 0.5102 - -
0.0695 257 0.5198 - -
0.0698 258 0.4086 - -
0.0701 259 0.4336 - -
0.0703 260 0.6177 - -
0.0706 261 0.5753 - -
0.0709 262 0.6234 - -
0.0712 263 0.5582 - -
0.0714 264 0.4451 - -
0.0717 265 0.5145 - -
0.0720 266 0.5908 - -
0.0722 267 0.3929 - -
0.0725 268 0.5009 - -
0.0728 269 0.3671 - -
0.0731 270 0.5866 - -
0.0733 271 0.6914 - -
0.0736 272 0.4779 - -
0.0739 273 0.5303 - -
0.0741 274 0.4294 - -
0.0744 275 0.61 - -
0.0747 276 0.5529 - -
0.0749 277 0.5498 - -
0.0752 278 0.4736 - -
0.0755 279 0.3907 - -
0.0758 280 0.4271 - -
0.0760 281 0.5772 - -
0.0763 282 0.5232 - -
0.0766 283 0.4786 - -
0.0768 284 0.5621 - -
0.0771 285 0.4747 - -
0.0774 286 0.4695 - -
0.0777 287 0.4926 - -
0.0779 288 0.5339 - -
0.0782 289 0.5043 - -
0.0785 290 0.3665 - -
0.0787 291 0.5777 - -
0.0790 292 0.5081 - -
0.0793 293 0.5744 - -
0.0795 294 0.4446 - -
0.0798 295 0.415 - -
0.0801 296 0.4013 - -
0.0804 297 0.4938 - -
0.0806 298 0.5096 - -
0.0809 299 0.5261 - -
0.0812 300 0.3339 - -
0.0814 301 0.7123 - -
0.0817 302 0.4387 - -
0.0820 303 0.4273 - -
0.0823 304 0.411 - -
0.0825 305 0.4667 - -
0.0828 306 0.4651 - -
0.0831 307 0.4916 - -
0.0833 308 0.6379 - -
0.0836 309 0.4339 - -
0.0839 310 0.4866 - -
0.0841 311 0.5155 - -
0.0844 312 0.4192 - -
0.0847 313 0.6039 - -
0.0850 314 0.4657 - -
0.0852 315 0.6355 - -
0.0855 316 0.4975 - -
0.0858 317 0.3445 - -
0.0860 318 0.3741 - -
0.0863 319 0.3988 - -
0.0866 320 0.5121 - -
0.0869 321 0.5441 - -
0.0871 322 0.6115 - -
0.0874 323 0.4559 - -
0.0877 324 0.4158 - -
0.0879 325 0.416 - -
0.0882 326 0.4739 - -
0.0885 327 0.6097 - -
0.0887 328 0.5983 - -
0.0890 329 0.5816 - -
0.0893 330 0.4715 - -
0.0896 331 0.3944 - -
0.0898 332 0.5422 - -
0.0901 333 0.5825 - -
0.0904 334 0.4453 - -
0.0906 335 0.4771 - -
0.0909 336 0.3799 - -
0.0912 337 0.3578 - -
0.0915 338 0.5269 - -
0.0917 339 0.5412 - -
0.0920 340 0.4387 - -
0.0923 341 0.4648 - -
0.0925 342 0.4264 - -
0.0928 343 0.3917 - -
0.0931 344 0.6398 - -
0.0933 345 0.3961 - -
0.0936 346 0.6527 - -
0.0939 347 0.4453 - -
0.0942 348 0.5411 - -
0.0944 349 0.5758 - -
0.0947 350 0.4062 - -
0.0950 351 0.5969 - -
0.0952 352 0.4315 - -
0.0955 353 0.5792 - -
0.0958 354 0.4573 - -
0.0960 355 0.5059 - -
0.0963 356 0.4784 - -
0.0966 357 0.4753 - -
0.0969 358 0.4547 - -
0.0971 359 0.4185 - -
0.0974 360 0.4964 - -
0.0977 361 0.4534 - -
0.0979 362 0.4609 - -
0.0982 363 0.441 - -
0.0985 364 0.4798 - -
0.0988 365 0.4776 - -
0.0990 366 0.4324 - -
0.0993 367 0.5355 - -
0.0996 368 0.3569 - -
0.0998 369 0.4697 - -
0.1001 370 0.4129 - -
0.1004 371 0.4395 - -
0.1006 372 0.4686 - -
0.1009 373 0.4133 - -
0.1012 374 0.4187 - -
0.1015 375 0.5296 - -
0.1017 376 0.4378 - -
0.1020 377 0.486 - -
0.1023 378 0.4715 - -
0.1025 379 0.401 - -
0.1028 380 0.3678 - -
0.1031 381 0.5143 - -
0.1034 382 0.5067 - -
0.1036 383 0.577 - -
0.1039 384 0.4762 - -
0.1042 385 0.5171 - -
0.1044 386 0.483 - -
0.1047 387 0.5319 - -
0.1050 388 0.5519 - -
0.1052 389 0.5023 - -
0.1055 390 0.4167 - -
0.1058 391 0.3797 - -
0.1061 392 0.5427 - -
0.1063 393 0.4857 - -
0.1066 394 0.4877 - -
0.1069 395 0.5607 - -
0.1071 396 0.3526 - -
0.1074 397 0.5034 - -
0.1077 398 0.465 - -
0.1080 399 0.4822 - -
0.1082 400 0.5667 - -
0.1085 401 0.5567 - -
0.1088 402 0.3982 - -
0.1090 403 0.5272 - -
0.1093 404 0.3676 - -
0.1096 405 0.4855 - -
0.1098 406 0.4727 - -
0.1101 407 0.4626 - -
0.1104 408 0.6116 - -
0.1107 409 0.3989 - -
0.1109 410 0.4759 - -
0.1112 411 0.3473 - -
0.1115 412 0.7002 - -
0.1117 413 0.3014 - -
0.1120 414 0.4251 - -
0.1123 415 0.4073 - -
0.1126 416 0.5373 - -
0.1128 417 0.5064 - -
0.1131 418 0.4443 - -
0.1134 419 0.4599 - -
0.1136 420 0.3585 - -
0.1139 421 0.4235 - -
0.1142 422 0.3939 - -
0.1144 423 0.5599 - -
0.1147 424 0.3272 - -
0.1150 425 0.3047 - -
0.1153 426 0.3835 - -
0.1155 427 0.3745 - -
0.1158 428 0.5126 - -
0.1161 429 0.4097 - -
0.1163 430 0.4314 - -
0.1166 431 0.5439 - -
0.1169 432 0.4467 - -
0.1172 433 0.4583 - -
0.1174 434 0.434 - -
0.1177 435 0.4183 - -
0.1180 436 0.5685 - -
0.1182 437 0.4235 - -
0.1185 438 0.4815 - -
0.1188 439 0.3793 - -
0.1190 440 0.3617 - -
0.1193 441 0.4938 - -
0.1196 442 0.4725 - -
0.1199 443 0.5827 - -
0.1201 444 0.3295 - -
0.1204 445 0.6002 - -
0.1207 446 0.3134 - -
0.1209 447 0.5644 - -
0.1212 448 0.3111 - -
0.1215 449 0.3892 - -
0.1218 450 0.3114 - -
0.1220 451 0.4343 - -
0.1223 452 0.4723 - -
0.1226 453 0.361 - -
0.1228 454 0.4077 - -
0.1231 455 0.4314 - -
0.1234 456 0.5096 - -
0.1236 457 0.3706 - -
0.1239 458 0.4507 - -
0.1242 459 0.4502 - -
0.1245 460 0.2918 - -
0.1247 461 0.5069 - -
0.125 462 0.4151 - -
0.1253 463 0.4682 - -
0.1255 464 0.3999 - -
0.1258 465 0.4764 - -
0.1261 466 0.4207 - -
0.1264 467 0.3923 - -
0.1266 468 0.3791 - -
0.1269 469 0.2914 - -
0.1272 470 0.3546 - -
0.1274 471 0.3632 - -
0.1277 472 0.3634 - -
0.1280 473 0.3898 - -
0.1282 474 0.3788 - -
0.1285 475 0.4937 - -
0.1288 476 0.3428 - -
0.1291 477 0.4589 - -
0.1293 478 0.4068 - -
0.1296 479 0.4065 - -
0.1299 480 0.3577 - -
0.1301 481 0.4345 - -
0.1304 482 0.4767 - -
0.1307 483 0.4697 - -
0.1310 484 0.4634 - -
0.1312 485 0.4374 - -
0.1315 486 0.5893 - -
0.1318 487 0.5903 - -
0.1320 488 0.3559 - -
0.1323 489 0.376 - -
0.1326 490 0.407 - -
0.1328 491 0.4807 - -
0.1331 492 0.4908 - -
0.1334 493 0.3917 - -
0.1337 494 0.3708 - -
0.1339 495 0.4199 - -
0.1342 496 0.4543 - -
0.1345 497 0.4159 - -
0.1347 498 0.4284 - -
0.1350 499 0.4836 - -
0.1353 500 0.5708 - -
0.1356 501 0.4684 - -
0.1358 502 0.4828 - -
0.1361 503 0.4267 - -
0.1364 504 0.3401 - -
0.1366 505 0.5218 - -
0.1369 506 0.4788 - -
0.1372 507 0.3658 - -
0.1374 508 0.3734 - -
0.1377 509 0.4097 - -
0.1380 510 0.3513 - -
0.1383 511 0.5054 - -
0.1385 512 0.3979 - -
0.1388 513 0.3675 - -
0.1391 514 0.3482 - -
0.1393 515 0.3552 - -
0.1396 516 0.3551 - -
0.1399 517 0.577 - -
0.1402 518 0.3992 - -
0.1404 519 0.4821 - -
0.1407 520 0.4765 - -
0.1410 521 0.3338 - -
0.1412 522 0.3712 - -
0.1415 523 0.4199 - -
0.1418 524 0.3382 - -
0.1420 525 0.5084 - -
0.1423 526 0.4912 - -
0.1426 527 0.4092 - -
0.1429 528 0.3429 - -
0.1431 529 0.3489 - -
0.1434 530 0.4979 - -
0.1437 531 0.3097 - -
0.1439 532 0.2743 - -
0.1442 533 0.3807 - -
0.1445 534 0.4363 - -
0.1448 535 0.3778 - -
0.1450 536 0.3534 - -
0.1453 537 0.4803 - -
0.1456 538 0.371 - -
0.1458 539 0.3576 - -
0.1461 540 0.4149 - -
0.1464 541 0.3288 - -
0.1466 542 0.5136 - -
0.1469 543 0.3446 - -
0.1472 544 0.4103 - -
0.1475 545 0.3375 - -
0.1477 546 0.5033 - -
0.1480 547 0.5561 - -
0.1483 548 0.3516 - -
0.1485 549 0.4674 - -
0.1488 550 0.4571 - -
0.1491 551 0.4782 - -
0.1494 552 0.4695 - -
0.1496 553 0.4307 - -
0.1499 554 0.4111 - -
0.1502 555 0.4575 - -
0.1504 556 0.4811 - -
0.1507 557 0.446 - -
0.1510 558 0.3233 - -
0.1512 559 0.3366 - -
0.1515 560 0.4584 - -
0.1518 561 0.3391 - -
0.1521 562 0.3949 - -
0.1523 563 0.4194 - -
0.1526 564 0.3506 - -
0.1529 565 0.4667 - -
0.1531 566 0.3708 - -
0.1534 567 0.3828 - -
0.1537 568 0.3823 - -
0.1540 569 0.4827 - -
0.1542 570 0.4167 - -
0.1545 571 0.3055 - -
0.1548 572 0.3797 - -
0.1550 573 0.3658 - -
0.1553 574 0.3399 - -
0.1556 575 0.3609 - -
0.1558 576 0.4068 - -
0.1561 577 0.4045 - -
0.1564 578 0.4415 - -
0.1567 579 0.4102 - -
0.1569 580 0.3578 - -
0.1572 581 0.2902 - -
0.1575 582 0.4447 - -
0.1577 583 0.3582 - -
0.1580 584 0.5064 - -
0.1583 585 0.6035 - -
0.1585 586 0.476 - -
0.1588 587 0.4533 - -
0.1591 588 0.3254 - -
0.1594 589 0.4245 - -
0.1596 590 0.3461 - -
0.1599 591 0.3651 - -
0.1602 592 0.4255 - -
0.1604 593 0.3545 - -
0.1607 594 0.2814 - -
0.1610 595 0.4902 - -
0.1613 596 0.3797 - -
0.1615 597 0.3915 - -
0.1618 598 0.3741 - -
0.1621 599 0.4349 - -
0.1623 600 0.4441 - -
0.1626 601 0.3932 - -
0.1629 602 0.3309 - -
0.1631 603 0.3346 - -
0.1634 604 0.3294 - -
0.1637 605 0.3267 - -
0.1640 606 0.23 - -
0.1642 607 0.4179 - -
0.1645 608 0.5072 - -
0.1648 609 0.404 - -
0.1650 610 0.3117 - -
0.1653 611 0.4566 - -
0.1656 612 0.477 - -
0.1659 613 0.4869 - -
0.1661 614 0.3917 - -
0.1664 615 0.3363 - -
0.1667 616 0.3831 - -
0.1669 617 0.4683 - -
0.1672 618 0.5428 - -
0.1675 619 0.372 - -
0.1677 620 0.3986 - -
0.1680 621 0.3343 - -
0.1683 622 0.4598 - -
0.1686 623 0.5001 - -
0.1688 624 0.4636 - -
0.1691 625 0.3864 - -
0.1694 626 0.3046 - -
0.1696 627 0.4236 - -
0.1699 628 0.2618 - -
0.1702 629 0.3836 - -
0.1705 630 0.3888 - -
0.1707 631 0.3397 - -
0.1710 632 0.3818 - -
0.1713 633 0.5019 - -
0.1715 634 0.3487 - -
0.1718 635 0.4416 - -
0.1721 636 0.3781 - -
0.1723 637 0.335 - -
0.1726 638 0.4464 - -
0.1729 639 0.442 - -
0.1732 640 0.3562 - -
0.1734 641 0.5615 - -
0.1737 642 0.3968 - -
0.1740 643 0.4254 - -
0.1742 644 0.3324 - -
0.1745 645 0.3475 - -
0.1748 646 0.3493 - -
0.1751 647 0.312 - -
0.1753 648 0.4798 - -
0.1756 649 0.3866 - -
0.1759 650 0.3165 - -
0.1761 651 0.3656 - -
0.1764 652 0.3335 - -
0.1767 653 0.4072 - -
0.1769 654 0.3952 - -
0.1772 655 0.3044 - -
0.1775 656 0.3295 - -
0.1778 657 0.5671 - -
0.1780 658 0.4012 - -
0.1783 659 0.3263 - -
0.1786 660 0.3351 - -
0.1788 661 0.3712 - -
0.1791 662 0.5386 - -
0.1794 663 0.4418 - -
0.1797 664 0.4058 - -
0.1799 665 0.3879 - -
0.1802 666 0.4332 - -
0.1805 667 0.4194 - -
0.1807 668 0.439 - -
0.1810 669 0.2701 - -
0.1813 670 0.2866 - -
0.1815 671 0.3157 - -
0.1818 672 0.3567 - -
0.1821 673 0.4435 - -
0.1824 674 0.3794 - -
0.1826 675 0.4044 - -
0.1829 676 0.2416 - -
0.1832 677 0.3851 - -
0.1834 678 0.3509 - -
0.1837 679 0.4402 - -
0.1840 680 0.4473 - -
0.1843 681 0.2757 - -
0.1845 682 0.2898 - -
0.1848 683 0.3547 - -
0.1851 684 0.4422 - -
0.1853 685 0.4154 - -
0.1856 686 0.3428 - -
0.1859 687 0.4308 - -
0.1861 688 0.3496 - -
0.1864 689 0.392 - -
0.1867 690 0.327 - -
0.1870 691 0.312 - -
0.1872 692 0.411 - -
0.1875 693 0.4342 - -
0.1878 694 0.3153 - -
0.1880 695 0.3987 - -
0.1883 696 0.2914 - -
0.1886 697 0.457 - -
0.1889 698 0.3247 - -
0.1891 699 0.4077 - -
0.1894 700 0.4483 - -
0.1897 701 0.3482 - -
0.1899 702 0.2505 - -
0.1902 703 0.3339 - -
0.1905 704 0.3919 - -
0.1907 705 0.3753 - -
0.1910 706 0.3812 - -
0.1913 707 0.3383 - -
0.1916 708 0.3303 - -
0.1918 709 0.3329 - -
0.1921 710 0.393 - -
0.1924 711 0.481 - -
0.1926 712 0.2871 - -
0.1929 713 0.284 - -
0.1932 714 0.4505 - -
0.1935 715 0.5099 - -
0.1937 716 0.4139 - -
0.1940 717 0.4806 - -
0.1943 718 0.3671 - -
0.1945 719 0.3767 - -
0.1948 720 0.3012 - -
0.1951 721 0.4281 - -
0.1953 722 0.3874 - -
0.1956 723 0.4483 - -
0.1959 724 0.3826 - -
0.1962 725 0.3191 - -
0.1964 726 0.2822 - -
0.1967 727 0.3294 - -
0.1970 728 0.3397 - -
0.1972 729 0.2751 - -
0.1975 730 0.446 - -
0.1978 731 0.3335 - -
0.1981 732 0.4961 - -
0.1983 733 0.7003 - -
0.1986 734 0.2998 - -
0.1989 735 0.4445 - -
0.1991 736 0.2437 - -
0.1994 737 0.3158 - -
0.1997 738 0.5616 - -
0.1999 739 0.4047 - -
0.2002 740 0.3447 - -
0.2005 741 0.3425 - -
0.2008 742 0.4514 - -
0.2010 743 0.439 - -
0.2013 744 0.4779 - -
0.2016 745 0.4259 - -
0.2018 746 0.438 - -
0.2021 747 0.515 - -
0.2024 748 0.3163 - -
0.2027 749 0.4198 - -
0.2029 750 0.3959 - -
0.2032 751 0.2549 - -
0.2035 752 0.4149 - -
0.2037 753 0.3564 - -
0.2040 754 0.3112 - -
0.2043 755 0.3141 - -
0.2045 756 0.4157 - -
0.2048 757 0.4643 - -
0.2051 758 0.3212 - -
0.2054 759 0.4046 - -
0.2056 760 0.538 - -
0.2059 761 0.4378 - -
0.2062 762 0.3041 - -
0.2064 763 0.3931 - -
0.2067 764 0.3217 - -
0.2070 765 0.2577 - -
0.2073 766 0.3941 - -
0.2075 767 0.5436 - -
0.2078 768 0.4075 - -
0.2081 769 0.3665 - -
0.2083 770 0.5189 - -
0.2086 771 0.3648 - -
0.2089 772 0.2695 - -
0.2091 773 0.3241 - -
0.2094 774 0.3511 - -
0.2097 775 0.3022 - -
0.2100 776 0.2947 - -
0.2102 777 0.4598 - -
0.2105 778 0.4121 - -
0.2108 779 0.309 - -
0.2110 780 0.3563 - -
0.2113 781 0.5174 - -
0.2116 782 0.366 - -
0.2119 783 0.3779 - -
0.2121 784 0.4078 - -
0.2124 785 0.3317 - -
0.2127 786 0.4269 - -
0.2129 787 0.3311 - -
0.2132 788 0.3335 - -
0.2135 789 0.269 - -
0.2137 790 0.3487 - -
0.2140 791 0.3457 - -
0.2143 792 0.3431 - -
0.2146 793 0.3441 - -
0.2148 794 0.2875 - -
0.2151 795 0.364 - -
0.2154 796 0.4348 - -
0.2156 797 0.3488 - -
0.2159 798 0.2742 - -
0.2162 799 0.4424 - -
0.2165 800 0.3975 - -
0.2167 801 0.4244 - -
0.2170 802 0.385 - -
0.2173 803 0.3402 - -
0.2175 804 0.3547 - -
0.2178 805 0.455 - -
0.2181 806 0.5426 - -
0.2183 807 0.4007 - -
0.2186 808 0.3376 - -
0.2189 809 0.3058 - -
0.2192 810 0.412 - -
0.2194 811 0.3868 - -
0.2197 812 0.3712 - -
0.2200 813 0.3184 - -
0.2202 814 0.304 - -
0.2205 815 0.4657 - -
0.2208 816 0.2557 - -
0.2210 817 0.3727 - -
0.2213 818 0.3147 - -
0.2216 819 0.3845 - -
0.2219 820 0.32 - -
0.2221 821 0.3003 - -
0.2224 822 0.4375 - -
0.2227 823 0.3704 - -
0.2229 824 0.4824 - -
0.2232 825 0.3775 - -
0.2235 826 0.4419 - -
0.2238 827 0.4566 - -
0.2240 828 0.3946 - -
0.2243 829 0.2748 - -
0.2246 830 0.3602 - -
0.2248 831 0.3373 - -
0.2251 832 0.4505 - -
0.2254 833 0.3683 - -
0.2256 834 0.4232 - -
0.2259 835 0.3398 - -
0.2262 836 0.3074 - -
0.2265 837 0.3726 - -
0.2267 838 0.2982 - -
0.2270 839 0.3812 - -
0.2273 840 0.3428 - -
0.2275 841 0.3911 - -
0.2278 842 0.2767 - -
0.2281 843 0.4704 - -
0.2284 844 0.4487 - -
0.2286 845 0.3709 - -
0.2289 846 0.4194 - -
0.2292 847 0.4367 - -
0.2294 848 0.2981 - -
0.2297 849 0.3883 - -
0.2300 850 0.4104 - -
0.2302 851 0.4059 - -
0.2305 852 0.3729 - -
0.2308 853 0.3828 - -
0.2311 854 0.3498 - -
0.2313 855 0.2595 - -
0.2316 856 0.3407 - -
0.2319 857 0.3798 - -
0.2321 858 0.445 - -
0.2324 859 0.3066 - -
0.2327 860 0.3882 - -
0.2330 861 0.457 - -
0.2332 862 0.2386 - -
0.2335 863 0.3183 - -
0.2338 864 0.2541 - -
0.2340 865 0.3393 - -
0.2343 866 0.3825 - -
0.2346 867 0.3886 - -
0.2348 868 0.3326 - -
0.2351 869 0.2589 - -
0.2354 870 0.3049 - -
0.2357 871 0.2513 - -
0.2359 872 0.286 - -
0.2362 873 0.477 - -
0.2365 874 0.452 - -
0.2367 875 0.3864 - -
0.2370 876 0.2677 - -
0.2373 877 0.2811 - -
0.2376 878 0.4972 - -
0.2378 879 0.3793 - -
0.2381 880 0.4091 - -
0.2384 881 0.4446 - -
0.2386 882 0.3355 - -
0.2389 883 0.2959 - -
0.2392 884 0.4378 - -
0.2394 885 0.5828 - -
0.2397 886 0.343 - -
0.2400 887 0.4026 - -
0.2403 888 0.4142 - -
0.2405 889 0.3471 - -
0.2408 890 0.4129 - -
0.2411 891 0.3108 - -
0.2413 892 0.2943 - -
0.2416 893 0.3831 - -
0.2419 894 0.3444 - -
0.2422 895 0.2944 - -
0.2424 896 0.444 - -
0.2427 897 0.4253 - -
0.2430 898 0.3068 - -
0.2432 899 0.2753 - -
0.2435 900 0.2619 - -
0.2438 901 0.4103 - -
0.2440 902 0.2468 - -
0.2443 903 0.46 - -
0.2446 904 0.4689 - -
0.2449 905 0.3259 - -
0.2451 906 0.46 - -
0.2454 907 0.3254 - -
0.2457 908 0.4582 - -
0.2459 909 0.2537 - -
0.2462 910 0.2723 - -
0.2465 911 0.4031 - -
0.2468 912 0.4395 - -
0.2470 913 0.3691 - -
0.2473 914 0.3314 - -
0.2476 915 0.3831 - -
0.2478 916 0.3194 - -
0.2481 917 0.3103 - -
0.2484 918 0.3532 - -
0.2486 919 0.3574 - -
0.2489 920 0.3837 - -
0.2492 921 0.2775 - -
0.2495 922 0.413 - -
0.2497 923 0.3153 - -
0.25 924 0.294 - -
0.2503 925 0.2577 - -
0.2505 926 0.4223 - -
0.2508 927 0.3239 - -
0.2511 928 0.4217 - -
0.2514 929 0.3509 - -
0.2516 930 0.313 - -
0.2519 931 0.3246 - -
0.2522 932 0.4282 - -
0.2524 933 0.3892 - -
0.2527 934 0.3826 - -
0.2530 935 0.3192 - -
0.2532 936 0.2984 - -
0.2535 937 0.3143 - -
0.2538 938 0.2451 - -
0.2541 939 0.2108 - -
0.2543 940 0.4843 - -
0.2546 941 0.4296 - -
0.2549 942 0.3882 - -
0.2551 943 0.3971 - -
0.2554 944 0.3021 - -
0.2557 945 0.3535 - -
0.2560 946 0.4501 - -
0.2562 947 0.3274 - -
0.2565 948 0.427 - -
0.2568 949 0.3689 - -
0.2570 950 0.2856 - -
0.2573 951 0.4162 - -
0.2576 952 0.298 - -
0.2578 953 0.2986 - -
0.2581 954 0.2839 - -
0.2584 955 0.3835 - -
0.2587 956 0.334 - -
0.2589 957 0.3741 - -
0.2592 958 0.329 - -
0.2595 959 0.4423 - -
0.2597 960 0.4031 - -
0.2600 961 0.4467 - -
0.2603 962 0.4164 - -
0.2606 963 0.4399 - -
0.2608 964 0.3872 - -
0.2611 965 0.3178 - -
0.2614 966 0.3842 - -
0.2616 967 0.3568 - -
0.2619 968 0.377 - -
0.2622 969 0.3886 - -
0.2624 970 0.4274 - -
0.2627 971 0.3356 - -
0.2630 972 0.352 - -
0.2633 973 0.3758 - -
0.2635 974 0.3294 - -
0.2638 975 0.429 - -
0.2641 976 0.2898 - -
0.2643 977 0.2611 - -
0.2646 978 0.3543 - -
0.2649 979 0.2723 - -
0.2652 980 0.3567 - -
0.2654 981 0.3958 - -
0.2657 982 0.3535 - -
0.2660 983 0.2934 - -
0.2662 984 0.4271 - -
0.2665 985 0.2764 - -
0.2668 986 0.4142 - -
0.2670 987 0.3972 - -
0.2673 988 0.4253 - -
0.2676 989 0.2593 - -
0.2679 990 0.4194 - -
0.2681 991 0.3026 - -
0.2684 992 0.2887 - -
0.2687 993 0.3461 - -
0.2689 994 0.3619 - -
0.2692 995 0.3621 - -
0.2695 996 0.3187 - -
0.2698 997 0.3614 - -
0.2700 998 0.2672 - -
0.2703 999 0.375 - -
0.2706 1000 0.285 0.3131 0.919
0.2708 1001 0.265 - -
0.2711 1002 0.333 - -
0.2714 1003 0.402 - -
0.2716 1004 0.3103 - -
0.2719 1005 0.3531 - -
0.2722 1006 0.4888 - -
0.2725 1007 0.3325 - -
0.2727 1008 0.338 - -
0.2730 1009 0.2637 - -
0.2733 1010 0.3157 - -
0.2735 1011 0.3101 - -
0.2738 1012 0.3077 - -
0.2741 1013 0.2603 - -
0.2744 1014 0.3019 - -
0.2746 1015 0.3775 - -
0.2749 1016 0.4358 - -
0.2752 1017 0.2512 - -
0.2754 1018 0.3666 - -
0.2757 1019 0.3002 - -
0.2760 1020 0.2567 - -
0.2762 1021 0.3584 - -
0.2765 1022 0.2386 - -
0.2768 1023 0.3902 - -
0.2771 1024 0.2398 - -
0.2773 1025 0.2573 - -
0.2776 1026 0.2819 - -
0.2779 1027 0.3095 - -
0.2781 1028 0.2504 - -
0.2784 1029 0.3288 - -
0.2787 1030 0.4287 - -
0.2790 1031 0.3384 - -
0.2792 1032 0.3599 - -
0.2795 1033 0.3052 - -
0.2798 1034 0.3415 - -
0.2800 1035 0.343 - -
0.2803 1036 0.4511 - -
0.2806 1037 0.3303 - -
0.2808 1038 0.3797 - -
0.2811 1039 0.3592 - -
0.2814 1040 0.3932 - -
0.2817 1041 0.3272 - -
0.2819 1042 0.3413 - -
0.2822 1043 0.3899 - -
0.2825 1044 0.3189 - -
0.2827 1045 0.3665 - -
0.2830 1046 0.2467 - -
0.2833 1047 0.2936 - -
0.2835 1048 0.3552 - -
0.2838 1049 0.3169 - -
0.2841 1050 0.3157 - -
0.2844 1051 0.3577 - -
0.2846 1052 0.3009 - -
0.2849 1053 0.2991 - -
0.2852 1054 0.4104 - -
0.2854 1055 0.2816 - -
0.2857 1056 0.2779 - -
0.2860 1057 0.4574 - -
0.2863 1058 0.3233 - -
0.2865 1059 0.3666 - -
0.2868 1060 0.2423 - -
0.2871 1061 0.4268 - -
0.2873 1062 0.3156 - -
0.2876 1063 0.353 - -
0.2879 1064 0.3159 - -
0.2881 1065 0.2713 - -
0.2884 1066 0.3764 - -
0.2887 1067 0.33 - -
0.2890 1068 0.4578 - -
0.2892 1069 0.2696 - -
0.2895 1070 0.5282 - -
0.2898 1071 0.2719 - -
0.2900 1072 0.2023 - -
0.2903 1073 0.3608 - -
0.2906 1074 0.3293 - -
0.2909 1075 0.4331 - -
0.2911 1076 0.4126 - -
0.2914 1077 0.3154 - -
0.2917 1078 0.5337 - -
0.2919 1079 0.339 - -
0.2922 1080 0.3462 - -
0.2925 1081 0.3614 - -
0.2927 1082 0.3874 - -
0.2930 1083 0.3068 - -
0.2933 1084 0.2818 - -
0.2936 1085 0.3615 - -
0.2938 1086 0.2457 - -
0.2941 1087 0.4074 - -
0.2944 1088 0.3051 - -
0.2946 1089 0.3238 - -
0.2949 1090 0.3575 - -
0.2952 1091 0.3145 - -
0.2955 1092 0.2649 - -
0.2957 1093 0.3485 - -
0.2960 1094 0.2949 - -
0.2963 1095 0.4315 - -
0.2965 1096 0.3595 - -
0.2968 1097 0.3465 - -
0.2971 1098 0.3012 - -
0.2973 1099 0.2986 - -
0.2976 1100 0.3918 - -
0.2979 1101 0.3563 - -
0.2982 1102 0.2181 - -
0.2984 1103 0.3051 - -
0.2987 1104 0.3222 - -
0.2990 1105 0.4502 - -
0.2992 1106 0.2323 - -
0.2995 1107 0.4678 - -
0.2998 1108 0.3744 - -
0.3001 1109 0.3787 - -
0.3003 1110 0.4103 - -
0.3006 1111 0.3141 - -
0.3009 1112 0.2865 - -
0.3011 1113 0.3028 - -
0.3014 1114 0.3659 - -
0.3017 1115 0.3952 - -
0.3019 1116 0.5973 - -
0.3022 1117 0.2921 - -
0.3025 1118 0.2741 - -
0.3028 1119 0.313 - -
0.3030 1120 0.2989 - -
0.3033 1121 0.3466 - -
0.3036 1122 0.3237 - -
0.3038 1123 0.4059 - -
0.3041 1124 0.2759 - -
0.3044 1125 0.3335 - -
0.3047 1126 0.2879 - -
0.3049 1127 0.4204 - -
0.3052 1128 0.4009 - -
0.3055 1129 0.31 - -
0.3057 1130 0.4255 - -
0.3060 1131 0.3863 - -
0.3063 1132 0.3819 - -
0.3065 1133 0.3316 - -
0.3068 1134 0.3721 - -
0.3071 1135 0.4282 - -
0.3074 1136 0.5464 - -
0.3076 1137 0.2696 - -
0.3079 1138 0.315 - -
0.3082 1139 0.3263 - -
0.3084 1140 0.3488 - -
0.3087 1141 0.3922 - -
0.3090 1142 0.3279 - -
0.3093 1143 0.2185 - -
0.3095 1144 0.2331 - -
0.3098 1145 0.2982 - -
0.3101 1146 0.291 - -
0.3103 1147 0.3611 - -
0.3106 1148 0.3028 - -
0.3109 1149 0.3954 - -
0.3111 1150 0.3638 - -
0.3114 1151 0.332 - -
0.3117 1152 0.2228 - -
0.3120 1153 0.3048 - -
0.3122 1154 0.2789 - -
0.3125 1155 0.2997 - -
0.3128 1156 0.3662 - -
0.3130 1157 0.3456 - -
0.3133 1158 0.2927 - -
0.3136 1159 0.3326 - -
0.3139 1160 0.27 - -
0.3141 1161 0.2756 - -
0.3144 1162 0.3869 - -
0.3147 1163 0.3463 - -
0.3149 1164 0.3361 - -
0.3152 1165 0.3088 - -
0.3155 1166 0.3052 - -
0.3157 1167 0.2964 - -
0.3160 1168 0.2978 - -
0.3163 1169 0.3723 - -
0.3166 1170 0.2526 - -
0.3168 1171 0.3881 - -
0.3171 1172 0.281 - -
0.3174 1173 0.2978 - -
0.3176 1174 0.3354 - -
0.3179 1175 0.2581 - -
0.3182 1176 0.3478 - -
0.3185 1177 0.3815 - -
0.3187 1178 0.3078 - -
0.3190 1179 0.2828 - -
0.3193 1180 0.3003 - -
0.3195 1181 0.3345 - -
0.3198 1182 0.4192 - -
0.3201 1183 0.3246 - -
0.3203 1184 0.3861 - -
0.3206 1185 0.3267 - -
0.3209 1186 0.4421 - -
0.3212 1187 0.3226 - -
0.3214 1188 0.3563 - -
0.3217 1189 0.3717 - -
0.3220 1190 0.34 - -
0.3222 1191 0.3757 - -
0.3225 1192 0.3114 - -
0.3228 1193 0.5106 - -
0.3231 1194 0.2707 - -
0.3233 1195 0.3091 - -
0.3236 1196 0.4106 - -
0.3239 1197 0.215 - -
0.3241 1198 0.3182 - -
0.3244 1199 0.3747 - -
0.3247 1200 0.3645 - -
0.3249 1201 0.3587 - -
0.3252 1202 0.3672 - -
0.3255 1203 0.3229 - -
0.3258 1204 0.4058 - -
0.3260 1205 0.2357 - -
0.3263 1206 0.3266 - -
0.3266 1207 0.3868 - -
0.3268 1208 0.3269 - -
0.3271 1209 0.3507 - -
0.3274 1210 0.277 - -
0.3277 1211 0.2645 - -
0.3279 1212 0.3119 - -
0.3282 1213 0.3348 - -
0.3285 1214 0.3285 - -
0.3287 1215 0.358 - -
0.3290 1216 0.386 - -
0.3293 1217 0.1993 - -
0.3295 1218 0.4288 - -
0.3298 1219 0.334 - -
0.3301 1220 0.3295 - -
0.3304 1221 0.3733 - -
0.3306 1222 0.4579 - -
0.3309 1223 0.3301 - -
0.3312 1224 0.3008 - -
0.3314 1225 0.3629 - -
0.3317 1226 0.3995 - -
0.3320 1227 0.2547 - -
0.3323 1228 0.2691 - -
0.3325 1229 0.2456 - -
0.3328 1230 0.2411 - -
0.3331 1231 0.2555 - -
0.3333 1232 0.3296 - -
0.3336 1233 0.3376 - -
0.3339 1234 0.366 - -
0.3341 1235 0.3086 - -
0.3344 1236 0.5035 - -
0.3347 1237 0.347 - -
0.3350 1238 0.3955 - -
0.3352 1239 0.301 - -
0.3355 1240 0.2736 - -
0.3358 1241 0.3868 - -
0.3360 1242 0.2665 - -
0.3363 1243 0.4783 - -
0.3366 1244 0.3868 - -
0.3369 1245 0.3709 - -
0.3371 1246 0.3816 - -
0.3374 1247 0.4771 - -
0.3377 1248 0.3187 - -
0.3379 1249 0.3167 - -
0.3382 1250 0.3947 - -
0.3385 1251 0.3201 - -
0.3387 1252 0.3417 - -
0.3390 1253 0.2906 - -
0.3393 1254 0.3593 - -
0.3396 1255 0.3965 - -
0.3398 1256 0.3212 - -
0.3401 1257 0.4542 - -
0.3404 1258 0.3274 - -
0.3406 1259 0.3206 - -
0.3409 1260 0.278 - -
0.3412 1261 0.3844 - -
0.3415 1262 0.1857 - -
0.3417 1263 0.2245 - -
0.3420 1264 0.2125 - -
0.3423 1265 0.2782 - -
0.3425 1266 0.3194 - -
0.3428 1267 0.3262 - -
0.3431 1268 0.4295 - -
0.3433 1269 0.2837 - -
0.3436 1270 0.2221 - -
0.3439 1271 0.255 - -
0.3442 1272 0.1959 - -
0.3444 1273 0.3568 - -
0.3447 1274 0.3716 - -
0.3450 1275 0.437 - -
0.3452 1276 0.5078 - -
0.3455 1277 0.2689 - -
0.3458 1278 0.3653 - -
0.3460 1279 0.3522 - -
0.3463 1280 0.2809 - -
0.3466 1281 0.3302 - -
0.3469 1282 0.3689 - -
0.3471 1283 0.3597 - -
0.3474 1284 0.2672 - -
0.3477 1285 0.2679 - -
0.3479 1286 0.2393 - -
0.3482 1287 0.3753 - -
0.3485 1288 0.3876 - -
0.3488 1289 0.2384 - -
0.3490 1290 0.411 - -
0.3493 1291 0.3 - -
0.3496 1292 0.2367 - -
0.3498 1293 0.3404 - -
0.3501 1294 0.2742 - -
0.3504 1295 0.436 - -
0.3506 1296 0.2488 - -
0.3509 1297 0.2625 - -
0.3512 1298 0.2607 - -
0.3515 1299 0.2273 - -
0.3517 1300 0.3105 - -
0.3520 1301 0.4418 - -
0.3523 1302 0.3452 - -
0.3525 1303 0.4404 - -
0.3528 1304 0.3159 - -
0.3531 1305 0.2851 - -
0.3534 1306 0.3366 - -
0.3536 1307 0.3255 - -
0.3539 1308 0.4102 - -
0.3542 1309 0.356 - -
0.3544 1310 0.2882 - -
0.3547 1311 0.3868 - -
0.3550 1312 0.2843 - -
0.3552 1313 0.3056 - -
0.3555 1314 0.3019 - -
0.3558 1315 0.3629 - -
0.3561 1316 0.3249 - -
0.3563 1317 0.3416 - -
0.3566 1318 0.3334 - -
0.3569 1319 0.3192 - -
0.3571 1320 0.2987 - -
0.3574 1321 0.4592 - -
0.3577 1322 0.3347 - -
0.3580 1323 0.3225 - -
0.3582 1324 0.2893 - -
0.3585 1325 0.2756 - -
0.3588 1326 0.3101 - -
0.3590 1327 0.3585 - -
0.3593 1328 0.3718 - -
0.3596 1329 0.3739 - -
0.3598 1330 0.3745 - -
0.3601 1331 0.3092 - -
0.3604 1332 0.3439 - -
0.3607 1333 0.4166 - -
0.3609 1334 0.2473 - -
0.3612 1335 0.4276 - -
0.3615 1336 0.3324 - -
0.3617 1337 0.316 - -
0.3620 1338 0.2866 - -
0.3623 1339 0.3335 - -
0.3626 1340 0.4195 - -
0.3628 1341 0.404 - -
0.3631 1342 0.2932 - -
0.3634 1343 0.2803 - -
0.3636 1344 0.3479 - -
0.3639 1345 0.3089 - -
0.3642 1346 0.2704 - -
0.3644 1347 0.2594 - -
0.3647 1348 0.3865 - -
0.3650 1349 0.3355 - -
0.3653 1350 0.2783 - -
0.3655 1351 0.3247 - -
0.3658 1352 0.2388 - -
0.3661 1353 0.2224 - -
0.3663 1354 0.3406 - -
0.3666 1355 0.287 - -
0.3669 1356 0.2588 - -
0.3672 1357 0.3212 - -
0.3674 1358 0.2848 - -
0.3677 1359 0.3124 - -
0.3680 1360 0.3249 - -
0.3682 1361 0.4642 - -
0.3685 1362 0.2873 - -
0.3688 1363 0.3088 - -
0.3690 1364 0.383 - -
0.3693 1365 0.3172 - -
0.3696 1366 0.2822 - -
0.3699 1367 0.2768 - -
0.3701 1368 0.3302 - -
0.3704 1369 0.343 - -
0.3707 1370 0.3196 - -
0.3709 1371 0.4174 - -
0.3712 1372 0.3112 - -
0.3715 1373 0.2883 - -
0.3718 1374 0.3163 - -
0.3720 1375 0.2534 - -
0.3723 1376 0.3306 - -
0.3726 1377 0.2289 - -
0.3728 1378 0.3455 - -
0.3731 1379 0.3523 - -
0.3734 1380 0.2652 - -
0.3736 1381 0.2843 - -
0.3739 1382 0.3417 - -
0.3742 1383 0.2493 - -
0.3745 1384 0.282 - -
0.3747 1385 0.3151 - -
0.375 1386 0.3309 - -
0.3753 1387 0.2056 - -
0.3755 1388 0.2501 - -
0.3758 1389 0.3405 - -
0.3761 1390 0.3507 - -
0.3764 1391 0.383 - -
0.3766 1392 0.4098 - -
0.3769 1393 0.3126 - -
0.3772 1394 0.2638 - -
0.3774 1395 0.3513 - -
0.3777 1396 0.365 - -
0.3780 1397 0.3619 - -
0.3782 1398 0.1893 - -
0.3785 1399 0.3793 - -
0.3788 1400 0.2953 - -
0.3791 1401 0.3451 - -
0.3793 1402 0.3182 - -
0.3796 1403 0.3521 - -
0.3799 1404 0.2786 - -
0.3801 1405 0.3593 - -
0.3804 1406 0.4103 - -
0.3807 1407 0.3579 - -
0.3810 1408 0.2547 - -
0.3812 1409 0.302 - -
0.3815 1410 0.3491 - -
0.3818 1411 0.2671 - -
0.3820 1412 0.4096 - -
0.3823 1413 0.2638 - -
0.3826 1414 0.1952 - -
0.3828 1415 0.3076 - -
0.3831 1416 0.3095 - -
0.3834 1417 0.3543 - -
0.3837 1418 0.32 - -
0.3839 1419 0.397 - -
0.3842 1420 0.3316 - -
0.3845 1421 0.2896 - -
0.3847 1422 0.2966 - -
0.3850 1423 0.3271 - -
0.3853 1424 0.3092 - -
0.3856 1425 0.3537 - -
0.3858 1426 0.2749 - -
0.3861 1427 0.3039 - -
0.3864 1428 0.2842 - -
0.3866 1429 0.3159 - -
0.3869 1430 0.3417 - -
0.3872 1431 0.3592 - -
0.3874 1432 0.3783 - -
0.3877 1433 0.3196 - -
0.3880 1434 0.3329 - -
0.3883 1435 0.2715 - -
0.3885 1436 0.2283 - -
0.3888 1437 0.2476 - -
0.3891 1438 0.2958 - -
0.3893 1439 0.2213 - -
0.3896 1440 0.4275 - -
0.3899 1441 0.3019 - -
0.3902 1442 0.4343 - -
0.3904 1443 0.297 - -
0.3907 1444 0.2655 - -
0.3910 1445 0.2607 - -
0.3912 1446 0.3763 - -
0.3915 1447 0.308 - -
0.3918 1448 0.3473 - -
0.3920 1449 0.3174 - -
0.3923 1450 0.3241 - -
0.3926 1451 0.3568 - -
0.3929 1452 0.3041 - -
0.3931 1453 0.327 - -
0.3934 1454 0.4484 - -
0.3937 1455 0.3508 - -
0.3939 1456 0.3127 - -
0.3942 1457 0.2704 - -
0.3945 1458 0.4142 - -
0.3948 1459 0.2167 - -
0.3950 1460 0.3136 - -
0.3953 1461 0.293 - -
0.3956 1462 0.2908 - -
0.3958 1463 0.2915 - -
0.3961 1464 0.2654 - -
0.3964 1465 0.3292 - -
0.3966 1466 0.275 - -
0.3969 1467 0.3244 - -
0.3972 1468 0.3071 - -
0.3975 1469 0.3341 - -
0.3977 1470 0.352 - -
0.3980 1471 0.3116 - -
0.3983 1472 0.3123 - -
0.3985 1473 0.3793 - -
0.3988 1474 0.3694 - -
0.3991 1475 0.3258 - -
0.3994 1476 0.3305 - -
0.3996 1477 0.3727 - -
0.3999 1478 0.4845 - -
0.4002 1479 0.2735 - -
0.4004 1480 0.3541 - -
0.4007 1481 0.3674 - -
0.4010 1482 0.3042 - -
0.4012 1483 0.4306 - -
0.4015 1484 0.3802 - -
0.4018 1485 0.3054 - -
0.4021 1486 0.3294 - -
0.4023 1487 0.3278 - -
0.4026 1488 0.2426 - -
0.4029 1489 0.3134 - -
0.4031 1490 0.265 - -
0.4034 1491 0.3262 - -
0.4037 1492 0.2115 - -
0.4040 1493 0.3547 - -
0.4042 1494 0.3465 - -
0.4045 1495 0.2602 - -
0.4048 1496 0.3083 - -
0.4050 1497 0.3452 - -
0.4053 1498 0.3119 - -
0.4056 1499 0.3158 - -
0.4058 1500 0.292 - -
0.4061 1501 0.3093 - -
0.4064 1502 0.3745 - -
0.4067 1503 0.3562 - -
0.4069 1504 0.4018 - -
0.4072 1505 0.3412 - -
0.4075 1506 0.2803 - -
0.4077 1507 0.261 - -
0.4080 1508 0.2679 - -
0.4083 1509 0.233 - -
0.4085 1510 0.3224 - -
0.4088 1511 0.2553 - -
0.4091 1512 0.3856 - -
0.4094 1513 0.2882 - -
0.4096 1514 0.2913 - -
0.4099 1515 0.3757 - -
0.4102 1516 0.3336 - -
0.4104 1517 0.3614 - -
0.4107 1518 0.406 - -
0.4110 1519 0.3836 - -
0.4113 1520 0.3144 - -
0.4115 1521 0.3723 - -
0.4118 1522 0.309 - -
0.4121 1523 0.2913 - -
0.4123 1524 0.2922 - -
0.4126 1525 0.3637 - -
0.4129 1526 0.3487 - -
0.4131 1527 0.2622 - -
0.4134 1528 0.371 - -
0.4137 1529 0.3331 - -
0.4140 1530 0.3036 - -
0.4142 1531 0.365 - -
0.4145 1532 0.2434 - -
0.4148 1533 0.4295 - -
0.4150 1534 0.2469 - -
0.4153 1535 0.2763 - -
0.4156 1536 0.2392 - -
0.4159 1537 0.3442 - -
0.4161 1538 0.2683 - -
0.4164 1539 0.3165 - -
0.4167 1540 0.3609 - -
0.4169 1541 0.2749 - -
0.4172 1542 0.3656 - -
0.4175 1543 0.2939 - -
0.4177 1544 0.3216 - -
0.4180 1545 0.2391 - -
0.4183 1546 0.3019 - -
0.4186 1547 0.4169 - -
0.4188 1548 0.2874 - -
0.4191 1549 0.2899 - -
0.4194 1550 0.2812 - -
0.4196 1551 0.3413 - -
0.4199 1552 0.377 - -
0.4202 1553 0.2849 - -
0.4205 1554 0.2043 - -
0.4207 1555 0.3214 - -
0.4210 1556 0.2212 - -
0.4213 1557 0.4131 - -
0.4215 1558 0.4091 - -
0.4218 1559 0.2656 - -
0.4221 1560 0.4024 - -
0.4223 1561 0.4297 - -
0.4226 1562 0.3183 - -
0.4229 1563 0.284 - -
0.4232 1564 0.3087 - -
0.4234 1565 0.2911 - -
0.4237 1566 0.2488 - -
0.4240 1567 0.2784 - -
0.4242 1568 0.3067 - -
0.4245 1569 0.3701 - -
0.4248 1570 0.2763 - -
0.4251 1571 0.2709 - -
0.4253 1572 0.2955 - -
0.4256 1573 0.3634 - -
0.4259 1574 0.2968 - -
0.4261 1575 0.3411 - -
0.4264 1576 0.2878 - -
0.4267 1577 0.3299 - -
0.4269 1578 0.3076 - -
0.4272 1579 0.4037 - -
0.4275 1580 0.3145 - -
0.4278 1581 0.3472 - -
0.4280 1582 0.4746 - -
0.4283 1583 0.4133 - -
0.4286 1584 0.3383 - -
0.4288 1585 0.26 - -
0.4291 1586 0.2576 - -
0.4294 1587 0.2791 - -
0.4297 1588 0.2906 - -
0.4299 1589 0.314 - -
0.4302 1590 0.256 - -
0.4305 1591 0.3558 - -
0.4307 1592 0.3444 - -
0.4310 1593 0.3114 - -
0.4313 1594 0.3009 - -
0.4315 1595 0.2396 - -
0.4318 1596 0.2593 - -
0.4321 1597 0.3174 - -
0.4324 1598 0.2845 - -
0.4326 1599 0.3513 - -
0.4329 1600 0.2477 - -
0.4332 1601 0.3278 - -
0.4334 1602 0.2826 - -
0.4337 1603 0.2822 - -
0.4340 1604 0.2642 - -
0.4343 1605 0.2216 - -
0.4345 1606 0.3094 - -
0.4348 1607 0.2974 - -
0.4351 1608 0.2376 - -
0.4353 1609 0.311 - -
0.4356 1610 0.3213 - -
0.4359 1611 0.4042 - -
0.4361 1612 0.2256 - -
0.4364 1613 0.5054 - -
0.4367 1614 0.2997 - -
0.4370 1615 0.2637 - -
0.4372 1616 0.3322 - -
0.4375 1617 0.3703 - -
0.4378 1618 0.3901 - -
0.4380 1619 0.2318 - -
0.4383 1620 0.2835 - -
0.4386 1621 0.2978 - -
0.4389 1622 0.3346 - -
0.4391 1623 0.3628 - -
0.4394 1624 0.2674 - -
0.4397 1625 0.3236 - -
0.4399 1626 0.278 - -
0.4402 1627 0.3334 - -
0.4405 1628 0.2963 - -
0.4407 1629 0.3749 - -
0.4410 1630 0.2343 - -
0.4413 1631 0.2022 - -
0.4416 1632 0.2903 - -
0.4418 1633 0.2514 - -
0.4421 1634 0.3484 - -
0.4424 1635 0.275 - -
0.4426 1636 0.3407 - -
0.4429 1637 0.3139 - -
0.4432 1638 0.3343 - -
0.4435 1639 0.3925 - -
0.4437 1640 0.1999 - -
0.4440 1641 0.3318 - -
0.4443 1642 0.3439 - -
0.4445 1643 0.3689 - -
0.4448 1644 0.4289 - -
0.4451 1645 0.3181 - -
0.4453 1646 0.3545 - -
0.4456 1647 0.3583 - -
0.4459 1648 0.3065 - -
0.4462 1649 0.3479 - -
0.4464 1650 0.3788 - -
0.4467 1651 0.2848 - -
0.4470 1652 0.3141 - -
0.4472 1653 0.266 - -
0.4475 1654 0.3964 - -
0.4478 1655 0.3581 - -
0.4481 1656 0.4215 - -
0.4483 1657 0.2951 - -
0.4486 1658 0.1931 - -
0.4489 1659 0.3433 - -
0.4491 1660 0.346 - -
0.4494 1661 0.2408 - -
0.4497 1662 0.3135 - -
0.4499 1663 0.316 - -
0.4502 1664 0.3192 - -
0.4505 1665 0.2603 - -
0.4508 1666 0.3027 - -
0.4510 1667 0.3197 - -
0.4513 1668 0.2628 - -
0.4516 1669 0.2934 - -
0.4518 1670 0.305 - -
0.4521 1671 0.2776 - -
0.4524 1672 0.3222 - -
0.4527 1673 0.2787 - -
0.4529 1674 0.2959 - -
0.4532 1675 0.193 - -
0.4535 1676 0.2484 - -
0.4537 1677 0.261 - -
0.4540 1678 0.2162 - -
0.4543 1679 0.3156 - -
0.4545 1680 0.294 - -
0.4548 1681 0.3257 - -
0.4551 1682 0.374 - -
0.4554 1683 0.4185 - -
0.4556 1684 0.3447 - -
0.4559 1685 0.3498 - -
0.4562 1686 0.2802 - -
0.4564 1687 0.2454 - -
0.4567 1688 0.314 - -
0.4570 1689 0.2863 - -
0.4573 1690 0.3427 - -
0.4575 1691 0.411 - -
0.4578 1692 0.3426 - -
0.4581 1693 0.2981 - -
0.4583 1694 0.2695 - -
0.4586 1695 0.2684 - -
0.4589 1696 0.3156 - -
0.4591 1697 0.2821 - -
0.4594 1698 0.2771 - -
0.4597 1699 0.2814 - -
0.4600 1700 0.438 - -
0.4602 1701 0.3238 - -
0.4605 1702 0.3357 - -
0.4608 1703 0.3173 - -
0.4610 1704 0.3449 - -
0.4613 1705 0.3006 - -
0.4616 1706 0.2668 - -
0.4619 1707 0.2207 - -
0.4621 1708 0.2732 - -
0.4624 1709 0.2932 - -
0.4627 1710 0.2876 - -
0.4629 1711 0.3651 - -
0.4632 1712 0.2588 - -
0.4635 1713 0.2924 - -
0.4637 1714 0.3066 - -
0.4640 1715 0.3097 - -
0.4643 1716 0.2903 - -
0.4646 1717 0.2954 - -
0.4648 1718 0.3254 - -
0.4651 1719 0.3473 - -
0.4654 1720 0.2877 - -
0.4656 1721 0.249 - -
0.4659 1722 0.3314 - -
0.4662 1723 0.2943 - -
0.4665 1724 0.2795 - -
0.4667 1725 0.3487 - -
0.4670 1726 0.2702 - -
0.4673 1727 0.376 - -
0.4675 1728 0.2944 - -
0.4678 1729 0.3628 - -
0.4681 1730 0.2901 - -
0.4683 1731 0.2995 - -
0.4686 1732 0.3562 - -
0.4689 1733 0.2696 - -
0.4692 1734 0.3227 - -
0.4694 1735 0.3213 - -
0.4697 1736 0.3491 - -
0.4700 1737 0.3207 - -
0.4702 1738 0.2993 - -
0.4705 1739 0.3539 - -
0.4708 1740 0.3892 - -
0.4710 1741 0.3387 - -
0.4713 1742 0.3199 - -
0.4716 1743 0.2784 - -
0.4719 1744 0.2633 - -
0.4721 1745 0.2245 - -
0.4724 1746 0.2471 - -
0.4727 1747 0.2595 - -
0.4729 1748 0.4358 - -
0.4732 1749 0.2905 - -
0.4735 1750 0.3258 - -
0.4738 1751 0.3212 - -
0.4740 1752 0.261 - -
0.4743 1753 0.3827 - -
0.4746 1754 0.3426 - -
0.4748 1755 0.276 - -
0.4751 1756 0.314 - -
0.4754 1757 0.356 - -
0.4756 1758 0.3502 - -
0.4759 1759 0.2854 - -
0.4762 1760 0.2515 - -
0.4765 1761 0.2616 - -
0.4767 1762 0.299 - -
0.4770 1763 0.4031 - -
0.4773 1764 0.3912 - -
0.4775 1765 0.2894 - -
0.4778 1766 0.2781 - -
0.4781 1767 0.352 - -
0.4784 1768 0.4137 - -
0.4786 1769 0.3046 - -
0.4789 1770 0.2729 - -
0.4792 1771 0.2839 - -
0.4794 1772 0.2969 - -
0.4797 1773 0.4103 - -
0.4800 1774 0.2713 - -
0.4802 1775 0.2631 - -
0.4805 1776 0.3458 - -
0.4808 1777 0.1919 - -
0.4811 1778 0.2705 - -
0.4813 1779 0.3064 - -
0.4816 1780 0.3586 - -
0.4819 1781 0.3002 - -
0.4821 1782 0.2437 - -
0.4824 1783 0.2324 - -
0.4827 1784 0.2651 - -
0.4830 1785 0.3127 - -
0.4832 1786 0.2684 - -
0.4835 1787 0.2201 - -
0.4838 1788 0.2304 - -
0.4840 1789 0.223 - -
0.4843 1790 0.5316 - -
0.4846 1791 0.2831 - -
0.4848 1792 0.4394 - -
0.4851 1793 0.2484 - -
0.4854 1794 0.3246 - -
0.4857 1795 0.2835 - -
0.4859 1796 0.348 - -
0.4862 1797 0.337 - -
0.4865 1798 0.2918 - -
0.4867 1799 0.3523 - -
0.4870 1800 0.3838 - -
0.4873 1801 0.3461 - -
0.4876 1802 0.2209 - -
0.4878 1803 0.2826 - -
0.4881 1804 0.2855 - -
0.4884 1805 0.2988 - -
0.4886 1806 0.3571 - -
0.4889 1807 0.3321 - -
0.4892 1808 0.288 - -
0.4894 1809 0.3517 - -
0.4897 1810 0.3954 - -
0.4900 1811 0.3406 - -
0.4903 1812 0.3441 - -
0.4905 1813 0.3425 - -
0.4908 1814 0.3594 - -
0.4911 1815 0.2996 - -
0.4913 1816 0.1974 - -
0.4916 1817 0.2889 - -
0.4919 1818 0.3362 - -
0.4922 1819 0.3254 - -
0.4924 1820 0.2844 - -
0.4927 1821 0.328 - -
0.4930 1822 0.2904 - -
0.4932 1823 0.2588 - -
0.4935 1824 0.2622 - -
0.4938 1825 0.4415 - -
0.4940 1826 0.2619 - -
0.4943 1827 0.3035 - -
0.4946 1828 0.2876 - -
0.4949 1829 0.2342 - -
0.4951 1830 0.2439 - -
0.4954 1831 0.2569 - -
0.4957 1832 0.2483 - -
0.4959 1833 0.1941 - -
0.4962 1834 0.2254 - -
0.4965 1835 0.2969 - -
0.4968 1836 0.2489 - -
0.4970 1837 0.3358 - -
0.4973 1838 0.2673 - -
0.4976 1839 0.4219 - -
0.4978 1840 0.3112 - -
0.4981 1841 0.3524 - -
0.4984 1842 0.2772 - -
0.4986 1843 0.2896 - -
0.4989 1844 0.2695 - -
0.4992 1845 0.1904 - -
0.4995 1846 0.2621 - -
0.4997 1847 0.2439 - -
0.5 1848 0.2534 - -
0.5003 1849 0.2894 - -
0.5005 1850 0.3911 - -
0.5008 1851 0.2434 - -
0.5011 1852 0.3025 - -
0.5014 1853 0.3478 - -
0.5016 1854 0.424 - -
0.5019 1855 0.2836 - -
0.5022 1856 0.315 - -
0.5024 1857 0.3085 - -
0.5027 1858 0.3196 - -
0.5030 1859 0.3474 - -
0.5032 1860 0.2869 - -
0.5035 1861 0.382 - -
0.5038 1862 0.2733 - -
0.5041 1863 0.2454 - -
0.5043 1864 0.2677 - -
0.5046 1865 0.282 - -
0.5049 1866 0.2499 - -
0.5051 1867 0.1954 - -
0.5054 1868 0.2632 - -
0.5057 1869 0.3081 - -
0.5060 1870 0.4498 - -
0.5062 1871 0.3749 - -
0.5065 1872 0.2123 - -
0.5068 1873 0.2102 - -
0.5070 1874 0.3575 - -
0.5073 1875 0.4086 - -
0.5076 1876 0.3715 - -
0.5078 1877 0.2916 - -
0.5081 1878 0.3878 - -
0.5084 1879 0.2256 - -
0.5087 1880 0.3621 - -
0.5089 1881 0.3058 - -
0.5092 1882 0.2529 - -
0.5095 1883 0.3109 - -
0.5097 1884 0.2243 - -
0.5100 1885 0.3431 - -
0.5103 1886 0.2336 - -
0.5106 1887 0.27 - -
0.5108 1888 0.3208 - -
0.5111 1889 0.3423 - -
0.5114 1890 0.2694 - -
0.5116 1891 0.2481 - -
0.5119 1892 0.2123 - -
0.5122 1893 0.2194 - -
0.5124 1894 0.2689 - -
0.5127 1895 0.2497 - -
0.5130 1896 0.4563 - -
0.5133 1897 0.3217 - -
0.5135 1898 0.2701 - -
0.5138 1899 0.3277 - -
0.5141 1900 0.2497 - -
0.5143 1901 0.2675 - -
0.5146 1902 0.3395 - -
0.5149 1903 0.2584 - -
0.5152 1904 0.2613 - -
0.5154 1905 0.3257 - -
0.5157 1906 0.3223 - -
0.5160 1907 0.2112 - -
0.5162 1908 0.3107 - -
0.5165 1909 0.3503 - -
0.5168 1910 0.3177 - -
0.5170 1911 0.3069 - -
0.5173 1912 0.3046 - -
0.5176 1913 0.2277 - -
0.5179 1914 0.3281 - -
0.5181 1915 0.3666 - -
0.5184 1916 0.2777 - -
0.5187 1917 0.2379 - -
0.5189 1918 0.2897 - -
0.5192 1919 0.3631 - -
0.5195 1920 0.3179 - -
0.5198 1921 0.3676 - -
0.5200 1922 0.2914 - -
0.5203 1923 0.3635 - -
0.5206 1924 0.3318 - -
0.5208 1925 0.2351 - -
0.5211 1926 0.2477 - -
0.5214 1927 0.4694 - -
0.5216 1928 0.4056 - -
0.5219 1929 0.2271 - -
0.5222 1930 0.2666 - -
0.5225 1931 0.3668 - -
0.5227 1932 0.2946 - -
0.5230 1933 0.42 - -
0.5233 1934 0.2849 - -
0.5235 1935 0.3238 - -
0.5238 1936 0.2245 - -
0.5241 1937 0.2493 - -
0.5244 1938 0.2863 - -
0.5246 1939 0.338 - -
0.5249 1940 0.2275 - -
0.5252 1941 0.2411 - -
0.5254 1942 0.2467 - -
0.5257 1943 0.23 - -
0.5260 1944 0.2498 - -
0.5262 1945 0.3139 - -
0.5265 1946 0.342 - -
0.5268 1947 0.3005 - -
0.5271 1948 0.2178 - -
0.5273 1949 0.3728 - -
0.5276 1950 0.2949 - -
0.5279 1951 0.316 - -
0.5281 1952 0.3004 - -
0.5284 1953 0.3251 - -
0.5287 1954 0.2766 - -
0.5290 1955 0.3627 - -
0.5292 1956 0.343 - -
0.5295 1957 0.237 - -
0.5298 1958 0.3486 - -
0.5300 1959 0.2624 - -
0.5303 1960 0.2155 - -
0.5306 1961 0.3794 - -
0.5308 1962 0.3156 - -
0.5311 1963 0.2169 - -
0.5314 1964 0.3322 - -
0.5317 1965 0.2329 - -
0.5319 1966 0.2293 - -
0.5322 1967 0.2906 - -
0.5325 1968 0.2861 - -
0.5327 1969 0.2874 - -
0.5330 1970 0.2998 - -
0.5333 1971 0.2696 - -
0.5335 1972 0.2532 - -
0.5338 1973 0.3712 - -
0.5341 1974 0.2441 - -
0.5344 1975 0.24 - -
0.5346 1976 0.1971 - -
0.5349 1977 0.3948 - -
0.5352 1978 0.239 - -
0.5354 1979 0.2925 - -
0.5357 1980 0.245 - -
0.5360 1981 0.3199 - -
0.5363 1982 0.2454 - -
0.5365 1983 0.2698 - -
0.5368 1984 0.2832 - -
0.5371 1985 0.2837 - -
0.5373 1986 0.2472 - -
0.5376 1987 0.246 - -
0.5379 1988 0.3966 - -
0.5381 1989 0.2866 - -
0.5384 1990 0.2489 - -
0.5387 1991 0.3617 - -
0.5390 1992 0.2477 - -
0.5392 1993 0.3498 - -
0.5395 1994 0.3244 - -
0.5398 1995 0.2445 - -
0.5400 1996 0.2113 - -
0.5403 1997 0.2809 - -
0.5406 1998 0.3882 - -
0.5409 1999 0.2979 - -
0.5411 2000 0.399 0.2678 0.9314

Framework Versions

  • Python: 3.12.4
  • Sentence Transformers: 3.0.1
  • Transformers: 4.44.0
  • PyTorch: 2.4.0+cu121
  • Accelerate: 0.33.0
  • Datasets: 2.21.0
  • Tokenizers: 0.19.1

Citation

BibTeX

Sentence Transformers

@inproceedings{reimers-2019-sentence-bert,
    title = "Sentence-BERT: Sentence Embeddings using Siamese BERT-Networks",
    author = "Reimers, Nils and Gurevych, Iryna",
    booktitle = "Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing",
    month = "11",
    year = "2019",
    publisher = "Association for Computational Linguistics",
    url = "https://arxiv.org/abs/1908.10084",
}

MultipleNegativesRankingLoss

@misc{henderson2017efficient,
    title={Efficient Natural Language Response Suggestion for Smart Reply}, 
    author={Matthew Henderson and Rami Al-Rfou and Brian Strope and Yun-hsuan Sung and Laszlo Lukacs and Ruiqi Guo and Sanjiv Kumar and Balint Miklos and Ray Kurzweil},
    year={2017},
    eprint={1705.00652},
    archivePrefix={arXiv},
    primaryClass={cs.CL}
}
Downloads last month
14
Safetensors
Model size
111M params
Tensor type
F32
·
Inference Examples
This model does not have enough activity to be deployed to Inference API (serverless) yet. Increase its social visibility and check back later, or deploy to Inference Endpoints (dedicated) instead.

Model tree for Atipico1/simcse-2000

Finetuned
(4)
this model

Evaluation results