diff --git "a/README.md" "b/README.md" --- "a/README.md" +++ "b/README.md" @@ -8,41 +8,49 @@ tags: metrics: - accuracy widget: -- text: 国家試験の過去問題や民間試験の予想問題を1問1答形式で解くことができる学習アプリケーション「過去問.com」を運営しているスタートアップ。 -- text: バブル製剤を製造販売する、帝京大学発のスタートアップ。同社は、帝京大学で生まれた特許技術であるマイクロバブルに超音波を照射する技術を用いて、癌や脳疾患などの治療薬が十分に届かない問題を解決する画期的な送達技術「BUS-DDS」に用いるバブル製剤を製造販売している。また、超音波応答マイクロバブル「セラノスティクスバブル」の開発に成功している。これは、超音波と薬物を組み合わせて低侵襲な「BUS-DDS」治療を実現し、薬の届きにくいところに届けて効かせる画期的な薬の送達システムである。2021年1月には、帝京ナレッジ・イニシアティブを引受先とする第三者割当増資により資金調達を実施している。 -- text: 'まさおと申します! +- text: '首都圏最大級の店舗物件専門情報サービス会社です。 - マネーリテラシーを勉強し、発信しています。 + 次々に出店する店舗さま達と一緒に成長しましょう! - 堅実な投資を経て資産形成中! - また、家計の助けになるような投稿もします! + あの店も、この店も、ホクトシステムで出店したんだ!と街中を歩くのが楽しくなります( ^ω^ )' +- text: 'けやき出版は、多摩のひととまちをつないでいくという企業理念のもと、書籍・情報誌・パンフレット・会社案内・社史・ロゴ制作やWEBサイトの記事制作などの仕事をさせていただいています。 - 是非ブログも読んでください!' -- text: 義歯の生産プロセス完全自動化を目指す企業。 -- text: 日本通信に出資している企業。 + + 2020年6月には、新しい多摩の情報誌「BALL.」を創刊(年2回発行)し、多摩エリアではずむように働こう!というタグラインのもと、多摩エリアの仕事に特化した内容を読者の方に届けています。 + + BALL.を中心に始まった、WEB MAGAZINEなど、クリエイター自らの企画参加型のメディアを形成しています。 + + ' +- text: '私たちの存在意義(Purpose)は、「利他であふれる社会を創る」です。 + + 利他とは、他人に利益を与えること。自分の事よりも他人の幸福を願うこと。シンプルに言うと「求め合うより与え合う」そんな表現がぴったりかもしれません。 + + + 私たちの夢は、世界中のすべての人たちが夢と勇気と笑顔に溢れた社会を創ることです。そのためには「利他の精神」は必要不可欠です。 + + 誰かに期待するのではなく、自ら利他の精神を持ち 「どうすれば社会や他人を幸せにすることができるのだろう」を日々考え行動し、社会を良くしていきます。' +- text: '「ラテンアメリカと日本の新しい歴史を創り、人々の人生を豊かにする」ことを理念に、メキシコ合衆国を中心に事業を展開しています!現在はメキシコ合衆国を中心に、メキシコ人・日本人およびセルビア人の合計80名で活動しています。 + + + 主な事業内容は 以下の通りです。 + + + ①広告代理店、ならびに各種コンサルティング事業 (企画・営業部) + + + ②ラテンアメリカ域内における日本食レストランの運営事業 (Food & Beverage 事業部) + + + ' +- text: 次世代を担う子どもたちへプログラミングの面白さを伝えるキッズプログラミングスクール「ツクル」を運営するスタートアップ。 pipeline_tag: text-classification -inference: false -base_model: google/flan-t5-base -model-index: -- name: SetFit with google/flan-t5-base - results: - - task: - type: text-classification - name: Text Classification - dataset: - name: Unknown - type: unknown - split: test - metrics: - - type: accuracy - value: 0.6643356643356644 - name: Accuracy +inference: true --- -# SetFit with google/flan-t5-base +# SetFit -This is a [SetFit](https://github.com/huggingface/setfit) model that can be used for Text Classification. This SetFit model uses [google/flan-t5-base](https://huggingface.co/google/flan-t5-base) as the Sentence Transformer embedding model. A OneVsRestClassifier instance is used for classification. +This is a [SetFit](https://github.com/huggingface/setfit) model that can be used for Text Classification. A [LogisticRegression](https://scikit-learn.org/stable/modules/generated/sklearn.linear_model.LogisticRegression.html) instance is used for classification. The model has been trained using an efficient few-shot learning technique that involves: @@ -53,10 +61,10 @@ The model has been trained using an efficient few-shot learning technique that i ### Model Description - **Model Type:** SetFit -- **Sentence Transformer body:** [google/flan-t5-base](https://huggingface.co/google/flan-t5-base) -- **Classification head:** a OneVsRestClassifier instance -- **Maximum Sequence Length:** None tokens - + +- **Classification head:** a [LogisticRegression](https://scikit-learn.org/stable/modules/generated/sklearn.linear_model.LogisticRegression.html) instance +- **Maximum Sequence Length:** 512 tokens +- **Number of Classes:** 2 classes @@ -67,12 +75,11 @@ The model has been trained using an efficient few-shot learning technique that i - **Paper:** [Efficient Few-Shot Learning Without Prompts](https://arxiv.org/abs/2209.11055) - **Blogpost:** [SetFit: Efficient Few-Shot Learning Without Prompts](https://huggingface.co/blog/setfit) -## Evaluation - -### Metrics -| Label | Accuracy | -|:--------|:---------| -| **all** | 0.6643 | +### Model Labels +| Label | Examples | +|:--------------|:----------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------| +| Non-recurring |