hotchpotch commited on
Commit
dd535ab
·
verified ·
1 Parent(s): 6172542

Update README.md

Browse files
Files changed (1) hide show
  1. README.md +160 -0
README.md CHANGED
@@ -38,4 +38,164 @@ configs:
38
  path: data/dev-*
39
  - split: test
40
  path: data/test-*
 
 
 
 
 
41
  ---
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
38
  path: data/dev-*
39
  - split: test
40
  path: data/test-*
41
+ license: cc
42
+ task_categories:
43
+ - question-answering
44
+ language:
45
+ - ja
46
  ---
47
+
48
+ # **JQaRA** : Japanese Question Answering with Retrieval Augmentation - 検索拡張(RAG)評価のための日本語 Q&A データセット
49
+
50
+ 高性能な LLM の台頭に伴い、LLM を用いた質疑応答のユースケースが増加しています。しかしながら、LLM は質問に対して適切な回答する知識を有していないと、答えることができないだけでなく、誤った回答を返答するといった課題が存在します。この課題を解決する一つの手段として、LLM が外部の知識を参照して回答する「RAG(Retrieval-Augmented Generation・検索拡張生成)」の需要が高まっています。
51
+
52
+ そのため、LLM が RAG を用いた際に回答精度が上がるような情報を検索によって取得可能か評価するためのデータセット"**JQaRA** : Japanese Question Answering with Retrieval Augmentation - 検索拡張(RAG)評価のための日本語 Q&A データセット"を構築しました。なお JQaRA は「じゃくら」と読みます。
53
+
54
+ データセット自体は HuggingFace で、データセットの評価コード例などは GitHub で公開しています。
55
+
56
+ - 🤗 https://huggingface.co/datasets/hotchpotch/JQaRA
57
+ - HuggingFace で公開している JQaRA データセットです
58
+ - 🛠️ https://github.com/hotchpotch/JQaRA/
59
+ - GitHub で、📈 [評価用コード](https://github.com/hotchpotch/JQaRA/tree/main/evaluator) を公開しています。
60
+
61
+ ## JQaRA の特徴
62
+
63
+ JQaRA の特徴として、llama-7b の派生モデルや GPT4 等の LLM が質問に回答できる検索データに対して正解ラベル付けを行っています(注・一部人間の目視チェックよるラベル付もあり)。そのため、LLM にとって回答精度を上げるヒントになるデータをどれだけ検索で取得できるか、すなわち RAG の精度向上に寄与しそうかの視点を元に作ったデータセットです。
64
+
65
+ 大元の質問文は[AI 王 公式配布データセット(JAQKET)](https://sites.google.com/view/project-aio/dataset?authuser=0)を、検索対象文は Wikipedia のデータを用いています。
66
+
67
+ ### 評価指標
68
+
69
+ JQaRA は質問に対して、候補となる 100 件のデータ(一件以上の正解を含む)の情報検索タスクです。そのため主の評価指標として、test データの nDCG@10 (normalized Documented Cumulative Gain)を用います。
70
+
71
+ また例として、簡単に評価できるスクリプトを [GitHub の evaluator](https://github.com/hotchpotch/JQaRA/tree/main/evaluator) 以下に置いています。このスクリプトは SentenceTransformer や CrossEncoder といった、一般的なインターフェイスを備えたモデル、また高精度と謳われるモデルを評価するスクリプトです。
72
+
73
+ ### 評価結果
74
+
75
+ 以下はさまざまなモデルの評価結果です。評価は nDCG@10 以外にも、参考までにいくつかの指標を表示しています。
76
+
77
+ #### 文ベクトルモデル
78
+
79
+ | model_names | ndcg@10 | mrr@10 | ndcg@100 | mrr@100 |
80
+ | :------------------------------------------------------------------------------ | ------: | -----: | -------: | ------: |
81
+ | [bge-m3+dense](https://huggingface.co/BAAI/bge-m3) | 0.539 | 0.7854 | 0.7206 | 0.7884 |
82
+ | [fio-base-japanese-v0.1](https://huggingface.co/bclavie/fio-base-japanese-v0.1) | 0.3718 | 0.6161 | 0.6077 | 0.6219 |
83
+ | [sup-simcse-ja-base](https://huggingface.co/cl-nagoya/sup-simcse-ja-base) | 0.3237 | 0.5407 | 0.5722 | 0.5504 |
84
+ | [sup-simcse-ja-large](https://huggingface.co/cl-nagoya/sup-simcse-ja-large) | 0.3571 | 0.575 | 0.5955 | 0.583 |
85
+ | [unsup-simcse-ja-base](https://huggingface.co/cl-nagoya/unsup-simcse-ja-base) | 0.3121 | 0.5209 | 0.5664 | 0.5298 |
86
+ | [unsup-simcse-ja-large](https://huggingface.co/cl-nagoya/unsup-simcse-ja-large) | 0.3928 | 0.6257 | 0.6217 | 0.6321 |
87
+ | [multilingual-e5-large](https://huggingface.co/intfloat/multilingual-e5-large) | 0.554 | 0.7988 | 0.731 | 0.8011 |
88
+ | [multilingual-e5-small](https://huggingface.co/intfloat/multilingual-e5-small) | 0.4917 | 0.7291 | 0.6894 | 0.7325 |
89
+ | [GLuCoSE-base-ja](https://huggingface.co/pkshatech/GLuCoSE-base-ja) | 0.3085 | 0.5179 | 0.5643 | 0.5268 |
90
+ | [text-embedding-3-small](https://platform.openai.com/docs/guides/embeddings) | 0.3881 | 0.6107 | 0.6173 | 0.6171 |
91
+
92
+ #### ColBERT モデル
93
+
94
+ | model_names | ndcg@10 | mrr@10 | ndcg@100 | mrr@100 |
95
+ | :---------------------------------------------------- | ------: | -----: | -------: | ------: |
96
+ | [bge-m3+colbert](https://huggingface.co/BAAI/bge-m3) | 0.5656 | 0.8095 | 0.7371 | 0.8119 |
97
+ | [JaColBERT](https://huggingface.co/bclavie/JaColBERT) | 0.5451 | 0.8072 | 0.7273 | 0.8102 |
98
+
99
+ #### CrossEncoder モデル
100
+
101
+ | model_names | ndcg@10 | mrr@10 | ndcg@100 | mrr@100 |
102
+ | :---------------------------------------------------------------------------------------------------------------------- | ------: | -----: | -------: | ------: |
103
+ | [bge-reranker-base](https://huggingface.co/BAAI/bge-reranker-base) | 0.2445 | 0.4378 | 0.522 | 0.4504 |
104
+ | [bge-reranker-large](https://huggingface.co/BAAI/bge-reranker-large) | 0.4718 | 0.7108 | 0.6791 | 0.7149 |
105
+ | [cross-encoder-mmarco-mMiniLMv2-L12-H384-v1](https://huggingface.co/corrius/cross-encoder-mmarco-mMiniLMv2-L12-H384-v1) | 0.5588 | 0.8107 | 0.7325 | 0.8139 |
106
+
107
+ #### その他モデル
108
+
109
+ | model_names | ndcg@10 | mrr@10 | ndcg@100 | mrr@100 |
110
+ | :-------------------------------------------------- | ------: | -----: | -------: | ------: |
111
+ | [bge-m3+all](https://huggingface.co/BAAI/bge-m3) | 0.576 | 0.8178 | 0.7454 | 0.8202 |
112
+ | [bge-m3+sparse](https://huggingface.co/BAAI/bge-m3) | 0.5088 | 0.7596 | 0.7017 | 0.7626 |
113
+ | bm25 | 0.458 | 0.702 | 0.6701 | 0.706 |
114
+
115
+ ---
116
+
117
+ ## JQaRA データセット構築方法
118
+
119
+ ### Q&A データの選定
120
+
121
+ まず JQaRA の基礎となる日本語 Q&A データとして、「[JAQKET: クイズを題材にした日本語 QA データセット](https://sites.google.com/view/project-aio/dataset?authuser=0)」の質問と回答を使用しています。JAQKET は、質の高い多様な日本語 Q&A データセットで、Wikipedia の記事タイトル名が回答となる特徴を持っています。そのため、Wikipedia の文章から適切な該当文章を見つけることができれば、ほとんどの質問に対して回答を導き出すことが可能です。
122
+
123
+ JAQKET の中から、CC-BY-SA 4.0 ライセンスで公開されている dev(約 2,000 件)、unused(約 600 件)、test(約 2,000 件)のデータを JQaRA で使用しています。JAQKET の train(約 17000 件)はライセンスが学術利用用途のみとなり、商用での学習は不可なことから含めていません。以下は、JQaRA 評価用の test データセットの構築方法です。
124
+
125
+ ### Wikipedia データの追加
126
+
127
+ JAQKET の質問データから、Wikipedia から質問に関連するであろう文章を取得します。Wikipedia の記事全文だと文章が長すぎるため、最大文字数が 400 文字になるようにチャンク分割されたデータ、[singletongue/wikipedia-utils - passages-c400-jawiki-20230403](https://huggingface.co/datasets/singletongue/wikipedia-utils)を利用しています。
128
+
129
+ 質問文から関連する文章の取得には、Embeddings モデルを用いた文ベクトルの類似度で評価視しています。また一つの Embeddings モデルでは偏りが発生してしまうため、多様性を確保するために 5 種類の Embeddings モデル[intfloat/multilingual-e5-large](https://huggingface.co/intfloat/multilingual-e5-large), [BAAI/bge-m3](https://huggingface.co/BAAI/bge-m3), [cl-nagoya/sup-simcse-ja-base](https://huggingface.co/cl-nagoya/sup-simcse-ja-base), [pkshatech/GLuCoSE-base-ja](https://huggingface.co/pkshatech/GLuCoSE-base-ja), [OpenAI/text-embedding-3-small](https://platform.openai.com/docs/guides/embeddings) を利用します。
130
+
131
+ また 400 文字以内になるように分割された Wikipedia 文データは、約 560 万文存在します。そのため、現実的な速度で検索が可能になるよう、Embeddings モデルを用いて文ベクトルに変換した後、IVF(Inverted File Index)と量子化(IVFPQ)を使い、高速にベクトル検索が可能な状態にします。なおベクトル検索のライブラリには FAISS を用いており、IVFPQ のパラメータは IVF の nlist に 2048、PQ は Embeddings モデルの埋め込みベクトルの次元数/4(例: e5-large は 1024 次元なので、PQ=4/1024=256)としています。
132
+
133
+ これらを使い、質問文各々に最も類似する上位 500 の文章 x 5 種類の Embeddings モデルの結果を得ます。その後、これら 5 つの結果を RRF(Reciprocal Rank Fusion)を用いてランク付けしなおし、スコアが高い上位 100 文を抽出しました。これらの文と、その文が含まれる Wikipedia 記事タイトルを、質問文に紐付けします。
134
+
135
+ ### ルールベースでの正解ラベルの付与
136
+
137
+ 質問文に紐付けした 100 文の中から、タイトルまたは文に質問に対応する回答文字列が完全一致で含まれる場合には、それを関連があると判断し正解ラベルをまず付与します。質問文に紐づけた 100 文のうち、正解ラベルが一つもないデータ(39 件)や、正解ラベルの数が多すぎるデータは、評価が困難なため除外しました。正解ラベルの数が多いデータの算出には、各質問に紐づく正解ラベルの総数の標準偏差を計算し、総数平均値(16.54) +1 標準偏差(15.21) = 31.66 件以上の正解ラベルを持つデータ 281 件を除外しました。
138
+
139
+ このフィルタリングにより、元々約 2,000 件あった test データが 1,680 件へと減少しました。また、正解ラベルが付与されている文データは、1,680 質問 \* 100 文の合計 168,000 データのうち 16,726 件となりました。また各々の質問について、100 文中何件正解ラベルの総数は、フィルタリング後は平均 9.98 件、標準偏差は 6.70 となっています。
140
+
141
+ ## 正解ラベル有用性の検証
142
+
143
+ ルールベースで付与された正解ラベルの中には、質問に対して回答精度を上げるのヒントとならないものも含まれています。そのためまず実際の LLM を用いて、質問と文(Wikipedia タイトル + 400 文字以下の対象文)を与えた上で、正しい回答が出力できるかどうかで、その正解ラベルが有益かどうかを評価します。最終的には人間での評価も行い、回答精度を上げるヒントにならないデータは削除します。
144
+
145
+ ### 1) LocalLLM 7B, 13B モデルでの検証
146
+
147
+ 初めに、日本語 LLM のパラメータ数が 7B の [youri-7b-instruction](https://huggingface.co/rinna/youri-7b-instruction) および、13B の [Swallow-13B-instruction-hf](https://huggingface.co/tokyotech-llm/Swallow-13b-instruct-hf) に対して回答のみを出力するように SFT(Supervised fine-tuning)で学習させたモデル、[youri-7b-stf-qa-context-jaqket-jsquad-gptq](https://huggingface.co/hotchpotch/youri-7b-stf-qa-context-jaqket-jsquad-gptq)と [Swallow-13b-stf-qa-context-jaqket-jsquad-gptq](https://huggingface.co/hotchpotch/Swallow-13b-stf-qa-context-jaqket-jsquad-gptq) を作成しました。なお、今回の test データは、これらのモデルの学習には利用していません。
148
+
149
+ この段階で、ルールベースの正解ラベルが付与されたデータ 16,726 件中、どちらかのモデルが部分一致で正解を含む回答を出せなかった物が、16,726 件中 742 件ありました。なお部分一致なのは、回答生成時に少々冗長な出力をしがちなため、完全一致ではなく部分一致で評価しています。
150
+
151
+ ### 2) ChatGPT 3.5, GPT4 での検証
152
+
153
+ その後の二段階目では、1) の 7B, 13B モデルで間違えたデータ 742 件を使用し、ChatGPT 3.5(gpt-3.5-turbo-0125)および GPT4(gpt-4-0125-preview)を用いて、同様に正解が出せるかを検証しました。この結果、ChatGPT 3.5, GPT4 どちらのモデルも間違ったデータは 550 件ありました。
154
+
155
+ ### 3) 人間の検証
156
+
157
+ 最後に、LLM が間違えたデータ 550 件を人間がチェックして、正解ラベルを削除するかどうかを判断し、最終的に 522 件を削除するデータとみなしました。
158
+
159
+ このうち、正解ラベルとして削除しない、と判断したデータで一番多いものは表記揺れです。LLM 評価が文字列一致だったため、例えば質問が"「ぼたん」と言えばイノシシの肉ですが、「もみじ」といえば何の肉でしょう?"で、正解は"シカ"ですが、LLM が"鹿肉"と答えたようなものが挙げられます。
160
+
161
+ また、質問が "炊飯器、冷蔵庫、洗濯機といった生活に必須となる家電製品のことを、ある色を用いた表現で何というでしょう?" で、正解は"白物家電"ですが、文の中の表記が"ホワイトグッズ(白物家電)"となっていて、LLM は皆"ホワイトグッズ"を回答として挙げていました。
162
+
163
+ 他にも、大抵の人なら読んで正解を答えられるであろうが、LLM では間違ったしまったものも残す判断をしました。例えば、質問が"約 1.8 リットルを 1 とする、日本酒などの体積を表す時に用いる尺貫法の単位は何でしょう?" に対して、文として "斗(と)とは、尺貫法における体積(容積)の単位。10 升が 1 斗、10 斗が 1 石となる。日本では、明治時代に 1 升=約 1.8039 リットルと定められたので、1 斗=約 18.039 リットルとなる。" が与えられているので、正解の「升」を答えられるが、LLM 達は「斗」と誤って回答したデータ等も削除せずに残しています。
164
+
165
+ ## test データセットの構築
166
+
167
+ 最後に、522 件のデータの正解ラベルをラベルを削除します。ラベルのみの削除なので、データ自体は残しています。また正解ラベルの削除により、1,680 件の質問に紐づいている 100 文の中で、正解ラベルが 1 つもないデータが発生するので、それを除いた最終的な��問データは 1,667 件となりました。このデータで test データセットは構築されています。
168
+
169
+ ## dev, unused データセットの作成・構築
170
+
171
+ dev, unused データセットについても、test の文データと重複が発生しないよう取り除いて、ほぼ同様の方法で作成しました。ただし、dev, unused データセットに置いては、正解ラベル有用性の検証では youri-7b のモデルのみを用いて正しい回答が出力されたデータ最大 5 件を残し、他のルールベースで正解をつけたが LLM が答えられなかったデータはラベルの削除ではなく、データ自体を削除しています。また、dev, unused では 1 質問に対して 100 文ではなく 50 文を付与しています。
172
+
173
+ 最終的に、dev 1,737 件、unused 498 件の質問データで、データセットを作りました。なお本来、学習には train のデータを利用しますが、大元の Q&A データセット JAQKET train データがライセンス上商用利用できないため、JQaRA ではこの dev, unused のデータセットを学習用途として想定しております。
174
+
175
+ # おわりに
176
+
177
+ 今回、JQaRA データセットを構築しようと思ったのは、実務や実験において RAG の精度がどれだけ上がるかの評価が、既存のデータセットを用いたことでは難しかったことから、無いなら自ら作ってみようと始まりました。趣味でやったことなので、途中で挫折せずに公開まで行き着くことができて嬉しく思います。
178
+
179
+ これまで、特に自然言語処理の分野では、研究、コミュニティ、企業からのアウトプットに多大な恩恵を受けてきました。このデータセットが、自然言語処理や検索技術に携わる方々に少しでも貢献できれば幸いです。
180
+
181
+ # ライセンス
182
+
183
+ JQaRA データセットのライセンスは、"question", "answers" カラムは[AI 王 公式配布データセット(JAQKET)](https://sites.google.com/view/project-aio/dataset?authuser=0)  の[CC-BY-SA-4.0](https://creativecommons.org/licenses/by-sa/4.0/deed.ja)を継承します。
184
+
185
+ また "title", "text" カラムにおいては、[Wikipedia の著作権である CC BY-SA 4.0 または GFDL](https://ja.wikipedia.org/wiki/Wikipedia:%E8%91%97%E4%BD%9C%E6%A8%A9)とします。
186
+
187
+ ## 謝辞
188
+
189
+ このデータセットは、[AI 王 公式配布データセット(JAQKET)](https://sites.google.com/view/project-aio/dataset?authuser=0)から質問・回答文を利用しています。AI 王の開催・クイズ作成等々をされた関係者の方々、有益なデータセットの公開ありがとうございます。
190
+
191
+ また関連文章を見つけるために利用した、有益な Embeddings モデルを公開されている大学・研究機関・企業の方々、ありがとうございます。
192
+
193
+ ---
194
+
195
+ ```
196
+ @misc{yuichi-tateno-2024-jqara,,
197
+ url={https://github.com/hotchpotch/JQaRA},
198
+ title={JQaRA: Japanese Question Answering with Retrieval Augmentation - 検索拡張(RAG)評価のための日本語Q&Aデータセット},
199
+ author={Yuichi Tateno}
200
+ }
201
+ ```