File size: 7,690 Bytes
2ffe446
 
0c3b3bb
2ffe446
 
 
 
 
 
 
 
 
 
 
0c3b3bb
 
 
 
01f9a17
 
0c3b3bb
 
 
 
 
 
 
 
 
 
 
 
1771aa2
 
0c3b3bb
1771aa2
 
0c3b3bb
 
 
 
 
 
 
2ffe446
 
 
 
 
0c3b3bb
 
 
 
1771aa2
 
 
2ffe446
1771aa2
e7a8291
 
46d88e5
76c103a
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
63639ff
76c103a
63639ff
76c103a
46d88e5
e7a8291
76c103a
63639ff
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
76c103a
 
63639ff
e7a8291
 
63639ff
e7a8291
 
 
 
 
76c103a
63639ff
76c103a
 
 
 
 
 
 
 
 
 
 
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
76
77
78
79
80
81
82
83
84
85
86
87
88
89
90
91
92
93
94
95
96
97
98
99
100
101
102
103
104
105
106
107
108
109
110
111
112
113
114
115
116
117
118
119
120
121
122
123
124
125
126
127
128
129
130
131
132
133
134
135
136
137
138
139
140
141
142
143
---
dataset_info:
- config_name: collection
  features:
  - name: text
    dtype: string
  - name: text_en
    dtype: string
  splits:
  - name: train
    num_bytes: 6691198003
    num_examples: 8841823
  download_size: 3589163684
  dataset_size: 6691198003
- config_name: dataset
  features:
  - name: anc
    dtype: string
  - name: anc_en
    dtype: string
  - name: pos_ids
    sequence: int64
  - name: neg_ids.japanese-splade-base-v1-mmarco-only.top100
    sequence: int64
  - name: neg_sims.japanese-splade-base-v1-mmarco-only.top100
    sequence: float64
  - name: neg_ids.japanese-splade-base-v1-mmarco-only.other100
    sequence: int64
  - name: neg_sims.japanese-splade-base-v1-mmarco-only.other100
    sequence: float64
  - name: score.bge-reranker-v2-m3.pos_ids
    sequence: float64
  - name: >-
      score.bge-reranker-v2-m3.neg_ids.japanese-splade-base-v1-mmarco-only.top100
    sequence: float64
  - name: >-
      score.bge-reranker-v2-m3.neg_ids.japanese-splade-base-v1-mmarco-only.other100
    sequence: float64
  splits:
  - name: train
    num_bytes: 2481771934
    num_examples: 502931
  download_size: 2024787258
  dataset_size: 2481771934
configs:
- config_name: collection
  data_files:
  - split: train
    path: collection/train-*
- config_name: dataset
  data_files:
  - split: train
    path: dataset/train-*
language:
- ja
- en
---

# msmarco-ja-hard-negatives

[hpprc/msmarco-ja](https://huggingface.co/datasets/hpprc/msmarco-ja) で公開されている[MS MARCO](https://huggingface.co/datasets/microsoft/ms_marco)の日本語翻訳データに、以下の処理を加えたハードネガティブマイニングをしたものです。また、後段タスクとして、情報検索モデルのSPLADEを学習させたモデルで [mMARCO](https://huggingface.co/datasets/unicamp-dl/mmarco) との比較を行いました。

# データの処理

## 翻訳データの正規化、フィルタと選択

- 正規化
  -  ユニコード正規化 (NFKC)
- dataset(query) のフィルタ・選択
  - dataset-sim のコサイン類似度が0.98以上のものはほぼ同一のケースが多く、距離が近すぎるので取り除く
  - 元の英文を丸々含むデータを取り除く
  - 残ったデータで、一番類似度が近いものを選択
- collection の選択
  - dataset(query) の pod_ids (正例)が対象の場合、query, doc ペアで [BAAI/bge-reranker-v2-m3](https://huggingface.co/BAAI/bge-reranker-v2-m3) のスコアを用い、最もスコアが高いもの選択
  - 正例に含まれないデータの場合、同一の id からランダムサンプリング
  
## ハードネガティブの抽出

作成した query, collection を元に、[japanese-splade-base-v1-mmarco-only](https://huggingface.co/hotchpotch/japanese-splade-base-v1-mmarco-only) を利用して、類似する collection の上位100件と、101位から1000位までの中から無作為に選んだ100件

## スコア付け

query とハードネガティブの collection を元に、bge-reranker-v2-m3 リランカーを用いたスコア

# 評価

## 評価実験として、2つのデータセットを比較

1. mmacro(ja)(mMARCOデータセットの日本語翻訳データ)
2. msmarco-ja(本データセット)


## カイ二乗検定による評価


| 指標 | msmarco-ja | mmarco(ja) | 閾値 | p値 | 統計的有意差 |
|------|------------|------------|--------|------|--------------|
| 総数 | 502,931 | 391,060 | 0.7 | 0.0006205731 | あり |
| Positive数 | 407,162 | 311,394 | 0.7 | 0.0006205731 | あり |
| Positive率 | 80.96% | 79.63% | 0.7 | 0.0006205731 | あり |
| 総数 | 502,931 | 391,060 | 0.8 | 0.0428684718 | あり |
| Positive数 | 390,653 | 297,126 | 0.8 | 0.0428684718 | あり |
| Positive率 | 77.68% | 75.98% | 0.8 | 0.0428684718 | あり |


dataset(query)と、正例(pos_ids)のcollectionペアが、リランカースコアで見た時に、うまく正例として扱えそうかを閾値0.7または0.8以上で確認します。pos_idsは複数ある場合、スコアのmaxを選択しています。

カイ二乗検定を用いて評価した結果、閾値0.7および0.8のいずれにおいても、msmarco-jaとmmarco(ja)の間に統計的有意差が確認されました(p < 0.05)。具体的には、msmarco-jaの方が一貫して高いPositive率を示し、閾値0.7では約1.33%ポイント(80.96% vs 79.63%)、閾値0.8では約1.70%ポイント(77.68% vs 75.98%)の差が観察されました。

特に閾値0.7での差異は非常に小さいp値(p ≈ 0.0006)を示しており、この違いが偶然によるものである可能性は極めて低いと考えられます。また、より厳格な閾値である0.8においても統計的有意差は維持されています(p ≈ 0.043)。

両データセットとも75-80%という高いPositive率を示しており、わずか1-2%ポイントの差ではありますが、msmarco-jaデータセットが、より高品質な翻訳とフィルタリングによって、mmarco翻訳よりもquery-documentペアの一貫性をより良く保持できている可能性が高いと言えるでしょう。




## JMTEBでのデータセットの評価

### 評価方法

- 両データセットに対して同じ手法でハードネガティブサンプリングとスコア付けを実施
- mmarco/msmacro-ja のみを用いて、同一のパラメータ(正例フィルタリング閾値0.7以上)で日本語SPLADEモデルを学習
- [JMTEB](https://github.com/sbintuitions/JMTEB) retrieval タスクを用い評価

### 評価結果

| ---         | JMTEB ret Avg. | jagovfaqs_22k | jaqket | mrtydi | nlp_journal_abs_intro | nlp_journal_title_abs | nlp_journal_title_intro |
|-------------|----------------|---------------|--------|--------|------------------------|-----------------------|-------------------------|
| mmarco(ja)  | 0.7390         | 0.6726        | 0.6692 | 0.4449 | 0.8855                | 0.9580                | **0.8040**              |
| msmacro-ja  | **0.7472**     | **0.6872**    | **0.6734** | **0.4656** | **0.8974**            | **0.9726**            | 0.7871                  |

ほぼ全て項目で、msmarco-ja の方が良好な結果となりました。ただし、カイ二乗検定による評価の項目にある通り、全体のデータセット件数はmmarco-jaの方が多いため、ご注意ください。


# データに関する注意事項

ハードネガティブでの抽出した負例は、正例よりもリランカースコアが高い場合が多々あります。反対に正例(pos_ids)なのに、著しくスコアが低い場合も多々あります(そもそも元データが正例として相応しくない、翻訳時に情報が失われた、など)。そのため、それらを「正例」「負例」として学習すると、学習に悪影響を及ぼす可能性が大きいため、リランカースコアを閾値としてフィルターする処理をお勧めします。

また、ハードネガティブサンプリングは SPLADE モデル japanese-splade-base-v1-mmarco-only を利用し行なっています。SPLADEは、単語トークンの距離の近さで類似度を測るため、密ベクトルとは異なった方向のハードネガティブマイニングになります。密ベクトルモデルの学習のために利用する場合、密ベクトルでハードネガティブサンプリングをした方が、より良いハードネガティブを取得できる可能性があります。

# ライセンス

MSMARCO と同等のライセンスとします。