|
--- |
|
language: |
|
- code |
|
pretty_name: "resume ner dataseet" |
|
tags: |
|
- ner |
|
license: "bsd" |
|
task_categories: |
|
- token-classification |
|
--- |
|
|
|
中文 resume ner 数据集, 来源: https://github.com/luopeixiang/named_entity_recognition 。 |
|
|
|
数据的格式如下,它的每一行由一个字及其对应的标注组成,标注集采用BIOES,句子之间用一个空行隔开。 |
|
|
|
```text |
|
美 B-LOC |
|
国 E-LOC |
|
的 O |
|
华 B-PER |
|
莱 I-PER |
|
士 E-PER |
|
|
|
我 O |
|
跟 O |
|
他 O |
|
谈 O |
|
笑 O |
|
风 O |
|
生 O |
|
``` |
|
|
|
# 效果 |
|
## 不同模型的效果对比: |
|
|
|
<img src="https://file.ddot.cc/imagehost/2023/8bb93212-5812-4211-91b8-7a6bda841e1b.png"> |
|
|
|
## Bert-tiny 结果 |
|
|model | precision | recall | f1-score | support | |
|
|---|---|---|---|---| |
|
|BERT-tiny | 0.9490 | 0.9538 | 0.9447 | 全部 | |
|
|BERT-tiny | 0.9278 | 0.9251 | 0.9313 | 使用 100 train | |
|
|
|
注: |
|
- 后面再测试,BERT-tiny(softmax) + 100 训练样本,暂时没有复现 0.9313 的结果,最好结果 0.8612 |
|
- BERT-tiny + LSTM(softmax) + 100 样本,`val_f1` 可达 0.8737 |
|
|
|
|