Update README.md
Browse files
README.md
CHANGED
@@ -1,7 +1,25 @@
|
|
1 |
---
|
2 |
-
license: apache-2.0
|
3 |
language:
|
4 |
- zh
|
5 |
base_model:
|
6 |
- THUDM/glm-4-9b-chat
|
7 |
-
---
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
1 |
---
|
|
|
2 |
language:
|
3 |
- zh
|
4 |
base_model:
|
5 |
- THUDM/glm-4-9b-chat
|
6 |
+
---
|
7 |
+
|
8 |
+
<p align="center">
|
9 |
+
<br>
|
10 |
+
<img src="https://cdn-uploads.huggingface.co/production/uploads/6432aafcfc29acb96be5943f/7drid1rx8sP8hVUv4_z-m.png" style="width:50%;" />
|
11 |
+
</p>
|
12 |
+
|
13 |
+
# 政法智言大模型v1.0(Lexipolis-9B-Chat)
|
14 |
+
|
15 |
+
## 模型简介
|
16 |
+
|
17 |
+
**政法智言大模型v1.0** **(_Lexipolis-9B-Chat_)** 由清华大学THUDM开源的`GLM-4-9B-Chat`微调得到。
|
18 |
+
|
19 |
+
采用LoRA算法进行微调:微调过程包括增量预训练与指令微调,其中增量训练使用的数据集包含涉政新闻、工作汇报、国家法律法规条文、领导人讲话语录、政法课程教材、公文、国家部门章程,数据量约1GB。
|
20 |
+
|
21 |
+
指令微调使用的数据包含案件审判(案件事实与审判结果对齐)、法条引用(案件事实与法条引用对齐)、指令理解语料(撰写“涉政新闻”的指令与涉政新闻内容对齐等),数据量约550MB。
|
22 |
+
|
23 |
+
## 项目团队人员
|
24 |
+
|
25 |
+
齐鲁工业大学(山东省科学院)计算机科学与技术学部 杜宇([email protected])
|