--- language: - zh base_model: - THUDM/glm-4-9b-chat ---


# 政法智言大模型v1.0(Lexipolis-9B-Chat) ## 模型简介 **政法智言大模型v1.0** **(_Lexipolis-9B-Chat_)** 由清华大学THUDM开源的`GLM-4-9B-Chat`微调得到。 采用LoRA算法进行微调:微调过程包括增量预训练与指令微调,其中增量训练使用的数据集包含涉政新闻、工作汇报、国家法律法规条文、领导人讲话语录、政法课程教材、公文、国家部门章程,数据量约1GB。 指令微调使用的数据包含案件审判(案件事实与审判结果对齐)、法条引用(案件事实与法条引用对齐)、指令理解语料(撰写“涉政新闻”的指令与涉政新闻内容对齐等),数据量约550MB。 ## 项目团队人员 齐鲁工业大学(山东省科学院)计算机科学与技术学部 杜宇(202103180009@stu.qlu.edu.cn)