BAAI
/

MonteXiaofeng commited on
Commit
d29cec7
1 Parent(s): a61f0c7

Update README.md

Browse files
Files changed (1) hide show
  1. README.md +52 -0
README.md CHANGED
@@ -68,3 +68,55 @@ base_model:
68
  训练超参:全参数训练,max_length = 2048,lr=1e-5,batch_size=64,,验证集评估acc:86%
69
 
70
  ![image-20240919141408659](./img/classify_exp.png)
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
68
  训练超参:全参数训练,max_length = 2048,lr=1e-5,batch_size=64,,验证集评估acc:86%
69
 
70
  ![image-20240919141408659](./img/classify_exp.png)
71
+
72
+
73
+ ## how to use
74
+
75
+ ```python
76
+ from transformers import (
77
+ AutoConfig,
78
+ AutoModelForSequenceClassification,
79
+ AutoTokenizer)
80
+ import torch
81
+
82
+ model_dir = "BAAI/IndustryCorpus2_Classifier"
83
+
84
+ model = AutoModelForSequenceClassification.from_pretrained(
85
+ model_dir,
86
+ trust_remote_code=False,
87
+ ignore_mismatched_sizes=False,
88
+ ).half().cuda().eval()
89
+
90
+ tokenizer = AutoTokenizer.from_pretrained(
91
+ model_dir,
92
+ use_fast=True,
93
+ token=None,
94
+ trust_remote_code=False,
95
+ )
96
+
97
+ config = AutoConfig.from_pretrained(
98
+ model_dir,
99
+ finetuning_task="text-classification",
100
+ )
101
+
102
+ id2label = config.id2label
103
+ print(id2label)
104
+ label2id = config.label2id
105
+ print(label2id)
106
+
107
+
108
+ sentence = "黄龙国际中心位于杭州市西湖区学院路77号,地处杭州黄龙商务区核心位置。项目以“新经济、新生态、新黄龙”的理念和“知识城市创新区”的项目定位,引领着杭州城市的产业升级和创新。\n黄龙国际中心主打“知识盒子”建筑设计,拥有时尚、新潮的建筑立面,聚集不同功能的独立建筑物,打造出包容开放又具有链接性的空间。项目在2018年4月一举斩获开发项目行业最高奖——广厦奖。\n项目整体分四期开发。一期G、H、I三幢楼宇由坤和自主开发建成,于2015年4月投入使用,于2015年5月获得了美国绿色建筑委员会颁发的LEED金级认证,并成功吸引蚂蚁金服、美图、有赞等国内互联网创新巨头率先入驻。\n2016年初,坤和引进万科作为该项目股权合作方通过双方优质资源共享,在产品品质、创新等方面得到全方位提升。\n二期A、B幢由美国KPF设计,并于2018年4月一举获得房地产开发项目行业最高奖——广厦奖。A、B幢写字楼于2018年10月投入使用,B幢与全球领先的创造者社区及空间和服务提供商——WeWork正式签约。商业K-lab于2018年12月28日正式开业。\n项目三期E、F幢已于2020年投入使用。四期C、D幢,计划于2021年底投入使用。\n项目总占地面积约8.7万方,总建筑面积约40万平方米,涵盖9栋国际5A写字楼及8万方K-lab商业新物种,以知识为纽带,打造成一个集商务、商业、教育、文化、娱乐、艺术、餐饮、会展等于一体的完整城市性生态体系。项目全部投入使用后,年租金收入将超6亿元。\n"
109
+
110
+ result = tokenizer(
111
+ [sentecnce],
112
+ padding=False,
113
+ max_length=2048,
114
+ truncation=True,
115
+ return_tensors="pt",
116
+ ).to("cuda")
117
+ result["input_ids"].to(dtype=torch.bfloat16)
118
+
119
+ model_out = model(**result)
120
+ predict_label_id = torch.argmax(model_out.logits, dim=-1).tolist()[0]
121
+ predict_label_str = id2label[predict_label_id]
122
+ ```