sakuraumi commited on
Commit
a02e4db
·
1 Parent(s): 0f3e4ac

Update README.md

Browse files
Files changed (1) hide show
  1. README.md +17 -0
README.md CHANGED
@@ -216,6 +216,23 @@ pipeline_tag: text-generation
216
 
217
  根据transformers文档中给出的AutoGPTQ量化教程自行量化,或使用我们已经量化好的模型。
218
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
219
  # 微调
220
 
221
  流程与LLaMA2(v0.1-v0.4)/Baichuan2(v0.5+)/Qwen14B(v0.7)一致,prompt构造参考推理部分
 
216
 
217
  根据transformers文档中给出的AutoGPTQ量化教程自行量化,或使用我们已经量化好的模型。
218
 
219
+ 使用量化模型推理的示例代码(v0.8与v0.5版本):
220
+
221
+ ```python
222
+ from transformers import AutoTokenizer, GenerationConfig
223
+ from auto_gptq import AutoGPTQForCausalLM
224
+
225
+ path = "path/to/your/model"
226
+ text = "" #要翻译的文本
227
+
228
+ generation_config = GenerationConfig.from_pretrained(path)
229
+ tokenizer = AutoTokenizer.from_pretrained(path, use_fast=False, trust_remote_code=True)
230
+ model = AutoGPTQForCausalLM.from_quantized(path, device="cuda:0", trust_remote_code=True)
231
+
232
+ response = tokenizer.decode(model.generate(**tokenizer(f"<reserved_106>将下面的日文文本翻译成中文:{text}<reserved_107>", return_tensors="pt").to(model.device), generation_config=generation_config)[0]).replace("</s>", "").split("<reserved_107>")[1]
233
+ print(response)
234
+ ```
235
+
236
  # 微调
237
 
238
  流程与LLaMA2(v0.1-v0.4)/Baichuan2(v0.5+)/Qwen14B(v0.7)一致,prompt构造参考推理部分