Update README.md
Browse files
README.md
CHANGED
@@ -216,6 +216,23 @@ pipeline_tag: text-generation
|
|
216 |
|
217 |
根据transformers文档中给出的AutoGPTQ量化教程自行量化,或使用我们已经量化好的模型。
|
218 |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
219 |
# 微调
|
220 |
|
221 |
流程与LLaMA2(v0.1-v0.4)/Baichuan2(v0.5+)/Qwen14B(v0.7)一致,prompt构造参考推理部分
|
|
|
216 |
|
217 |
根据transformers文档中给出的AutoGPTQ量化教程自行量化,或使用我们已经量化好的模型。
|
218 |
|
219 |
+
使用量化模型推理的示例代码(v0.8与v0.5版本):
|
220 |
+
|
221 |
+
```python
|
222 |
+
from transformers import AutoTokenizer, GenerationConfig
|
223 |
+
from auto_gptq import AutoGPTQForCausalLM
|
224 |
+
|
225 |
+
path = "path/to/your/model"
|
226 |
+
text = "" #要翻译的文本
|
227 |
+
|
228 |
+
generation_config = GenerationConfig.from_pretrained(path)
|
229 |
+
tokenizer = AutoTokenizer.from_pretrained(path, use_fast=False, trust_remote_code=True)
|
230 |
+
model = AutoGPTQForCausalLM.from_quantized(path, device="cuda:0", trust_remote_code=True)
|
231 |
+
|
232 |
+
response = tokenizer.decode(model.generate(**tokenizer(f"<reserved_106>将下面的日文文本翻译成中文:{text}<reserved_107>", return_tensors="pt").to(model.device), generation_config=generation_config)[0]).replace("</s>", "").split("<reserved_107>")[1]
|
233 |
+
print(response)
|
234 |
+
```
|
235 |
+
|
236 |
# 微调
|
237 |
|
238 |
流程与LLaMA2(v0.1-v0.4)/Baichuan2(v0.5+)/Qwen14B(v0.7)一致,prompt构造参考推理部分
|