Update README.md
Browse files
README.md
CHANGED
@@ -54,6 +54,31 @@ translated_text = tokenizer.decode(translated_ids[0], skip_special_tokens=True)
|
|
54 |
print("Vietnamese Translation:", translated_text) # 'Ai biết, nửa đêm về nhà phát hiện ra mình quên chìa khóa, trong nhà không có ai, lúc này nguyện vọng lớn nhất của ngươi là gì? Đáp án chính xác là gì?'
|
55 |
print("\nTruth:", truth) # 'Ai biết nửa đêm về nhà phát hiện mình quên chìa khoá , trong nhà lại không có ai thì lúc này muốn nhất là cái gì ? Câu trả lời là gì thế anh em ?'
|
56 |
```
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
57 |
## Training Data
|
58 |
|
59 |
<!-- This should link to a Data Card, perhaps with a short stub of information on what the training data is all about as well as documentation related to data pre-processing or additional filtering. -->
|
|
|
54 |
print("Vietnamese Translation:", translated_text) # 'Ai biết, nửa đêm về nhà phát hiện ra mình quên chìa khóa, trong nhà không có ai, lúc này nguyện vọng lớn nhất của ngươi là gì? Đáp án chính xác là gì?'
|
55 |
print("\nTruth:", truth) # 'Ai biết nửa đêm về nhà phát hiện mình quên chìa khoá , trong nhà lại không có ai thì lúc này muốn nhất là cái gì ? Câu trả lời là gì thế anh em ?'
|
56 |
```
|
57 |
+
|
58 |
+
### Faster inference on OnnxT5 model
|
59 |
+
```python
|
60 |
+
from fastT5 import get_onnx_runtime_sessions, OnnxT5
|
61 |
+
from transformers import T5Config, AutoTokenizer, T5ForConditionalGeneration
|
62 |
+
|
63 |
+
quant_model_paths= tuple(['viT5_han-vie_v1-encoder-quantized.onnx',
|
64 |
+
'viT5_han-vie_v1-decoder-quantized.onnx',
|
65 |
+
'viT5_han-vie_v1-init-decoder-quantized.onnx'])
|
66 |
+
|
67 |
+
model_sessions = get_onnx_runtime_sessions(quant_model_paths)
|
68 |
+
model = OnnxT5('haruyuu/viT5_han-vie_v1.1', model_sessions)
|
69 |
+
|
70 |
+
input_text = mapping('谁知道 “ 你三更半夜回家发现自己忘记带钥匙,家里又没有其他人在,这时你最大的愿望是什么? ” 的正确答案是什么呀?')
|
71 |
+
input_ids = tokenizer.encode(input_text, return_tensors="pt")
|
72 |
+
translated_ids = onnx_model.generate(input_ids,
|
73 |
+
num_beams = 6,
|
74 |
+
max_length = 512,
|
75 |
+
bad_words_ids = [[6270]])
|
76 |
+
translated_text = tokenizer.decode(translated_ids[0], skip_special_tokens=True)
|
77 |
+
|
78 |
+
print("Vietnamese Translation:", translated_text) # 'Ai biết, nửa đêm về nhà phát hiện ra mình quên chìa khóa, trong nhà không có ai, lúc này nguyện vọng lớn nhất của ngươi là gì? Đáp án chính xác là gì?'
|
79 |
+
print("\nTruth:", truth) # 'Ai biết nửa đêm về nhà phát hiện mình quên chìa khoá , trong nhà lại không có ai thì lúc này muốn nhất là cái gì ? Câu trả lời là gì thế anh em ?'
|
80 |
+
```
|
81 |
+
|
82 |
## Training Data
|
83 |
|
84 |
<!-- This should link to a Data Card, perhaps with a short stub of information on what the training data is all about as well as documentation related to data pre-processing or additional filtering. -->
|