Upload ./README_zh.md with huggingface_hub
Browse files- README_zh.md +13 -2
README_zh.md
CHANGED
@@ -3,7 +3,7 @@
|
|
3 |
语言: [**English**](https://huggingface.co/Tencent-Hunyuan/TensorRT-libs/blob/main/README.md) | **中文**
|
4 |
|
5 |
我们提供了将 [混元-DiT](https://github.com/Tencent/HunyuanDiT) 中的文生图模型转换为 TensorRT 的代码和相关依赖用于推理加速
|
6 |
-
(比 Flash Attention 更快). 您可以使用以下步骤使用我们 TensorRT 模型, 基于 **TensorRT-
|
7 |
|
8 |
> ⚠️ **重要提醒 (关于TensorRT加速版本测试的建议)**:
|
9 |
> 我们建议用户在 Compute Capability>=8.0 的 NVIDIA 显卡上测试 TensorRT 版本, (例如, RTX4090, RTX3090, H800, A10/A100/A800 等)
|
@@ -55,11 +55,22 @@ ln -s ${REMOTE_PATH} ./ckpts/t2i/model_trt/engine/model_onnx.plan
|
|
55 |
#### 方法2: 自行构建 engine
|
56 |
如果您使用不同于上面表格中的 GPU, 可以使用以下命令构建适配于当前 GPU 的 engine.
|
57 |
|
|
|
|
|
58 |
```shell
|
59 |
-
#
|
60 |
sh trt/build_engine.sh
|
61 |
```
|
62 |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
63 |
### 4. 使用 TensorRT 模型进行推理.
|
64 |
|
65 |
```shell
|
|
|
3 |
语言: [**English**](https://huggingface.co/Tencent-Hunyuan/TensorRT-libs/blob/main/README.md) | **中文**
|
4 |
|
5 |
我们提供了将 [混元-DiT](https://github.com/Tencent/HunyuanDiT) 中的文生图模型转换为 TensorRT 的代码和相关依赖用于推理加速
|
6 |
+
(比 Flash Attention 更快). 您可以使用以下步骤使用我们 TensorRT 模型, 基于 **TensorRT-10.1.0.27** 和 **cuda (11.7 或 11.8)**.
|
7 |
|
8 |
> ⚠️ **重要提醒 (关于TensorRT加速版本测试的建议)**:
|
9 |
> 我们建议用户在 Compute Capability>=8.0 的 NVIDIA 显卡上测试 TensorRT 版本, (例如, RTX4090, RTX3090, H800, A10/A100/A800 等)
|
|
|
55 |
#### 方法2: 自行构建 engine
|
56 |
如果您使用不同于上面表格中的 GPU, 可以使用以下命令构建适配于当前 GPU 的 engine.
|
57 |
|
58 |
+
##### Hunyuan-DiT v1.2
|
59 |
+
|
60 |
```shell
|
61 |
+
# Build the TensorRT engine. By default, it will read the `ckpts` folder in the current directory.
|
62 |
sh trt/build_engine.sh
|
63 |
```
|
64 |
|
65 |
+
##### 使用旧版本模型, Hunyuan-DiT <= v1.1
|
66 |
+
```shell
|
67 |
+
# v1.1
|
68 |
+
sh trt/build_engine.sh 1.1
|
69 |
+
# v1.0
|
70 |
+
sh trt/build_engine.sh 1.0
|
71 |
+
```
|
72 |
+
|
73 |
+
如果你看到日志打印出 `&&&& PASSED TensorRT.trtexec [TensorRT v10100]`, 说明引擎文件已经成功生成了。
|
74 |
### 4. 使用 TensorRT 模型进行推理.
|
75 |
|
76 |
```shell
|