Update From- PyTorch-DDP-to-Accelerate-to-Trainer-cn.md
Browse files
From- PyTorch-DDP-to-Accelerate-to-Trainer-cn.md
CHANGED
@@ -131,7 +131,7 @@ def cleanup():
|
|
131 |
|
132 |
最后一个疑问是,我怎样把我的数据和模型发送到另一个GPU上?
|
133 |
|
134 |
-
这正是` DistributedDataParallel`模块发挥作用的地方, 它将您的模型复制到每个 GPU 上 ,并且当`loss.backward()
|
135 |
|
136 |
下面是我们的训练设置示例,我们使用了DistributedDataParallel重构了训练函数:
|
137 |
|
|
|
131 |
|
132 |
最后一个疑问是,我怎样把我的数据和模型发送到另一个GPU上?
|
133 |
|
134 |
+
这正是` DistributedDataParallel`模块发挥作用的地方, 它将您的模型复制到每个 GPU 上 ,并且当`loss.backward()`被调用进行反向传播的时候,所有这些模型副本的梯度将被同步地平均/下降(reduce)。这确保每个设备在执行优化器步骤后具有相同的权重。
|
135 |
|
136 |
下面是我们的训练设置示例,我们使用了DistributedDataParallel重构了训练函数:
|
137 |
|