您的位置:宽带测速网 > 编程知识 > 如何在PyTorch中使用GPU加速计算

如何在PyTorch中使用GPU加速计算

2025-06-23 19:26来源:互联网 [ ]

在PyTorch中使用GPU加速计算可以通过以下步骤实现:

    检查是否有可用的GPU设备:
import torchif torch.cuda.is_available():print("GPU is available!")else:print("GPU is not available.")
    将Tensor对象移动到GPU设备上:
# 创建一个Tensor对象x = torch.randn(3, 3)# 将Tensor对象移动到GPU设备上x = x.to('cuda')
    在定义模型时指定使用GPU设备:
import torch.nn as nn# 定义一个简单的神经网络模型class SimpleNN(nn.Module):def __init__(self):super(SimpleNN, self).__init__()self.fc1 = nn.Linear(10, 5)self.fc2 = nn.Linear(5, 2)def forward(self, x):x = self.fc1(x)x = self.fc2(x)return x# 创建模型实例并将其移动到GPU设备上model = SimpleNN()model = model.to('cuda')
    在训练过程中使用GPU设备:
# 将输入数据和标签移动到GPU设备上inputs = inputs.to('cuda')labels = labels.to('cuda')# 使用GPU设备进行前向传播和反向传播outputs = model(inputs)loss = criterion(outputs, labels)loss.backward()optimizer.step()

通过以上步骤,可以在PyTorch中使用GPU加速计算,提高训练模型的速度和效率。