PyTorch中的数据并行处理是怎样的

技术PyTorch中的数据并行处理是怎样的PyTorch中的数据并行处理是怎样的,针对这个问题,这篇文章详细介绍了相对应的分析和解答,希望可以帮助更多想解决这个问题的小伙伴找到更简单易行的方法。通过 PyTorch 使用

PyTorch中的数据并行处理是什么?针对这个问题,本文详细介绍了相应的分析和解决方法,希望能帮助更多想要解决这个问题的小伙伴找到更简单易行的方法。

通过PyTorch使用多个GPU非常简单。你可以把模型放在图形处理器上:

设备=torch . device(' cuda 33600 ')型号. to(设备)然后,您可以将所有张量复制到GPU:

张量=my_tensor.to(设备)请注意,仅仅调用my_tensor.to(设备)就会在GPU上返回my_tensor的新副本,而不是重写my_tensor。你需要给他分配一个新的张量,并在GPU上使用。

在多GPU中执行前馈和反馈操作是非常自然的。即便如此,默认情况下PyTorch也只会使用一个GPU。通过使用DataParallel并行运行您的模型,您可以轻松地在多个GPU上运行您的操作。

模型=nn。DataParallel(模型)这是整个教程的核心,接下来我们将详细解释。

引用和参数

介绍PyTorch模块并定义参数

importtomportforce . nnansfrommforce . utils . dataimportdataset,dataloader #参数

输入大小=5输出大小=2批处理大小=30数据大小=100个设备

device=torch . device(' cuda :0 ' if torch . cuda . is _ available()else ' CPU ')实验(玩具)数据

生成一个玩具数据。你只需要实现getitem。

分类数据集(数据集):

def__init__(自身,大小,长度):

self.len=长度

self.data=torch.randn(长度、尺寸)

def__getitem__(自身,索引):

returnself.data[index]

def__len__(self):

returnself . lenrand _ loader=DataLoader(数据集=RandomDataset(input_size,data_size),batch_size=batch_size,shuffle=True)简单模型

为了做一个小演示,我们的模型只接受输入,执行线性运算,然后给出输出。然而,你可以在任何模型中使用数据并行(美国有线电视新闻网、RNN、胶囊网等)。)

我们在模型中放入一个输出声明来检测输出和输入张量的大小。注意批量排名0的输出。

classModel(nn。模块):

#我们的模型

def__init__(自身,输入_大小,输出_大小):

不间断空格

;super(Model, self).__init__()
        self.fc = nn.Linear(input_size, output_size)
    def forward(self, input):
        output = self.fc(input)
        print("\tIn Model: input size", input.size(),
              "output size", output.size())
        return output

创建模型并且数据并行处理

这是整个教程的核心。首先我们需要一个模型的实例,然后验证我们是否有多个 GPU。如果我们有多个 GPU,我们可以用 nn.DataParallel 来   包裹 我们的模型。然后我们使用 model.to(device) 把模型放到多 GPU 中。

model = Model(input_size, output_size)if torch.cuda.device_count() > 1:
  print("Let's use", torch.cuda.device_count(), "GPUs!")
  # dim = 0 [30, xxx] -> [10, ...], [10, ...], [10, ...] on 3 GPUs
  model = nn.DataParallel(model)model.to(device)

输出:

Let's use 2 GPUs!

运行模型:

现在我们可以看到输入和输出张量的大小了。

for data in rand_loader:
    input = data.to(device)
    output = model(input)
    print("Outside: input size", input.size(),
          "output_size", output.size())

输出:

In Model: input size torch.Size([15, 5]) output size torch.Size([15, 2])
        In Model: input size torch.Size([15, 5]) output size torch.Size([15, 2])
Outside: input size torch.Size([30, 5]) output_size torch.Size([30, 2])
        In Model: input size torch.Size([15, 5]) output size torch.Size([15, 2])
        In Model: input size torch.Size([15, 5]) output size torch.Size([15, 2])
Outside: input size torch.Size([30, 5]) output_size torch.Size([30, 2])
        In Model: input size torch.Size([15, 5]) output size torch.Size([15, 2])
        In Model: input size torch.Size([15, 5]) output size torch.Size([15, 2])
Outside: input size torch.Size([30, 5]) output_size torch.Size([30, 2])
        In Model: input size torch.Size([5, 5]) output size torch.Size([5, 2])
        In Model: input size torch.Size([5, 5]) output size torch.Size([5, 2])
Outside: input size torch.Size([10, 5]) output_size torch.Size([10, 2])

结果:

如果你没有 GPU 或者只有一个 GPU,当我们获取 30 个输入和 30 个输出,模型将期望获得 30 个输入和 30 个输出。但是如果你有多个 GPU ,你会获得这样的结果。

多 GPU

如果你有 2 个GPU,你会看到:

# on 2 GPUsLet's use 2 GPUs!
    In Model: input size torch.Size([15, 5]) output size torch.Size([15, 2])
    In Model: input size torch.Size([15, 5]) output size torch.Size([15, 2])Outside: input size torch.Size([30, 5]) output_size torch.Size([30, 2])
    In Model: input size torch.Size([15, 5]) output size torch.Size([15, 2])
    In Model: input size torch.Size([15, 5]) output size torch.Size([15, 2])Outside: input size torch.Size([30, 5]) output_size torch.Size([30, 2])
    In Model: input size torch.Size([15, 5]) output size torch.Size([15, 2])
    In Model: input size torch.Size([15, 5]) output size torch.Size([15, 2])Outside: input size torch.Size([30, 5]) output_size torch.Size([30, 2])
    In Model: input size torch.Size([5, 5]) output size torch.Size([5, 2])
    In Model: input size torch.Size([5, 5]) output size torch.Size([5, 2])Outside: input size torch.Size([10, 5]) output_size torch.Size([10, 2])

如果你有 3个GPU,你会看到:

Let's use 3 GPUs!
    In Model: input size torch.Size([10, 5]) output size torch.Size([10, 2])
    In Model: input size torch.Size([10, 5]) output size torch.Size([10, 2])
    In Model: input size torch.Size([10, 5]) output size torch.Size([10, 2])Outside: input size torch.Size([30, 5]) output_size torch.Size([30, 2])
    In Model: input size torch.Size([10, 5]) output size torch.Size([10, 2])
    In Model: input size torch.Size([10, 5]) output size torch.Size([10, 2])
    In Model: input size torch.Size([10, 5]) output size torch.Size([10, 2])Outside: input size torch.Size([30, 5]) output_size torch.Size([30, 2])
    In Model: input size torch.Size([10, 5]) output size torch.Size([10, 2])
    In Model: input size torch.Size([10, 5]) output size torch.Size([10, 2])
    In Model: input size torch.Size([10, 5]) output size torch.Size([10, 2])Outside: input size torch.Size([30, 5]) output_size torch.Size([30, 2])
    In Model: input size torch.Size([4, 5]) output size torch.Size([4, 2])
    In Model: input size torch.Size([4, 5]) output size torch.Size([4, 2])
    In Model: input size torch.Size([2, 5]) output size torch.Size([2, 2])Outside: input size torch.Size([10, 5]) output_size torch.Size([10, 2])

如果你有 8个GPU,你会看到:

Let's use 8 GPUs!
    In Model: input size torch.Size([4, 5]) output size torch.Size([4, 2])
    In Model: input size torch.Size([4, 5]) output size torch.Size([4, 2])
    In Model: input size torch.Size([2, 5]) output size torch.Size([2, 2])
    In Model: input size torch.Size([4, 5]) output size torch.Size([4, 2])
    In Model: input size torch.Size([4, 5]) output size torch.Size([4, 2])
    In Model: input size torch.Size([4, 5]) output size torch.Size([4, 2])
    In Model: input size torch.Size([4, 5]) output size torch.Size([4, 2])
    In Model: input size torch.Size([4, 5]) output size torch.Size([4, 2])Outside: input size torch.Size([30, 5]) output_size torch.Size([30, 2])
    In Model: input size torch.Size([4, 5]) output size torch.Size([4, 2])
    In Model: input size torch.Size([4, 5]) output size torch.Size([4, 2])
    In Model: input size torch.Size([4, 5]) output size torch.Size([4, 2])
    In Model: input size torch.Size([4, 5]) output size torch.Size([4, 2])
    In Model: input size torch.Size([4, 5]) output size torch.Size([4, 2])
    In Model: input size torch.Size([4, 5]) output size torch.Size([4, 2])
    In Model: input size torch.Size([2, 5]) output size torch.Size([2, 2])
    In Model: input size torch.Size([4, 5]) output size torch.Size([4, 2])Outside: input size torch.Size([30, 5]) output_size torch.Size([30, 2])
    In Model: input size torch.Size([4, 5]) output size torch.Size([4, 2])
    In Model: input size torch.Size([4, 5]) output size torch.Size([4, 2])
    In Model: input size torch.Size([4, 5]) output size torch.Size([4, 2])
    In Model: input size torch.Size([4, 5]) output size torch.Size([4, 2])
    In Model: input size torch.Size([4, 5]) output size torch.Size([4, 2])
    In Model: input size torch.Size([4, 5]) output size torch.Size([4, 2])
    In Model: input size torch.Size([4, 5]) output size torch.Size([4, 2])
    In Model: input size torch.Size([2, 5]) output size torch.Size([2, 2])Outside: input size torch.Size([30, 5]) output_size torch.Size([30, 2])
    In Model: input size torch.Size([2, 5]) output size torch.Size([2, 2])
    In Model: input size torch.Size([2, 5]) output size torch.Size([2, 2])
    In Model: input size torch.Size([2, 5]) output size torch.Size([2, 2])
    In Model: input size torch.Size([2, 5]) output size torch.Size([2, 2])
    In Model: input size torch.Size([2, 5]) output size torch.Size([2, 2])Outside: input size torch.Size([10, 5]) output_size torch.Size([10, 2])

数据并行自动拆分了你的数据并且将任务单发送到多个 GPU 上。当每一个模型都完成自己的任务之后,DataParallel 收集并且合并这些结果,然后再返回给你。

关于PyTorch中的数据并行处理是怎样的问题的解答就分享到这里了,希望

内容来源网络,如有侵权,联系删除,本文地址:https://www.230890.com/zhan/133805.html

(0)

相关推荐

  • 小程序Vant组件如何将默认样式单位px转为rpx

    技术小程序Vant组件如何将默认样式单位px转为rpx本篇内容介绍了“小程序Vant组件如何将默认样式单位px转为rpx”的有关知识,在实际案例的操作过程中,不少人都会遇到这样的困境,接下来就让小编带领大家学习一下如何处

    攻略 2021年10月29日
  • 抖音免费涨粉丝网站,抖音涨人气方法介绍?

    技术抖音免费涨粉丝网站,抖音涨人气方法介绍?玩抖音的人应该更关注粉丝的数量。对于普通人来说,粉丝的数量也是用来填满大门的,最多是为了赢得人气。但是对于一些真正了解抖音的人来说,抖音刷粉丝们的这些简单的词汇并没有简单的含义

    测评 2021年10月21日
  • 香港云服务器:为什么您的博客需要香港云主机

    技术香港云服务器:为什么您的博客需要香港云主机您知道在运营博客类网站的时候为什么选择的云服务器很重要吗?让我们来看看稳定的香港云服务器对于博客类网站的实际作用,以及它如何与整个网站正常运营息息相关。虽然每个博客都会有所不

    礼包 2021年10月19日
  • C# PowerPoint中如何添加、修改和删除动画

    技术C# PowerPoint中如何添加、修改和删除动画小编给大家分享一下C# PowerPoint中如何添加、修改和删除动画,相信大部分人都还不怎么了解,因此分享这篇文章给大家参考一下,希望大家阅读完这篇文章后大有收获

    攻略 2021年11月19日
  • oracle中出现ORA-01102错误怎么办

    技术oracle中出现ORA-01102错误怎么办这篇文章主要介绍了oracle中出现ORA-01102错误怎么办,具有一定借鉴价值,感兴趣的朋友可以参考下,希望大家阅读完这篇文章之后大有收获,下面让小编带着大家一起了解

    攻略 2021年11月24日
  • Sqllibs 笔记

    技术Sqllibs 笔记 Sqllibs 笔记Sqllibs
    报错注入
    Background 1
    基础函数version()——MySQL 版本
    user()——数据库用户名
    database()——数

    礼包 2021年12月23日