目录
  • 1.cnn卷积层
  • 2. 池化层
  • 3.数据批量标准化
  • 4.nn.module类
    • ①各类函数
    • ②容器功能
    • ③参数管理
    • ④调用gpu
    • ⑤存储和加载
    • ⑥训练、测试状态切换
    • ⑦ 创建自己的层
  • 5.数据增强

    1.cnn卷积层

    通过nn.conv2d可以设置卷积层,当然也有1d和3d。

    卷积层设置完毕,将设置好的输入数据,传给layer(),即可完成一次前向运算。也可以传给layer.forward,但不推荐。

    2. 池化层

    池化层的核大小一般是2*2,有2种方式:

    maxpooling:选择数据中最大值输出

    avgpooling:计算数据的均值并输出

    通过这一层可以实现降采样。

    3.数据批量标准化

    batch normalize,在计算过程中,通常输入的数据都是0-255的像素数据,不方便计算,因此可以通过nn.batchnorm1d方法进行标准化。

    标准化后,可以通过running_mean, running_var获取全局的均值和方差。

    4.nn.module类

    ①各类函数

    linear, relu, sigmoid, conv2d, dropout等等

    ②容器功能

    我们可以直接在定义自己的层的时候,把所有我们需要用到的层及相关函数放进去。使用的时候直接调用即可。

    ③参数管理

    在这个类中可以直接生成我们需要的参数,并且自动带上梯度的需求。

    ④调用gpu

    ⑤存储和加载

    训练过程中可以根据需求,比如训练到某一个点的时候达到了最优,可以将其存储。

    ⑥训练、测试状态切换

    直接调用根节点的train, eval就可以切换。

    ⑦ 创建自己的层

    还有其他功能,但现在还不理解,因此先不往上写了。

    5.数据增强

    数据增强主要用在我们数据不够用的时候,对原来的数据进行调整,从而生成新的数据。比如一张图片,我们可以对其进行翻转、旋转、大小调整、切割等操作 。导入数据的时候即可进行,具体实现方式如下。

    以上就是人工智能学习pytorch实现cnn卷积层及nn.module类示例分析的详细内容,更多关于pytorch中cnn及nn.module的资料请关注www.887551.com其它相关文章!