对图像卷积操作后,接下来是先激活还是先池化,现在存在两种顺序:

  1. 卷积 -> 激活 -> 池化
  2. 卷积 -> 池化 -> 激活

先给出结论:

  • 如果使用最大池化,两种顺序的结果是一样的。
  • 如果使用平均池化,建议采用第1种顺序,即卷积 -> 激活 -> 池化


现在使用代码说明:

使用最大池化

def maxpooling_order():
    """
    最大池化顺序
    :return:
    """
    img = torch.randn(1, 1, 7, 7)
    conv = nn.Conv2d(1, 1, 3, 1)
    pool = nn.MaxPool2d(2)
    relu = nn.ReLU()

    conv_img = conv(img)
    print("卷完后的结果:\n", conv_img)

    # 先激活再池化
    x1 = relu(conv_img)
    x1 = pool(x1)
    print("先激活再最大池化:\n", x1)

    # 先池化再激活
    x2 = pool(conv_img)
    x2 = relu(x2)
    print("先最大池化再激活:\n", x2)


"""
卷完后的结果:
 tensor([[[[ 0.0489, -0.5657, -0.1745,  0.1998,  0.1667],
          [ 0.0288, -0.4943, -0.5088,  0.6079, -0.2137],
          [-0.6882,  0.2084, -0.9552,  0.4098, -0.0591],
          [ 0.4386, -0.4203,  0.8329, -0.9906,  0.5458],
          [ 1.2271,  0.1976,  0.0591,  1.4228, -2.0060]]]],
       grad_fn=<ThnnConv2DBackward>)
先激活再最大池化:
 tensor([[[[0.0489, 0.6079],
          [0.4386, 0.8329]]]], grad_fn=<MaxPool2DWithIndicesBackward>)
先最大池化再激活:
 tensor([[[[0.0489, 0.6079],
          [0.4386, 0.8329]]]], grad_fn=<ReluBackward0>)
"""

结论:两种顺序的结果一致

使用平均池化

def avgpooling_order():
    """
    平均池化顺序
    :return:
    """
    img = torch.randn(1, 1, 7, 7)
    conv = nn.Conv2d(1, 1, 3, 1)
    pool = nn.AvgPool2d(2)
    relu = nn.ReLU()

    conv_img = conv(img)
    print("卷完后的结果:\n", conv_img)

    # 先激活再池化
    x1 = relu(conv_img)
    x1 = pool(x1)
    print("先激活再平均池化:\n", x1)

    # 先池化再激活
    x2 = pool(conv_img)
    x2 = relu(x2)
    print("先平均池化再激活:\n", x2)


"""
卷完后的结果:
 tensor([[[[-0.5341, -0.2345,  0.8252,  0.1597,  0.7983],
          [-1.5555, -0.1043, -0.1961,  0.1143,  0.7206],
          [-0.6428,  0.2705, -2.1325,  0.1707,  0.9366],
          [ 1.2081,  0.3856, -2.1711,  0.0173, -0.2482],
          [ 0.8903, -0.6599,  0.9174, -0.4508, -1.2815]]]],
       grad_fn=<ThnnConv2DBackward>)
先激活再平均池化:
 tensor([[[[0.0000, 0.2748],
          [0.4661, 0.0470]]]], grad_fn=<AvgPool2DBackward>)
先平均池化再激活:
 tensor([[[[0.0000, 0.2258],
          [0.3054, 0.0000]]]], grad_fn=<ReluBackward0>)

"""

结论:
先激活,保留的有效特征(不为零的值)更多
先平均池化,会有更多的特征值变为0,不利于网络学习



-----------------------------华丽分割线-----------------------------

2021.5.1更新

得出上述结论,是因为使用的激活函数是ReLU,如果使用其他激活函数,如PReLU,先池化还是先激活,两者都不会造成梯度消失。

此情形下,应当优先选择先池化,再激活,以减少激活时的计算量。

Logo

为开发者提供学习成长、分享交流、生态实践、资源工具等服务,帮助开发者快速成长。

更多推荐