关于卷积后通道数变化的问题
如下图所示,这个是MNIST的神经网络,在学习CNN的过程中我我发现一个问题,为什么单通道的输入图像卷积之后变成了32个通道这个是我自己的想法:官方的说法就是通道数就是使用的卷积核的个数,其实说的通俗一些就是:像下面这张图一样,假设我们输入的图是RGB3通道的,如果我们只卷积一次,就只会输出一个值,但是输入图片是三个通道的,现在通道倒反还减少了,我觉得这样不好,所以我又做了一个卷积核再让他卷积(卷
·
如下图所示,这个是MNIST的神经网络,在学习CNN的过程中我发现一个问题,为什么单通道的输入图像卷积之后变成了32个通道
这个是我自己的想法:官方的说法就是通道数就是使用的卷积核的个数,其实说的通俗一些就是:像下面这张图一样,假设我们输入的图是RGB3通道的,如果我们只卷积一次,就只会输出一个值,但是输入图片是三个通道的,现在通道倒反还减少了,我觉得这样不好,所以我又做了一个卷积核再让他卷积(卷积核的形状一样,但是里面的w都是随机值,所以不用担心卷积的结果会重复),于是现在输出就有两个了,然后我们就可以多来几次,比如说来32次这种操作就可以得到一个32通道的输出了,然后输出的通道数就叫做feature map
一定要注意用很多个卷积核的时候,每个卷积核的偏置是不同的,我认为这也就是为什么要用很多个卷积核的原因,因为偏置这个东西说白了就是想让我们更偏向于某一部分的数据,但是如果我们只卷积一次就有点不公平,所以我们卷积很多次,每次都偏向不同的数据,这样就不会出现比较极端的情况。
至于这个32个通道,我觉得是根据设计者来决定的。
更多推荐
已为社区贡献2条内容
所有评论(0)