天天看点

tensorflow卷积神经网络详解

定义模型,卷积层

def conv2d(x, W, b, strides = 1)
    """
    生成卷积层(ReLU)
    :param x:输入
    :param W:权值
    :param b:偏置
    :param strides:滑动步幅
    :return:
    """
    x = tf.nn.conv2d(x, W, strides = [1, strides, strides, 1], padding='SAME') #卷积层,输入x的权重为W, strides滑动步幅,边界不足时用0填充
    x = tf.nn.bias_add(x,b) #添加偏置b
    return tf.nn.relu(x)    #激活函数为ReLU
           

注意程序的开头需要导入tensorflow包:

import tensorflow as tf
           

其中tf.nn.conv2d是tensorflow包中的二维卷积函数,tf.nn.bias_add是对x添加偏置的函数,而tf.nn.relu则是激活函数。由此可见,我们自定义函数conv2d,将加权、偏置和经过激活函数集成到了一起,当构建网络的时候,只需要将它作为模块垒在一起变可以了。

tf.nn.conv2d中的strides = [1, strides, strides, 1],这是它的固定用法,即前后两个1是固定的,我们能修改的步幅只有中间两个数。

padding = 'SAME'是针对卷积而言的,因为卷积核具有一定的尺寸,那势必会带来卷积时边界的处理问题,'SAME'模式下,图像的边缘会添加‘0’值,添加的多少与卷积核的大小有关系。

当filter的中心(K)与image的边角重合时,开始做卷积运算。注意:这里的same还有一个意思,卷积之后输出的feature map尺寸保持不变(相对于输入图片)。当然,same模式不代表完全输入输出尺寸一样,也跟卷积核的步长有关系。same模式也是最常见的模式,因为这种模式可以在前向传播的过程中让特征图的大小保持不变,调参师不需要精准计算其尺寸变化(因为尺寸根本就没变化)。

tensorflow卷积神经网络详解

 还有一种模式是“valid”,该模式下,当filter全部在image里面的时候,进行卷积运算,可见filter的移动范围较same更小了。

tensorflow卷积神经网络详解

 tensorflow中只有两种padding方法,如果padding设置为SAME,则说明输入图片大小和输出图片大小是一致的,如果是VALID则图片经过滤波器后可能会变小。

假设:

输入:W*W

Filter:F*F

步幅:S

输出: N*N

则在valid模式下

N = W/S

在same模式下:

N = (W-F+1)/S

下面是池化层,池化层也被称之为下采样层,经常接在卷积层后面,其主要作用有:

1、降低数据维度,并保留有效信息;

2、一定程度上避免过拟合。

ef maxpool2d(x, k=2):
    """
    生成最大池化层
    :param x: 输入
    :param k: 窗口及步幅大小
    :return:
    """
    return tf.nn.max_pool(x, ksize=[1, k, k, 1], strides=[1, k, k, 1], padding='SAME')  # 最大池化层,ksize窗口大小,strides滑动步幅
           

继续阅读