定义模型,卷积层
def conv2d(x, W, b, strides = 1)
"""
生成卷积层(ReLU)
:param x:输入
:param W:权值
:param b:偏置
:param strides:滑动步幅
:return:
"""
x = tf.nn.conv2d(x, W, strides = [1, strides, strides, 1], padding='SAME') #卷积层,输入x的权重为W, strides滑动步幅,边界不足时用0填充
x = tf.nn.bias_add(x,b) #添加偏置b
return tf.nn.relu(x) #激活函数为ReLU
注意程序的开头需要导入tensorflow包:
import tensorflow as tf
其中tf.nn.conv2d是tensorflow包中的二维卷积函数,tf.nn.bias_add是对x添加偏置的函数,而tf.nn.relu则是激活函数。由此可见,我们自定义函数conv2d,将加权、偏置和经过激活函数集成到了一起,当构建网络的时候,只需要将它作为模块垒在一起变可以了。
tf.nn.conv2d中的strides = [1, strides, strides, 1],这是它的固定用法,即前后两个1是固定的,我们能修改的步幅只有中间两个数。
padding = 'SAME'是针对卷积而言的,因为卷积核具有一定的尺寸,那势必会带来卷积时边界的处理问题,'SAME'模式下,图像的边缘会添加‘0’值,添加的多少与卷积核的大小有关系。
当filter的中心(K)与image的边角重合时,开始做卷积运算。注意:这里的same还有一个意思,卷积之后输出的feature map尺寸保持不变(相对于输入图片)。当然,same模式不代表完全输入输出尺寸一样,也跟卷积核的步长有关系。same模式也是最常见的模式,因为这种模式可以在前向传播的过程中让特征图的大小保持不变,调参师不需要精准计算其尺寸变化(因为尺寸根本就没变化)。
还有一种模式是“valid”,该模式下,当filter全部在image里面的时候,进行卷积运算,可见filter的移动范围较same更小了。
tensorflow中只有两种padding方法,如果padding设置为SAME,则说明输入图片大小和输出图片大小是一致的,如果是VALID则图片经过滤波器后可能会变小。
假设:
输入:W*W
Filter:F*F
步幅:S
输出: N*N
则在valid模式下
N = W/S
在same模式下:
N = (W-F+1)/S
下面是池化层,池化层也被称之为下采样层,经常接在卷积层后面,其主要作用有:
1、降低数据维度,并保留有效信息;
2、一定程度上避免过拟合。
ef maxpool2d(x, k=2):
"""
生成最大池化层
:param x: 输入
:param k: 窗口及步幅大小
:return:
"""
return tf.nn.max_pool(x, ksize=[1, k, k, 1], strides=[1, k, k, 1], padding='SAME') # 最大池化层,ksize窗口大小,strides滑动步幅