训练集有m个训练样本构成: (x(1),y(1)) ( x ( 1 ) , y ( 1 ) ) 表示样本一的输入和输出; (x(2),y(2)) ( x ( 2 ) , y ( 2 ) ) 表示样本二的输入和输出… (x(m),y(m)) ( x ( m ) , y ( m ) ) ,这些样本整个一起就表示训练集,m表示训练样本的个数。 m=mtrain(训练集),m=mtest(测试集) m = m t r a i n ( 训 练 集 ) , m = m t e s t ( 测 试 集 ) ;
* 神经网络中,特征参数向量 w w 和截距bb通常看做独立的参数,不像红色公式中那样表达会更好(红色公式在本课程中不会使用)
2.3 logistic回归损失函数
吴恩达深度学习第一课第二周第二周 神经网络基础
logistic的损失函数是: −(ylogŷ +(1−y)log(1−ŷ )) − ( y l o g y ^ + ( 1 − y ) l o g ( 1 − y ^ ) ) (logistic的损失函数之所以不用 12(ŷ −y)2 1 2 ( y ^ − y ) 2 是因为这个损失函数在使用梯度下降法时可能会产生非凸优化问题)。
* 损失函数适用于单个训练样本;而成本函数是基于参数的总成本,在训练logistic模型时,我们要找到合适的参数 w w 和bb,就是找到让的成本函数 J J 尽可能小的ww和 b b 。
打卡(2)
2.4 梯度下降法
吴恩达深度学习第一课第二周第二周 神经网络基础
通过梯度下降法求解使得成本函数最小的参数向量ww和截距 b b 。
吴恩达深度学习第一课第二周第二周 神经网络基础
* 编写代码时ww的对 J(w,b) J ( w , b ) 的偏微分用 dw d w 表示, b b 的偏微分用dbdb表示
2.5 导数
(略)
2.6 更多的导数例子
(略)
2.7 流程图
吴恩达深度学习第一课第二周第二周 神经网络基础
* 流程图是用蓝色箭头画出来的,从左到右的计算
* 流程图的导数是用红色箭头画出来的,从右到左
2.8 流程图的导数计算(反向传播)
吴恩达深度学习第一课第二周第二周 神经网络基础
2.9 logistic回归中的梯度下降
吴恩达深度学习第一课第二周第二周 神经网络基础
* "dz"=dlda∗dadz " d z "= d l d a ∗ d a d z ,
其中,
a=σ(z)=11+e−z a = σ ( z ) = 1 1 + e − z
dadz=e−z(1+e−z)2=1(1+e−z)(1−11+e−z)=a(1−a) d a d z = e − z ( 1 + e − z ) 2 = 1 ( 1 + e − z ) ( 1 − 1 1 + e − z ) = a ( 1 − a )
"dz"=a−ya(1−a)∗a(1−a)=a−y " d z "= a − y a ( 1 − a ) ∗ a ( 1 − a ) = a − y
打卡(3)
2.10 m个样本的梯度下降
吴恩达深度学习第一课第二周第二周 神经网络基础
吴恩达深度学习第一课第二周第二周 神经网络基础
2.11 向量化
Z=wTx+b Z = w T x + b ,
其中, w,x w , x 都是列向量;
代码表示为:
import numpy as np
a=np,array([,,,])
print(a)
>>>[ ]