天天看点

机器学习-线性回归-多维度特征变量

之前的几篇文章里面,我们都只是介绍了单维特征变量的线性回归模型,比如预测房价的时候,我们只用了房子的面积这个维度。

接下来我们会去研究多个维度的线性回归模型

还是从预测房价这个例子入手,假设我们现在不只是单纯的考虑房子的面积,还考虑了卧室的数量、楼层、房子年限等三个维数

得到了一个新的训练集

机器学习-线性回归-多维度特征变量

由于特征向量x的维度是多维,因此我们的表示发生了一些变化,如下图

机器学习-线性回归-多维度特征变量

因此,多个维度特征变量的线性回归的假设函数可定义为

机器学习-线性回归-多维度特征变量

还是假设X0 = 1

机器学习-线性回归-多维度特征变量

此时,函数h有n+1个参数θ0 ~ θn,同时特征向量x有n维,x1 ~ xn,特殊的是x0永远等于1

不难发现函数h是特征向量x(x0,x1 ... xn) 和 参数θ的转置矩阵的乘积,证明如下

机器学习-线性回归-多维度特征变量

因此,函数h可以简化为如下式子

机器学习-线性回归-多维度特征变量

同理,扩展到多维特征变量之后,代价函数J,如下所示

机器学习-线性回归-多维度特征变量

我们的目的也是通过多轮的迭代,找到最佳的参数θ0 ~ θn,使得函数J(θ0,θ1,...θn)的值最小

机器学习-线性回归-多维度特征变量
机器学习-线性回归-多维度特征变量
机器学习-线性回归-多维度特征变量

继续阅读