04多元线性回归
多元线性回归
问题
- 假设函数
$$
h_\theta(x)=\theta_0+\theta_1x_1+\theta_2x+\theta_3x+\theta_4x\
= [\theta_0,\theta_1,\theta_2,\theta_3,\theta_4]\times[1,x_1,x_2,x_3,x_4]^T\
=\overrightarrow{\theta}^T\times\overrightarrow{x}
$$
- 代价函数
$$
J(\overrightarrow{\theta})=\frac{1}{2m}\sum_{i=1}^m(h_\theta(\overrightarrow{x}^{(i)})-y^{(i)})^2
$$
- 梯度下降
$$
\theta_j = \theta_j - \alpha\frac{\partial}{\partial\theta_j}J(\overrightarrow{\theta})
$$
特征放缩(归一化处理)
当一个假设函数的多个特征处在相同的范围的时候,函数会更快的收敛。
- 均值归一化
- 标准归一化
学习率
归一化之后的学习率在0-1之间。可以通过十倍差,寻找尝试寻找合适的学习率进行学习。
特征和多项式回归
梯度下降和以构建多项式项,用多项式的乘积项或者高阶项,进行梯度下降,一样可以拟合。
$$
y=\theta_0+\theta_1x_1^2+\theta_2x_1x_2+\theta_3x_1^2
$$
正规方程法
通过准确求值的方法,得到损失函数的最小值。
- X表示特征矩阵
- Y表示结果向量
- $\theta$参数向量
编程任务
- 使用梯度下降,拟合多个特征的多项式函数。
- 对原始数据进行归一化操作
- 选择不同的学习率观察损失函数的变换过程(收敛速度)
- 绘制梯度下降过程中,损失函数与学习率的关系
- 使用正规方程法求解多项式的系数。两者进行比较。
本博客所有文章除特别声明外,均采用 CC BY-NC-SA 4.0 许可协议。转载请注明来源 Estom的博客!









