吴恩达机器学习入门笔记5-正则化

时间:2019-09-19 13:04:50   收藏:0   阅读:107

5 正则化

给参数增加惩罚项,达到简化假设函数,降低过拟合的目的

5.1 正则化线性回归

5.1.1 正则化代价函数

\[ J(\theta)=\frac{1}{2 m}\left[\sum_{i=1}^{m}(h_{\theta}(x^{(i)})-y^{(i)})^{2}+\lambda \sum_{j=1}^{n} \theta_{j}^{2}\right]\tag{5.1} \]

右边加的项称为正则化项,\(\lambda\)称为正则化参数,有两个目标

  1. 更好地拟合训练集
  2. 保证1的同时尽量减小参数,保持假设模型简单避免出现过拟合情况

5.1.2 正则化梯度下降

技术分享图片

学习率\(\alpha\)很小,样本量m很大,因此正则化即每次将参数向0方向缩小一点

5.1.3 正则化正规方程

\[ \theta=\left(X^{T} X+\lambda\left[\begin{array}{cccc}{0} \\ {} & {1} \\ {} & {} & {1} \\ {} & {} & {} & {\ddots} \\ {} & {} & {} & {1}\end{array}\right]\right)^{-1} X^{T} y\tag{5.2} \]

其中加入的矩阵为(n+1)×(n+1)维

5.2 正则化逻辑回归

5.2.1 正则化代价函数

\[ \begin{aligned} J(\theta)=-[\frac{1}{m}\sum_{i=1}^{m} y^{(i)} \log h_{\theta}(x^{(i)})+(1-y^{(i)}) \log (1-h_{\theta}(x^{(i)}))]+\frac{\lambda}{2m}\sum_{j=1}^{n}\theta_j^2 \end{aligned}\tag{5.3} \]

5.2.2 正则化梯度下降

技术分享图片

5.2.3 正则化高级算法

技术分享图片

5.3 正则化与偏差方差的关系

技术分享图片

\(\lambda\)越大,训练集和验证集的偏差越大,\(\lambda\)越小,训练集的误差越小,验证集的方差越大

原文:https://www.cnblogs.com/jestland/p/11548491.html

评论(0
© 2014 bubuko.com 版权所有 - 联系我们:wmxa8@hotmail.com
打开技术之扣,分享程序人生!