简化的代价函数和梯度下降
- 简化代价函数
- 梯度下降
逻辑回归的代价函数:
这个式子可以合并成:
要试图找出让 $J(\theta)$取得最小值的参数$\theta$。
梯度下降
最小化代价函数的方法,是使用梯度下降法(gradient descent)。这是通常用的梯度下降法的模板:
反复更新每个参数,用这个式子减去学习率 α 乘以后面的微分项。求导后得到:
计算得到等式:
来它同时更新所有$\theta$的值。
这个更新规则和之前用来做线性回归梯度下降的式子是一样的, 但是假设的定义发生了变化。即使更新参数的规则看起来基本相同,但由于假设的定义发生了变化,所以逻辑函数的梯度下降,跟线性回归的梯度下降实际上是两个完全不同的东西。
牛刀小试
Todo: 列出你知道的梯度下降的技巧
答:监控梯度下降法以确保其收敛、参数向量化、特征缩放等