理解代价函数

代价函数的直观理解 I

本节强烈建议观看视频理解,以下仅列出关键步骤。

回顾上文,我们已经得到了单线性回归的模型:

hypothesis(假设):
$h_{0}(x) = \theta_{0} + \theta_{1}x$

parameters(参数):
$\theta_{0}$ , $\theta_{1}$
通过选择不同的参数,会得到不同的直线拟合.

Cost Function(代价函数):
$J(\theta_{0}, \theta_{1}) = \frac{1}{2m}\sum_{i=1}^m(h_{0}(x^{(i)})-y^{(i)})^{2}$

Goal:
$minimize_{\theta_{0},\theta_{1}}J(\theta_{0}, \theta_{1})$
我们的优化目标是,最小化代价函数

为理解方便,本节讲解中将h函数简化为$h_{0}(x) =\theta_{1}x$,即设$\theta_{0}=0$

首先明确一个概念:

  • 在假设h中,$\theta_{1}$是一个固定的参数,只有$x$才是自变量。因变量为预测值 $h_{0}(x)$
  • 在优化函数$J(\theta)$中,$\theta_{1}$是自变量,因变量为预测值$h_{0}(x)$与真实值$y$的误差$J(\theta)$

从这里开始,用实例来说明,不同的 $\theta_{1}$ , 代价函数的值.建议查看视频理解代价函数

由此我们可以画出假设h和优化函数$J(\theta)$对应的函数图像。