Linear Regression 线性回归
回归是能为一个或多个自变量与因变量之间关系建模的一类方法。回归经常用来表示输入和输出之间的关系。
在机器学习领域中的大多数任务通常都与预测 (prediction) 有关。当我们想预测一个数值时,就会涉及到回归问题。
线性回归基本元素
假设我们要开发一个能预测房价的模型,我们需要收集一个真实的数据集。这个数据集包括了房屋的销售价格、面积和房龄。
在机器学习的术语中,该数据集称为训练数据集或训练集。
每行数据 (比如一次房屋交易相对应的数据) 称为样本 (sample),也可以称为数据点(data point) 或数据样本(data instance)。
我们把试图预测的目标 (比如预测房屋价格) 称为标签或目标。预测所依据的自变量 (面积和房龄) 称为特征或协变量。
我们通常使用 $n$ 来表示数据集中的样本数,对索引为 $i$ 的样本,其输入表示为 $x^{(i)}=\left[x_{1}^{(i)}, x_{2}^{(i)}\right]^{\top}$ ,其对应标签为 $y^{(i)}$。
线性模型
线性假设是指目标 (房屋价格) 可以表示为特征 (面积和房龄) 的加权和。
$$
\text{price}=\omega_{\text{area}}\cdot\text{area}+\omega_{\text{age}}\cdot\text{age}+b
$$
$\omega_{\text{area}}$ 和 $\omega_{\text{age}}$ 称为权重 (weight),决定了每个特征对我们预测值的影响。
$b$ 称为偏置 (bias)、偏移量(offset) 或截距(intercept)。也就是噪声项。
我们的目标是寻找模型的权重 $\omega$ 和偏置 $b$,使得根据模型做出的预测大体符合数据里的真实价格。输出的预测值由输入特征通过线性模型的仿射变换决定,仿射变换由所选权重和偏置确定。
对于高维数据集,建模时采用线性代数表示法。输入包含 $d$ 个特征时,我们将预测结果 $\hat{y}$ 表示为:
$$
\hat{y}=\omega_1 x_1+\ldots+\omega_d x_d+b
$$
将所有特征放到向量 $x\in R^d$ 中,将所有权重放到向量 $\omega\in R^d$ 中,得到简洁的点积形式的表达式模型:
$$
\hat{y}=x^{\top}\omega+b
$$
矩阵 $X\in R^{n\times d}$ 可以很方便地引用我们整个数据集的 $n$ 个样本。其中,$X$ 的每一行是一个样本,每一列是一种特征。
对于特征集合 $X$,预测值 $\hat{y}\in R^n$ 可以通过矩阵 - 向量乘法表示为:
$$
\hat{y}=X\omega+b
$$
为了减少少量的观测误差出现,即使确信特征与标签的潜在关系是线性的,我们也会加入一个噪声项来考虑观测误差带来的影响。
损失函数
损失函数量化了目标的真实值与预测值之间的距离。
损失通常是一个非负值。数值越小越好,完美的预测会带来 0 损失。对于回归问题,最常见的损失函数是平方误差。
当我们在样本 $i$ 上的预测值是 $\hat{y}^{(i)}$,对应的真实标签是 $y^{(i)}$ 时,平方误差损失由下式给出:
$$
l^{(i)}(w, b)=\frac{1}{2}\left(\hat{y}^{(i)}-y^{(i)}\right)^2
$$
常数 $\frac{1}{2}$ 没有实质影响,但在数学表示上很方便,因为当我们对损失求导时,它会被消去。
由于二次形式,估计值 $\hat{y}^{(i)}$ 和目标值 $y^{(i)}$ 之间的较大差异会导致对损失更大的贡献(虽然它鼓励模型避免大错误,但也可能导致对异常数据的过度敏感)。
为了衡量模型在整个 $n$ 个样本数据集上的质量,我们简单地对训练集上的损失进行平均(或等效地求和):
$$
L(w, b)=\frac{1}{n}\sum_{i=1}^n l^{(i)}(w, b)=\frac{1}{n}\sum_{i=1}^n\frac{1}{2}\left(w^{\top} x^{(i)}+b-y^{(i)}\right)^2
$$
我们寻找能够最小化所有训练样本总损失的参数 $\left(w^, b^\right)$:
$$
w^, b^=\underset{w, b}{\operatorname{argmin}} L(w, b)
$$
解析解
首先在线性回归模型中,我们的目标是找到最优的参数向量 $w$ (我们将偏置值 $b$ 合并在 $w$ 中,合并的方法是在包含所有参数的矩阵中附加一列),使得预测值 $X w$ 与真实值 $y$ 之间的差距最小。
这个差距用平方损失 (squared error) 来衡量,即 $|y-X w|^{2}$ ,我们的目标就是最小化这个损失函数。
由于这个损失函数是“凸函数”(convex function),我们只需要找到那个唯一的坡度为零的点,它就是我们要找的最小值点。
将损失函数展开:
$$
L(w)=|y-X w|^2=(y-X w)^{T}(y-X w)
$$
对 $w$ 求梯度 (相当于求导) 并设为零:
$$
\nabla L(w)=0
$$
计算梯度:
根据矩阵微积分的知识可以直接计算:
$$
\nabla L(w)=2 X^{\top}(X w-y)=0
$$
解关于 $w$ 的方程:
$$
\begin{align*}X^{\top}(X w-y)&=0\ X^{\top} X w-X^{\top} y&=0\ X^{\top} X w&=X^{\top} y\end{align*}
$$
现在,只要矩阵 $\left(X^{\top} X\right)$ 是可逆的 ( 通常数据满足这个条件),我们就可以在等式两边同时乘以它的逆矩阵,从而解出:
$$
\begin{align*}\left(X^{\top} X\right)^{-1}\left(X^{\top} X\right)w&=\left(X^{\top} X\right)^{-1} X^{\top} y\ w&=\left(X^{\top} X\right)^{-1} X^{\top} y\end{align*}
$$
我们就得到了万能公式解析解 (Analytic Solution)。
这种求 $w$ 和 $b$ 的方法是暴力求解的,是专门为“线性回归”这种简单的问题设计的,但是现实世界的问题要复杂得多,根本没有这样一个现成的公式。
并且其计算量可谓巨大,计算太慢。因此接下来要介绍的是一种更高效的方法,靠“试”和“猜”的思路,即梯度下降法。
小批量随机梯度下降法
随机梯度下降法简单理解:假设我们要寻找一个一元函数 $f(x)$ 的最小值点。
用梯度下降的方法就是,先假设在一点 $x_0$ 处函数值最小,然后求出导数 $f^{\prime}\left(x_0\right)$ ,如果导数大于零,就说明函数在 $x_0$ 处是单调递增的。
因此我们要根据导数的正负去修改 $x_0$ 的方向,如果导数大于零,那么对 $x_0$ 进行减操作。反之则进行加操作,以此不断逼近函数的最小值。
那么如何确定移动的步长呢,最简单的就是取函数的导数值的大小,$x_0$ 就不断地以 $x_0-f^{\prime}\left(x_0\right)$ 进行更新。
以导数值的大小作为步长看起来不错,但是实际上还需要乘以一个步长的系数。
步长系数更正式的名字叫做学习率 (Learning Rate)。因为导数值并不是总是那么合适,有时候偏大,导致步长太大,跳过全局最小值。
有时候偏小,导致训练过程很慢。这时就可以通过设置学习率来调整。一般情况下,学习率都是小于 1 的。比如设置为 0.001。
经过上面以一元函数为例对随机梯度下降法的简单分析,下面我们直接给出多元函数的随机梯度下降的更新公式:
$$
(w, b)\leftarrow(w, b)-\frac{\eta}{|\mathcal{B}|}\sum_{i\in\mathcal{B}}\partial_{(w, b)} l^{(i)}(w, b)
$$
- $\eta$:即步长系数,表示学习率。
- $\mathcal{B}$:即小批量样本。因为在每一次更新参数之前,我们必须遍历整个数据集,实际中的执行可能会非常慢。因此,我们通常会在每次需要计算更新的时候随机抽取一小批样本,它是由固定数量的训练样本组成的。
- $\partial_{w, b} l^{(i)}(w, b)$:即第 $i$ 个样本的损失函数对 $w$ 和 $b$ 的偏导数。
总结
在机器学习领域,在训练过程中由算法调整的变量叫做参数。
参数是通过数据学习而来的,不是人为设定的。
参数决定了模型如何从输入数据映射到输出。
超参数是模型训练前需要人为设置的变量,它们不会在训练过程中自动学习,而是由人根据实验或者经验设定的。比如学习率就是一个超参数。
线性回归恰好是一个在整个域中只有一个最小值的学习问题。
但是对像深度神经网络这样复杂的模型来说,损失平面上通常包含多个最小值。
我们很难做到的是找到一组参数,这组参数能够在我们从未见过的数据上实现较低的损失,这一挑战被称为泛化 (generalization)。
评论交流
欢迎留下你的想法