DataWhale组队学习打卡(一)

ぃ、小莉子 提交于 2020-02-15 10:16:51

前言

记《动手学深度学习》组队学习第一次打卡。

打卡内容

线性回归

线性回归

线性回归输出是一个连续值,因此适用于回归问题。回归问题在实际中很常见,如预测房屋价格、气温、销售额等连续值的问题。与回归问题不同,分类问题中模型的最终输出是一个离散值。我们所说的图像分类、垃圾邮件识别、疾病检测等输出为离散值的问题都属于分类问题的范畴。Softmax回归则适用于分类问题。

1. 线性回归的基本要素

我们以一个简单的房屋价格预测作为例子来解释线性回归的基本要素。这个应用的目标是预测一栋房子的售出价格(元)。我们知道这个价格取决于很多因素,如房屋状况、地段、市场行情等。为了简单起见,这里我们假设价格只取决于房屋状况的两个因素,即面积(平方米)和房龄(年)。接下来我们希望探索价格与这两个因素的具体关系。

模型

设房屋的面积为x1x_1,房龄为x2x_2,售出价格为yy。我们需要建立基于输入x1x_1x2x_2来计算输出yy的表达式,也就是模型(model)。顾名思义,线性回归假设输出与各个输入之间是线性关系:

y^=x1w1+x2w2+b\hat y=x_1w_1+x_2w_2+b

其中w1w_1w2w_2是权重(weight),bb是偏差(bias),且均为标量。它们是线性回归模型的参数(parameter)。模型输出y^\hat y是线性回归对真实价格yy的预测或估计。我们通常允许它们之间有一定误差。

模型训练

接下来我们需要通过数据来寻找特定的模型参数值,使模型在数据上的误差尽可能小。这个过程叫作模型训练(model training)。下面我们介绍模型训练所涉及的3个要素。
(1)训练数据
我们通常收集一系列的真实数据,例如多栋房屋的真实售出价格和它们对应的面积和房龄。我们希望在这个数据上面寻找模型参数来使模型的预测价格与真实价格的误差最小。在机器学习术语里,该数据集被称为训练数据集(training data set)或训练集(training set),一栋房屋被称为一个样本(sample),其真实售出价格叫作标签(label),用来预测标签的两个因素叫作特征(feature)。特征用来表征样本的特点。
假设我们采集的样本数为nn,索引为ii的样本的特征为x1(i)x^{(i)}_1x2(i)x^{(i)}_2,标签为y(i)y^{(i)}。对于索引为ii的房屋,线性回归模型的房屋价格预测表达式为
y^(i)=x1(i)w1+x2(i)w2+b\hat y^{(i)}=x^{(i)}_1w_1+x^{(i)}_2w_2+b
(2)损失函数
在模型训练中,我们需要衡量价格预测值与真实值之间的误差。通常我们会选取一个非负数作为误差,且数值越小表示误差越小。一个常用的选择是平方函数。它在评估索引为ii的样本误差的表达式为

(i)(w1,w2,b)=12(y^(i)y(i))2ℓ^{(i)}(w_1,w_2,b)=\color{red}{\frac12}\color{black}{(\hat y^{(i)}−y^{(i)})}^2

其中常数1/2\color{red}1/2使对平方项求导后的常数系数为11,这样在形式上稍微简单一些。显然,误差越小表示预测价格与真实价格越相近,且当二者相等时误差为00。给定训练数据集,这个误差只与模型参数相关,因此我们将它记为以模型参数为参数的函数。在机器学习里,将衡量误差的函数称为损失函数(loss function)。这里使用的平方误差函数也称为平方损失(square loss)。

通常,我们用训练数据集中所有样本误差的平均来衡量模型预测的质量,即
(w1,w2,b)=1ni=1n(i)(w1,w2,b)=1ni=1n12(x1(i)w1+x2(i)w2+by(i))2. ℓ(w_1,w_2,b)=\frac1n∑^{n}_{i=1}ℓ^{(i)}(w_1,w_2,b)=\frac1n∑_{i=1}^{n}\frac12{(x^{(i)}_1w_1+x^{(i)}_2w_2+b−y^{(i)})}^2.
在模型训练中,我们希望找出一组模型参数,记为w1w^∗_1,w2w^∗_2,bb^∗,来使训练样本平均损失最小:
w1,w2,b=argminw1,w2,b (w1,w2,b) w^∗_1,w^∗_2,b^∗=\mathop{\arg\min}\limits_{w_1,w_2,b}\ ℓ(w1,w2,b)
(3)优化算法
当模型和损失函数形式较为简单时,上面的误差最小化问题的解可以直接用公式表达出来。这类解叫作解析解(analytical solution)。本节使用的线性回归和平方误差刚好属于这个范畴。然而,大多数深度学习模型并没有解析解,只能通过优化算法有限次迭代模型参数来尽可能降低损失函数的值。这类解叫作数值解(numerical solution)。

在求数值解的优化算法中,小批量随机梯度下降(mini-batch stochastic gradient descent)在深度学习中被广泛使用。它的算法很简单:先选取一组模型参数的初始值,如随机选取(随机初始化);接下来对参数进行多次迭代,使每次迭代都可能降低损失函数的值。在每次迭代中,先随机均匀采样一个由固定数目训练数据样本所组成的小批量(mini-batch)BB,然后求小批量中数据样本的平均损失有关模型参数的导数(即梯度),最后用此结果与预先设定的一个正数(即学习率)的乘积作为模型参数在本次迭代的减小量。

在训练本节讨论的线性回归模型的过程中,模型的每个参数将作如下迭代:

w1w1ηBiB(i)(w1,w2,b)w1=w1ηBiBx1(i)(x1(i)w1+x2(i)w2+by(i)) w_1←w_1−\frac η{|B|}∑_{i∈B}\frac {∂ℓ^{(i)}(w_1,w_2,b)}{∂w_1}=w_1−\frac η{|B|}∑_{i∈B}x^{(i)}_1(x^{(i)}_1w_1+x^{(i)}_2w_2+b−y^{(i)})
w2w2ηBiB(i)(w1,w2,b)w2=w2ηBiBx2(i)(x1(i)w1+x2(i)w2+by(i)) w_2←w_2−\frac η{|B|}∑_{i∈B}\frac {∂ℓ^{(i)}(w_1,w_2,b)}{∂w_2}=w_2−\frac η{|B|}∑_{i∈B}x^{(i)}_2(x^{(i)}_1w_1+x^{(i)}_2w_2+b−y^{(i)})
bbηBiB(i)(w1,w2,b)b=bηBiB(x1(i)w1+x2(i)w2+by(i)) b←b−\frac η{|B|}∑_{i∈B}\frac{∂ℓ^{(i)}(w_1,w_2,b)}{∂b}=b−\frac η{|B|}∑_{i∈B}(x^{(i)}_1w_1+x^{(i)}_2w_2+b−y^{(i)})
在上式中,B|B|代表每个小批量中的样本个数(批量大小,batch size),ηη称作学习率(learning rate)并取正数。需要强调的是,这里的批量大小和学习率的值是人为设定的,并不是通过模型训练学出的,因此叫作超参数(hyperparameter)。我们通常所说的“调参”指的正是调节超参数,例如通过反复试错来找到超参数合适的值。在少数情况下,超参数也可以通过模型训练学出。本博客对此类情况暂不做讨论。

模型预测

模型训练完成后,我们将模型参数w1w_1,w2w_2,bb在优化算法停止时的值分别记作w^1\hat w_1,w^2\hat w_2,b^\hat b。注意,这里我们得到的并不一定是最小化损失函数的最优解w1w^∗_1,w2w^∗_2,bb^∗,而是对最优解的一个近似。然后,我们就可以使用学出的线性回归模型x1w^1+x2w^2+b^x_1\hat w_1+x_2\hat w_2+\hat b来估算训练数据集以外任意一栋面积(平方米)为x1x_1、房龄(年)为 x2x_2的房屋的价格了。这里的估算也叫作模型预测、模型推断或模型测试。

2.线性回归的表示方法

我们已经阐述了线性回归的模型表达式、训练和预测。下面我们解释线性回归与神经网络的联系,以及线性回归的矢量计算表达式。

①神经网络图

在深度学习中,我们可以使用神经网络图直观地表现模型结构。为了更清晰地展示线性回归作为神经网络的结构,图3.1使用神经网络图表示本节中介绍的线性回归模型。神经网络图隐去了模型参数权重和偏差。

图 3.1 线性回归是一个单层神经网络

在图3.1所示的神经网络中,输入分别为x1x_1x2x_2,因此输入层的输入个数为2。输入个数也叫特征数或特征向量维度。图3.1中网络的输出为oo,输出层的输出个数为1。需要注意的是,我们直接将图3.1中神经网络的输出oo作为线性回归的输出,即y^=o\hat y=o。由于输入层并不涉及计算,按照惯例,图3.1所示的神经网络的层数为1。所以,线性回归是一个单层神经网络。输出层中负责计算oo的单元又叫神经元。在线性回归中,oo的计算依赖于x1x_1x2x_2。也就是说,输出层中的神经元和输入层中各个输入完全连接。因此,这里的输出层又叫全连接层(fully-connected layer)或稠密层(dense layer)。

②矢量计算表达式

在模型训练或预测时,我们常常会同时处理多个数据样本并用到矢量计算。在介绍线性回归的矢量计算表达式之前,让我们先考虑对两个向量相加的两种方法。

下面先定义两个1000维的向量。

import torch
import time

# init variable a, b as 1000 dimension vector
n = 1000
a = torch.ones(n)
b = torch.ones(n)
# define a timer class to record time
class Timer(object):
    """Record multiple running times."""
    def __init__(self):
        self.times = []
        self.start()

    def start(self):
        # start the timer
        self.start_time = time.time()

    def stop(self):
        # stop the timer and record time into a list
        self.times.append(time.time() - self.start_time)
        return self.times[-1]

    def avg(self):
        # calculate the average and return
        return sum(self.times)/len(self.times)

    def sum(self):
        # return the sum of recorded time
        return sum(self.times)

向量相加的一种方法是,将这两个向量按元素逐一做标量加法

timer = Timer()
timer.start()
c = torch.zeros(n)
for i in range(n):
    c[i] = a[i] + b[i]
'%.5f sec' % timer.stop()

向量相加的另一种方法是,将这两个向量直接做矢量加法

timer.start()
d = a + b
'%.5f sec' % timer.stop()

运行代码可得到计算所需时间。显然后者比前者速度快很多。因此,我们尽可能采用矢量计算,以提升计算效率。

让我们再次回到本节的房价预测问题。如果我们对训练数据集里的3个房屋样本(索引分别为1、2和3)逐一预测价格,将得到

y^(1)=x1(1)w1+x2(1)w2+b \hat y^{(1)}=x^{(1)}_1w_1+x^{(1)}_2w_2+b
y^(2)=x1(2)w1+x2(2)w2+b \hat y^{(2)}=x^{(2)}_1w_1+x^{(2)}_2w_2+b
y^(3)=x1(3)w1+x2(3)w2+b \hat y^{(3)}=x^{(3)}_1w_1+x^{(3)}_2w_2+b

现在,我们将上面3个等式转化成矢量计算。设

y^=[y(1)y(2)y(3)],X=[x1(1)x2(1)x1(2)x2(2)x1(3)x2(3)],w=[w1w2]. {\bm {\hat y}} =\begin{bmatrix} y^{(1)}\\y^{(2)}\\y^{(3)} \end{bmatrix},\bm X=\begin{bmatrix}x^{(1)}_1 & x^{(1)}_2 \\ x^{(2)}_1 & x^{(2)}_2 \\ x^{(3)}_1 & x^{(3)}_2\end{bmatrix},\bm w=\begin{bmatrix}w_1 \\ w_2\end{bmatrix}.

对3个房屋样本预测价格的矢量计算表达式为y^=Xw+b{\bm {\hat y}}=\bm X\bm w+b, 其中的加法运算使用了广播机制。例如:

In[]: a = nd.ones(shape=3)
	  b = 10
	  a + b
Out[]: [11. 11. 11.]

广义上讲,当数据样本数为nn,特征数为dd时,线性回归的矢量计算表达式为

y^=Xw+b, \bm {\hat y}=\bm X\bm w+b,

其中模型输出y^Rn×1\bm {\hat y}∈{\Bbb R}^{n×1}, 批量数据样本特征XRn×d\bm X∈{\Bbb R}^{n×d},权重wRd×1\bm w∈{\Bbb R}^{d×1}, 偏差bRb∈\Bbb R。相应地,批量数据样本标签yRn×1\bm y∈{\Bbb R}^{n×1}。设模型参数θ=[w1,w2,b]\bm θ=[w1,w2,b]^⊤,我们可以重写损失函数为

(θ)=12n(y^y)(y^y). ℓ(\bm θ)=\frac 1{2n}(\bm {\hat y}−\bm y)^⊤(\bm {\hat y}−\bm y).

小批量随机梯度下降的迭代步骤将相应地改写为

θθηBiBθ(i)(θ), \bm θ←\bm θ−\frac η{|B|}∑_{i∈B}∇_{\bm θ}ℓ^{(i)}(\bm θ),

其中梯度是损失有关3个为标量的模型参数的偏导数组成的向量:

θ(i)(θ)=[(i)(w1,w2,b)w1(i)(w1,w2,b)w2(i)(w1,w2,b)b]=[x1(i)(x1(i)w1+x2(i)w2+by(i))x2(i)(x1(i)w1+x2(i)w2+by(i))x1(i)w1+x2(i)w2+by(i)]=[x1(i)x2(i)1](y^(i)y(i)). ∇_{\bm θ}ℓ^{(i)}(\bm θ)=\begin{bmatrix}\frac {∂ℓ^{(i)}(w_1,w_2,b)}{∂w_1} \\ \frac {∂ℓ^{(i)}(w_1,w_2,b)}{∂w_2} \\ \frac {∂ℓ^{(i)}(w_1,w_2,b)}{∂b}\end{bmatrix}=\begin{bmatrix}x^{(i)}_1(x^{(i)}_1w_1+x^{(i)}_2w_2+b−y^{(i)}) \\ x^{(i)}_2(x^{(i)}_1w_1+x^{(i)}_2w_2+b−y^{(i)}) \\ x^{(i)}_1w_1+x^{(i)}_2w_2+b−y^{(i)}\end{bmatrix}=\begin{bmatrix}x^{(i)}_1 \\ x^{(i)}_2 \\ 1\end{bmatrix}(\hat y^{(i)}−y^{(i)}).

3.小结

  1. 和大多数深度学习模型一样,对于线性回归这样一种单层神经网络,它的基本要素包括模型、训练数据、损失函数和优化算法。
  2. 既可以用神经网络图表示线性回归,又可以用矢量计算表示该模型。
  3. 应该尽可能采用矢量计算,以提升计算效率。
易学教程内所有资源均来自网络或用户发布的内容,如有违反法律规定的内容欢迎反馈
该文章没有解决你所遇到的问题?点击提问,说说你的问题,让更多的人一起探讨吧!