预测模型

DataWhale组队学习打卡(一)

ぃ、小莉子 提交于 2020-02-15 10:16:51
前言 记《动手学深度学习》组队学习第一次打卡。 打卡内容 线性回归 线性回归 线性回归输出是一个 连续值 ,因此适用于 回归问题 。回归问题在实际中很常见,如预测房屋价格、气温、销售额等连续值的问题。与回归问题不同, 分类问题 中模型的最终输出是一个 离散值 。我们所说的图像分类、垃圾邮件识别、疾病检测等输出为离散值的问题都属于分类问题的范畴。Softmax回归则适用于分类问题。 1. 线性回归的 基本要素 我们以一个简单的房屋价格预测作为例子来解释线性回归的基本要素。这个应用的目标是预测一栋房子的售出价格(元)。我们知道这个价格取决于很多因素,如房屋状况、地段、市场行情等。为了简单起见,这里我们假设价格只取决于房屋状况的两个因素,即面积(平方米)和房龄(年)。接下来我们希望探索价格与这两个因素的具体关系。 ① 模型 设房屋的面积为 x 1 x_1 x 1 ​ ,房龄为 x 2 x_2 x 2 ​ ,售出价格为 y y y 。我们需要建立基于输入 x 1 x_1 x 1 ​ 和 x 2 x_2 x 2 ​ 来计算输出 y y y 的表达式,也就是模型(model)。顾名思义,线性回归假设输出与各个输入之间是线性关系: y ^ = x 1 w 1 + x 2 w 2 + b \hat y=x_1w_1+x_2w_2+b y ^ ​ = x 1 ​ w 1 ​ + x 2 ​ w 2

深度学习—学习笔记

你。 提交于 2020-02-15 10:11:04
线性回归 主要内容包括: 1、线性回归的基本要素 2、线性回归模型从零开始的实现 3、线性回归模型使用pytorch的简洁实现 线性回归的基本要素 1、模型 为了简单起见,这里我们假设价格只取决于房屋状况的两个因素,即面积(平方米)和房龄(年)。 2、数据集 我们通常收集一系列的真实数据,例如多栋房屋的真实售出价格和它们对应的面积和房龄。我们希望在这个数据上面寻找模型参数来使模型的预测价格与真实价格的误差最小。在机器学习术语里,该数据集被称为训练数据集(training data set)或训练集(training set),一栋房屋被称为一个样本(sample),其真实售出价格叫作标签(label),用来预测标签的两个因素叫作特征(feature)。特征用来表征样本的特点。 3、损失函数 在模型训练中,我们需要衡量价格预测值与真实值之间的误差。通常我们会选取一个非负数作为误差,且数值越小表示误差越小。一个常用的选择是平方函数。 4、优化函数 - 随机梯度下降 当模型和损失函数形式较为简单时,上面的误差最小化问题的解可以直接用公式表达出来。这类解叫作解析解(analytical solution)。本节使用的线性回归和平方误差刚好属于这个范畴。然而,大多数深度学习模型并没有解析解,只能通过优化算法有限次迭代模型参数来尽可能降低损失函数的值。这类解叫作数值解(numerical

深度学习部分笔记

不羁岁月 提交于 2020-02-15 09:46:11
线性回归部分 主要内容包括: 线性回归的基本要素 线性回归模型从零开始的实现 线性回归模型使用pytorch的简洁实现 线性回归的基本要素 模型 为了简单起见,这里我们假设价格只取决于房屋状况的两个因素,即面积(平方米)和房龄(年)。接下来我们希望探索价格与这两个因素的具体关系。线性回归假设输出与各个输入之间是线性关系: price=warea⋅area+wage⋅age+b 数据集 我们通常收集一系列的真实数据,例如多栋房屋的真实售出价格和它们对应的面积和房龄。我们希望在这个数据上面寻找模型参数来使模型的预测价格与真实价格的误差最小。在机器学习术语里,该数据集被称为训练数据集(training data set)或训练集(training set),一栋房屋被称为一个样本(sample),其真实售出价格叫作标签(label),用来预测标签的两个因素叫作特征(feature)。特征用来表征样本的特点。 损失函数 在模型训练中,我们需要衡量价格预测值与真实值之间的误差。通常我们会选取一个非负数作为误差,且数值越小表示误差越小。一个常用的选择是平方函数。 它在评估索引为 i 的样本误差的表达式为 l(i)(w,b)=12(y^(i)−y(i))2, L(w,b)=1n∑i=1nl(i)(w,b)=1n∑i=1n12(w⊤x(i)+b−y(i))2. 优化函数 - 随机梯度下降

《动手学深度学习》Task 01-02

我们两清 提交于 2020-02-15 08:09:29
Task 01 Section 1 线性回归 主要内容 线性回归的基本要素 线性回归模型从零开始的实现 线性回归模型使用pytorch的简洁实现 1. 线性回归的基本要素 模型 为了简单起见,这里我们假设价格只取决于房屋状况的两个因素,即面积(平方米)和房龄(年)。接下来我们希望探索价格与这两个因素的具体关系。线性回归假设输出与各个输入之间是线性关系: p r i c e = w a r e a ⋅ a r e a + w a g e ⋅ a g e + b price=w_{area}⋅area+w_{age}⋅age+b p r i c e = w a r e a ​ ⋅ a r e a + w a g e ​ ⋅ a g e + b 数据集 我们通常收集一系列的真实数据,例如多栋房屋的真实售出价格和它们对应的面积和房龄。我们希望在这个数据上面寻找模型参数来使模型的预测价格与真实价格的误差最小。在机器学习术语里,该数据集被称为 训练数据集(training data set) 或 训练集(training set) ,一栋房屋被称为一个 样本(sample) ,其真实售出价格叫作 标签(label) ,用来预测标签的两个因素叫作 特征(feature) 。特征用来表征样本的特点。 损失函数 在模型训练中,我们需要衡量价格预测值与真实值之间的误差。通常我们会选取一个非负数作为误差

《动手学深度学习》笔记 Task01:线性回归;Softmax与分类模型、多层感知机

最后都变了- 提交于 2020-02-15 04:34:15
一、线性回归 主要内容: 1.线性回归的解释 2.线性回归模型的基本要素 3.线性回归模型的两种实现方式 1.线性回归的解释 线性回归,就是能够用一个直线较为精确地描述数据之间的关系。这样当出现新的数据的时候,就能够预测出一个简单的值。线性回归中最常见的就是房价的问题。一直存在很多房屋面积和房价的数据,如下图所示: 在这种情况下,就可以利用线性回归构造出一条直线来近似地描述放假与房屋面积之间的关系,从而就可以根据房屋面积推测出房价。 线性回归输出是一个连续值,因此适用于回归问题 。回归问题在实际中很常见,如预测房屋价格、气温、销售额等连续值的问题。与回归问题不同,分类问题中模型的最终输出是一个离散值。我们所说的图像分类、垃圾邮件识别、疾病检测等输出为离散值的问题都属于分类问题的范畴。softmax回归则适用于分类问题。 由于 线性回归和softmax回归都是单层神经网络 ,它们涉及的概念和技术同样适用于大多数的深度学习模型。 2.线性回归模型的基本要素 2.1 模型 为了简单起见,这里我们假设价格只取决于房屋状况的两个因素,即面积(平方米)和房龄(年)。接下来我们希望探索价格与这两个因素的具体关系。线性回归假设输出与各个输入之间是线性关系: 2.2 模型训练 接下来我们需要通过数据来寻找特定的模型参数值,使模型在数据上的误差尽可能小。这个过程叫作模型训练(model

L8梯度消失、梯度爆炸

牧云@^-^@ 提交于 2020-02-15 02:22:16
梯度消失、梯度爆炸以及Kaggle房价预测 代码地址: 下载 https://download.csdn.net/download/xiuyu1860/12156343 梯度消失和梯度爆炸 考虑到环境因素的其他问题 Kaggle房价预测 梯度消失和梯度爆炸 深度模型有关数值稳定性的典型问题是消失(vanishing)和爆炸(explosion)。 当神经网络的层数较多时,模型的数值稳定性容易变差。 假设一个层数为 L L L 的多层感知机的第 l l l 层 H ( l ) \boldsymbol{H}^{(l)} H ( l ) 的权重参数为 W ( l ) \boldsymbol{W}^{(l)} W ( l ) ,输出层 H ( L ) \boldsymbol{H}^{(L)} H ( L ) 的权重参数为 W ( L ) \boldsymbol{W}^{(L)} W ( L ) 。为了便于讨论,不考虑偏差参数,且设所有隐藏层的激活函数为恒等映射(identity mapping) ϕ ( x ) = x \phi(x) = x ϕ ( x ) = x 。给定输入 X \boldsymbol{X} X ,多层感知机的第 l l l 层的输出 H ( l ) = X W ( 1 ) W ( 2 ) … W ( l ) \boldsymbol{H}^{(l)} =

softmax和分类模型

你说的曾经没有我的故事 提交于 2020-02-14 20:47:16
softmax和分类模型 内容包含: softmax回归的基本概念 如何获取Fashion-MNIST数据集和读取数据 softmax回归模型的从零开始实现,实现一个对Fashion-MNIST训练集中的图像数据进行分类的模型 使用pytorch重新实现softmax回归模型 softmax的基本概念 分类问题 一个简单的图像分类问题,输入图像的高和宽均为2像素,色彩为灰度。 图像中的4像素分别记为 \(x_1, x_2, x_3, x_4\) 。 假设真实标签为狗、猫或者鸡,这些标签对应的离散值为 \(y_1, y_2, y_3\) 。 我们通常使用离散的数值来表示类别,例如 \(y_1=1, y_2=2, y_3=3\) 。 权重矢量 \[ \begin{aligned} o_1 &= x_1 w_{11} + x_2 w_{21} + x_3 w_{31} + x_4 w_{41} + b_1 \end{aligned} \] \[ \begin{aligned} o_2 &= x_1 w_{12} + x_2 w_{22} + x_3 w_{32} + x_4 w_{42} + b_2 \end{aligned} \] \[ \begin{aligned} o_3 &= x_1 w_{13} + x_2 w_{23} + x_3 w_{33} + x_4 w_{43} +

论文阅读 Tacotron2

蓝咒 提交于 2020-02-13 00:52:54
Tacotron2 摘要 引言 2 模型架构 2.1 内部特征表示 2.2 频谱图预测网络 2.3 WaveNet 声码器 3 实验结果 3.1 训练步骤 3.2 评估 摘要 这篇论文描述了Tacotron2,一个从文字直接转化为语音的神经网络。这个体系是由字符嵌入到梅尔频谱图的循环序列到序列神经网络组成的,然后是经过一个修改过后的WaveNet,该模型的作用是将频谱图合成波形图。这个模型取得了不错的效果MOS4.53。为了验证我们的设计选择,我们介绍了系统关键组件的简化测试以及评估了使用梅尔频谱图作为WaveNet的条件输入的影响(不是语言,持续时间和功能)。我们进一步展示了,使用这种紧凑的声学中间表示形式可以大幅度减小WaveNet体系结构的大小。 引言 TTS尽管进行了数十年的调查,但还是有一个大问题。随着时间的推移,不同的技术在这片领域中施展拳脚。单端选择的级联合成,将预先记录的波形拼在一起在之前好长时间都是比较先进的技术。统计参数语音合成,它直接生成语音特征的平滑轨迹是由声码器合成,随后解决了级联合成在声音边界不真实的问题。然而,与人类声音比起来,还是稍显不自然。 WaveNet,是一个时域生成模型,产生的声音可以跟人类媲美,现在好多TTS系统已经在用了。但是WaveNet的输入(语言特征,预测对数基本频率和音素持续时间),需要大量的专业领域知识才能产生

Alex -机器学习

我与影子孤独终老i 提交于 2020-02-12 23:07:57
""" 症状: 0 代表打喷嚏 1代表头痛 职业:0 代表护士 1 代表农夫 2代表建筑工人 3 代表教师 疾病: 0 代表感冒 1代表过敏 2 代表脑震荡 """ # 数据集 data 数据 # 一定程度上数据越多预测越准确 data = [ [ 0 , 0 , 1 ] , [ 0 , 1 , 1 ] , [ 1 , 2 , 2 ] , [ 1 , 2 , 0 ] , [ 0 , 3 , 0 ] , [ 1 , 3 , 2 ] ] # print(data) x , y = [ ] , [ ] for i in data : x . append ( [ i [ 0 ] , i [ 1 ] ] ) y . append ( i [ 2 ] ) print ( x ) # print(y) # 数学模型 # 导入数学模型,贝叶斯 from sklearn . naive_bayes import MultinomialNB # 创建模型 clf = MultinomialNB ( ) # 模型训练 fit,机器学习 clf . fit ( x , y ) # 进行预测 predict prediction = clf . predict ( [ [ 1 , 0 ] ] ) print ( prediction ) 来源: CSDN 作者: 少儿编程侯老师 链接: https:/

零基础入门篇使用Python搭建点击率预估模型

坚强是说给别人听的谎言 提交于 2020-02-12 03:48:59
本文将从零开始,仅仅利用基础的numpy库,使用Python实现一个最简单的神经网络(或者说是简易的LR,因为LR就是一个单层的神经网络),解决一个点击率预估的问题。感兴趣的朋友跟随小白一起看看吧 点击率预估模型 0.前言 本篇是一个基础机器学习入门篇文章,帮助我们熟悉机器学习中的神经网络结构与使用。 日常中习惯于使用Python各种成熟的机器学习工具包,例如sklearn、TensorFlow等等,来快速搭建各种各样的机器学习模型来解决各种业务问题。 本文将从零开始,仅仅利用基础的numpy库,使用Python实现一个最简单的神经网络(或者说是简易的LR,因为LR就是一个单层的神经网络),解决一个点击率预估的问题。 1.假设一个业务场景 声明:为了简单起见,下面的一切设定从简…. 定义需要解决的问题: 老板:小李,这台机器上有一批微博的点击日志数据,你拿去分析一下,然后搞点击率预测啥的… 是的,就是预测一篇微博是否会被用户点击(被点击的概率)……预测未来,貌似很神奇的样子! 热门微博 简单的介绍一下加深的业务数据 每一条微博数据有由三部分构成: {微博id, 微博特征X, 微博点击标志Y} 微博特征X有三个维度: X={x0="该微博有娱乐明星”,x1="该微博有图”,x2="该微博有表情”} 微博是否被点击过的标志Y: Y={y0=“点击”, y1=“未点击”} 数据有了