SIGAI机器学习第四集 基本概念
大纲: 算法分类 有监督学习与无监督学习 分类问题与回归问题 生成模型与判别模型 强化学习 评价指标 准确率与回归误差 ROC曲线 交叉验证 模型选择 过拟合与欠拟合 偏差与方差 正则化 半监督学习归类到有监督学习中去。 有监督学习大部分问题都是分类问题,有监督中的分类问题分为生成式模型和判别模型。 分类问题常用的评价指标是准确率,对于回归问题常用的评价指标是回归误差均方误差。 二分类问题中常为它做ROC曲线。 过拟合通用的解决手段是正则化。 算法分类: 监督信号,就是样本的标签值,根据知否有标签值将机器学习分类为有监督学习、无监督学习、半监督学习。 有监督学习与无监督学习: 有监督学习分两个过程:训练和预测。 预测根据输入样本(x,y),训练出一个模型y=f(x)来预测新的样本的标签值。 无监督学习:聚类和数据降维。 数据降维是为了避免维数灾难,高维数据算法处理起来比较困难,数据之间具有相关性。 强化学习: 是从策略控制领域诞生出来的一种算法,它根据环境数据预测动作,目标是最大化奖励值。 分类问题与回归问题: 有监督学习分为分类问题和回归问题,如判断一个水果的类别就是分类问题,根据个人信息预测收入就是回归问题。 分类问题: R n -->Z,把n维向量映射为一个整数值,该值对应一个分类。 人脸检测就是而分类问题,图像中某个位置区域是人脸还是不是人脸。