名叫“重归”的分类器器
名叫“重归”的分类器器 以前人们触碰了不不少带“重归”两字的优化算法,重归树,随机森林的重归,线性回归,无一例外。她们全是差别于分类算法们,用于解决理和预测分析连续型标识的优化算法。殊不知逻辑回归,是这种名叫“重归”的线形分类器器,其实质是由线性回归转变而成的,这种普遍应用于归类难题中的理论重归优化算法。要理理解逻辑回归究竟是从哪里而来的呢?,得要先从线性回归刚开始。线性回归是设备器学习培训中非常简单的的重归优化算法,对随意样版,它创作1个基本上每个人了解的式子: w 被通称为实体模型的主要参数,在其中 w0被称作截距(intercept), w1~ wn被称作指数(coefficient),这一表述 式,我觉得就和人们中小学时就极其了解的 y=ax+b是一样的特性。人们能够应用向量来表达这一式子, 在其中x和w 能够被看作是1个列向量,则有: 线性回归的每日任务,就是说结构1个预测分析涵数 来投射输⼊入的特点向量x和标识值y的线性相关,而结构预测分析涵数的关键就是说找到实体模型的主要参数:wT 和 w0,知名的最小二乘法就是说用于求出线性回归中主要参数的数学方法。 根据涵数 ,线性回归应用键入的特点向量X来輸出1组连续型的标识值y_pred,以进行各种各样预测分析连续型自变量量的每日任务(例如预测分析商品销售量量,预测分析股票价格这些)。那假如人们的标识是离开型自变量量