特征多项式

ML_6机器学习重要概念补充

老子叫甜甜 提交于 2020-04-05 17:14:40
学习目标 sklearn中的Pipeline 偏差与方差 模型正则化之L1正则、L2正则 一、sklearn中的Pipeline 研究一个因变量与一个或多个自变量间多项式的回归分析方法,称为多项式回归(Polynomial Regression)。多项式回归是线性回归模型的一种,其回归函数关于回归系数是线性的。其中自变量x和因变量y之间的关系被建模为n次多项式。 如果自变量只有一个时,称为一元多项式回归;如果自变量有多个时,称为多元多项式回归。在一元回归分析中,如果变量y与自变量x的关系为非线性的,但是又找不到适当的函数曲线来拟合,则可以采用一元多项式回归。 由于任一函数都可以用多项式逼近,因此多项式回归有着广泛应用。 多项式回归的思路是:添加一个特征,即对于X中的每个数据进行平方。 import numpy as np import matplotlib.pyplot as plt x = np.random.uniform(-3, 3, size=100) X = x.reshape(-1, 1) y = 0.5 + x**2 + x + 2 + np.random.normal(0, 1, size=100) plt.scatter(x, y) plt.show() from sklearn.linear_model import LinearRegression lin

多项式回归

社会主义新天地 提交于 2019-12-05 11:34:53
多项式回归简介   考虑下面即将出现的数据,虽然我们可以使用线性回归来拟合这些数据,但是这些数据更像是一条二次曲线,相应的方程是 $y=ax^{2}+bx+c$ ,这是式子虽然可以理解为二次方程,但是我们呢可以从另外一个角度来理解这个式子:   如果将 $x^{2}$ 理解为一个特征,将 $x$ 理解为另外一个特征,换句话说,本来我们的样本只有一个特征 $x$ ,现在我们把他看成有两个特征的一个数据集。多了一个特征 $x^{2}$ ,那么从这个角度来看, 这个式子依旧是一个线性回归的式子,但是从 $x$ 的角度来看,它就是一个二次的方程。   以上这样的方式,就是所谓的多项式回归相当于我们为样本多添加了一些特征,这些特征是原来样本的多项式项,增加了这些特征之后,我们可以使用线性回归的思路来更好的处理我们的数据。 什么是多项式回归 数据来源 import numpy as np import matplotlib.pyplot as plt # 生成100个数字 1*100 np.random.seed(100) x = np.random.uniform(-3, 3, size=100) # 100*1 X = x.reshape(-1, 1) # 一元二次方程 y = 0.5 * x**2 + x + 2 + np.random.normal(0, 1, 100) plt

Codechef Walk on Tree(BM+常系数齐次线性递推)

三世轮回 提交于 2019-11-26 16:59:27
传送门 这题的重点不在用 B M BM B M 求递推式,也不在求出递推式后的 常系数齐次线性递推 ,而在下面这个结论: 对于一个矩阵 A A A ,我们给出 n n n 个二元组 ( a i , b i ) (a_i,b_i) ( a i ​ , b i ​ ) 并定义一个函数 f ( k ) = ∑ i = 1 n A a i , b i k f(k)=\sum_{i=1}^nA^k_{a_i,b_i} f ( k ) = ∑ i = 1 n ​ A a i ​ , b i ​ k ​ 。 那么 f f f 数列存在递推式,且这个递推式就是其特征多项式。 可以按照特征多项式的性质证明一下。 代码: # include <bits/stdc++.h> # define ri register int using namespace std ; const int rlen = 1 << 18 | 1 ; inline char gc ( ) { static char buf [ rlen ] , * ib , * ob ; ( ib == ob ) && ( ob = ( ib = buf ) + fread ( buf , 1 , rlen , stdin ) ) ; return ib == ob ? - 1 : * ib ++ ; } inline int read (