天池数据竞赛 | 工业蒸汽量预测(完整代码分享)

帅比萌擦擦* 提交于 2020-03-01 02:26:12

BY:乔木

题目描述

比赛链接:工业蒸汽量预测

赛题背景
火力发电的基本原理是:燃料在燃烧时加热水生成蒸汽,蒸汽压力推动汽轮机旋转,然后汽轮机带动发电机旋转,产生电能。 在这一系列的能量转化中,影响发电效率的核心是锅炉的燃烧效率,即燃料燃烧加热水产生高温高压蒸汽。锅炉的燃烧效率的影响因素很多,包括锅炉的可调参数,如燃烧给量,一二次风,引风,返料风,给水水量;以及锅炉的工况,比如锅炉床温、床压,炉膛温度、压力,过热器的温度等。

赛题描述

经脱敏后的锅炉传感器采集的数据(采集频率是分钟级别),根据锅炉的工况,预测产生的蒸汽量。

数据说明
数据分成训练数据(train.txt)和测试数据(test.txt),其中字段 V0-V37,这38个字段是作为特征变量,target作为目标变量。 选手利用训练数据训练出模型,预测测试数据的目标变量,排名结果依据预测结果的 MSE(mean square error)。

结果提交
选手需要提交测试数据的预测结果(txt格式,只有1列预测结果)。

结果评估
预测结果以mean square error作为评判标准。


一、导入数据 | 观察数据

导入相关的库

import numpy as np
import pandas as pd
import matplotlib.pyplot as plt
import seaborn as sns
sns.set(style='ticks')

from scipy import stats
from sklearn.decomposition import PCA
from sklearn.metrics import mean_squared_error, r2_score
from sklearn.model_selection import train_test_split, GridSearchCV, learning_curve, RepeatedKFold

from sklearn.linear_model import LinearRegression, RidgeCV, LassoCV
from sklearn.svm import SVR
from xgboost import XGBRegressor

import warnings
warnings.filterwarnings('ignore')

导入数据

dtrain = pd.read_csv('zhengqi_train.txt', sep='\t')
dtest = pd.read_csv('zhengqi_test.txt', sep='\t')
dfull = pd.concat([dtrain, dtest], ignore_index=True, sort=False)
print('训练集大小: ', np.shape(dtrain))
print('测试集大小: ', np.shape(dtest))

训练集大小: (2888, 39)
测试集大小: (1925, 38)

观察数据基本分布情况

plt.figure(figsize=(18,8),dpi=100)
dfull.boxplot(sym='r^', patch_artist=True, notch=True)
plt.title('DATA-FULL')

数据分布箱线图

  • 数据共有38个特征变量和1目标变量
  • 所有特征变量及蒸汽量目标变量均为连续型数据
  • 所有数据均分布在0附近,且无量级差异
# 查看数据缺失情况

print('缺失值统计:')
print(dfull.apply(lambda x: sum(x.isnull())))

缺失值统计:
V0 0
V1 0
V2 0
V3 0
V4 0

V34 0
V35 0
V36 0
V37 0
target 1925
dtype: int64

无缺失数据

接下来绘制数据相关性热力图,查看数据相关性情况

def heatmap(df):
    plt.figure(figsize=(20,16), dpi=100)
    cols = df.columns.tolist()
    mcorr = df[cols].corr(method = 'spearman')
    cmap = sns.diverging_palette(220, 10, as_cmap=True)
    mask = np.zeros_like(mcorr, dtype = np.bool)
    mask[np.triu_indices_from(mask)] = True              # 角分线右侧为True
    g = sns.heatmap(mcorr, mask=mask, cmap=cmap, square=True, annot=True, fmt='0.2f')
    plt.xticks(rotation=45)
    return mcorr
    
dtrain_mcorr = heatmap(dtrain)

HeatMap
热力图中发现,特征之间存在多重共线性,针对这一问题处理方法有以下三种:

  • 主成分分析(PCA):通常情况下可能导致模型精度降低
  • 正则化:许多较为成熟模型中都带有正则项,同时能够防止模型过拟合
  • 逐步回归法:较为繁琐,不建议

在此次比赛中,尝试使用主成分分析,结果发现预测结果并不是太理想,最佳线上成绩为0.1306,因此在此文中未使用PCA方案,仅通过模型调参使用正则化方法消除共线性,不过当对于大量特征无从下手时,PCA也是值得一试的方法


二、特征工程

特征工程往往是影响预测结果好坏的关键所在,在此项目中我主要对数据进行了以下处理:

  • 剔除训练集与测试集分布不均匀的特征变量
  • 查看特征与目标变量相关系数,剔除相关系数低于0.1的无关变量
  • 查看特征分布偏态系数,将部分明显左偏/右偏的特征数据进行正态化
  • 对剩余特征数据进行标准化

另外对更多特征处理方法感兴趣的同学可用参考:工业蒸汽量预测 | 天池论坛


创建特征剔除函数,方便对数据进行统一处理

# 删除dfull表中指定的列
def drop_var(var_lst):
    dfull.drop(var_lst, axis=1, inplace=True)
 
# 将dfull重新分割为dtrain核dtest   
def split_dfull():
    dtrain = dfull[dfull['target'].notnull()]
    dtest = dfull[dfull['target'].isnull()]
    dtest.drop('target', axis=1, inplace=True)
    return dtrain, dtest

1. 剔除训练集与测试集分布不均匀的特征变量

针对38个特征变量画训练数据和测试数据特征分布直方图

plt.figure(figsize=(20,50),dpi=100)
for i in range(38):
    plt.subplot(10,4,i+1)
    sns.distplot(dtrain.iloc[:,i], color='green')
    sns.distplot(dtest.iloc[:,i], color='red')
    plt.legend(['Train','Test'])
plt.tight_layout()

训练数据与测试数据分布直方图
从各特征数据分布直方图发现:
V5、V9、V11、V17、V20、V21、V22、V27、V28 特征训练集和测试集分布差异过大
因此为了减小数据分布不均对预测结果的影响,应将上述特征进行剔除

drop_var(['V5','V9','V11','V17','V20','V21','V22','V27','V28'])
dtrain, dtest = split_dfull()

2. 查看各特征与结果变量的相关性,以及是否服从正态分布

利用sns.regplot查看特征与目标变量间的线性关系强弱;
利用sns.distplot查看每个特征分布情况,并进行正态拟合。

plt.figure(figsize=(20,60),dpi=80)
i = 0
for col in dtrain.columns:
    i += 1
    plt.subplot(15,4,i)
    sns.regplot(col, 'target', data = dtrain,
               scatter_kws = {'marker': '.', 's': 5, 'alpha': .6},
               line_kws = {'color': 'k'})
    coef = np.corrcoef(dtrain[col], dtrain['target'])[0][1]
    plt.title(f'coef = {coef}')
    plt.xlabel(col)
    plt.ylabel('target')
    
    i += 1
    plt.subplot(15,4,i)
    sns.distplot(dtrain[col], fit = stats.norm)
    plt.title(f'skew = {stats.skew(dtrain[col])}')
    plt.xlabel(col)
    
plt.tight_layout()

相关性图&正态分布拟合
从图中可看出:

  • V14、V25、V26、V32、V33、V34、V35 与结果变量相关性很低,予以 删除
  • V0、V1、V6、V7、V8、V12、V16、V31 存在明显的数据左偏,可用 对数转换 降低偏态

3. 删除无关变量

drop_var(['V14','V25','V26','V32','V33','V34','V35'])
dtrain, dtest = split_dfull()

4. 对偏态数据进行正态化转换

# 分布呈明显左偏的特征
piantai = ['V0','V1','V6','V7','V8','V12','V16','V31']

# 创建函数——找到令偏态系数绝对值最小的对数转换的底
def find_min_skew(data):
    subs = list(np.arange(1.01,2,0.01))
    skews = []
    for x in subs:
        skew = abs(stats.skew(np.power(x,data)))
        skews.append(skew)
    min_skew = min(skews)
    i = skews.index(min_skew)
    return subs[i], min_skew

偏态数据对数转换前后对比可视化

plt.figure(figsize=(20,36), dpi=80)

i = 0
for col in piantai:
    
    # 正态化之前的偏态特征与结果变量相关图与正态分布图
    i += 1
    plt.subplot(8,4,i)
    sns.regplot(col, 'target', data = dtrain,
               scatter_kws = {'marker': '.', 's': 5, 'alpha': .6},
               line_kws = {'color': 'k'})
    coef = np.corrcoef(dtrain[col], dtrain['target'])[0][1]
    plt.title(f'coef = {coef}')
    plt.xlabel(col)
    plt.ylabel('target')
    
    i += 1
    plt.subplot(8,4,i)
    sns.distplot(dtrain[col], fit = stats.norm)
    plt.title(f'skew = {stats.skew(dtrain[col])}')
    plt.xlabel(col)
    
    # 找到合适的底数,对dtrain的偏态特征进行对数转换
    sub = find_min_skew(dfull[col])[0]
    dtrain[col] = np.power(sub, dtrain[col])
    
    # 对数转换之后特征与结果变量相关图与正态分布图
    i += 1
    plt.subplot(8,4,i)
    sns.regplot(col, 'target', data = dtrain,
               scatter_kws = {'marker': '.', 's': 5, 'alpha': .6},
               line_kws = {'color': 'k'})
    coef = np.corrcoef(dtrain[col], dtrain['target'])[0][1]
    plt.title(f'coef = {coef}')
    plt.xlabel(col+' transformed')
    plt.ylabel('target')
    
    i += 1
    plt.subplot(8,4,i)
    sns.distplot(dtrain[col], fit = stats.norm)
    plt.title(f'skew = {stats.skew(dtrain[col])}')
    plt.xlabel(col+' transformed')
    
plt.tight_layout()

对数转换前后对比
偏态系数 明显减小,同时相关系数未有明显影响
证明该方法可以有效实现特征正态化

因此,对训练集和测试集偏态特征同时进行对数转换

for col in piantai:
    sub = find_min_skew(dfull[col])[0]
    dfull[col] = np.power(sub, dfull[col])
dtrain, dtest = split_dfull()

5. 对剩余特征数据进行标准化

采用 z-score标准化 方法

dfull.iloc[:,:-1] = dfull.iloc[:,:-1].apply(lambda x: (x-x.mean())/x.std())
dtrain, dtest = split_dfull()

特征工程完成!
查看完成后特征分布直方图

plt.figure(figsize=(20,20),dpi=80)
for i in range(22):
    plt.subplot(6,4,i+1)
    sns.distplot(dtrain.iloc[:,i], color='green')
    sns.distplot(dtest.iloc[:,i], color='red')
    plt.legend(['Train','Test'])
plt.tight_layout()

特征工程之后的特征数据分布直方图


三、模型训练

模型训练之前,先用岭回归进行预测,剔除训练集中的异常样本(预测残差在3sigma之外的点)
然后使用以下回归模型进行 模型训练参数调优

  • Lasso 回归
  • SVR 回归
  • XGBoost 回归

将训练数据分割为训练集与验证集

X = np.array(dtrain.iloc[:,:-1])
y = np.array(dtrain['target'])

X_train, X_valid, y_train, y_valid = train_test_split(X, y, test_size=0.2, random_state=0)

创建模型评分函数

def score(y, y_pred):
	# 计算均方误差 MSE
    print('MSE = {0}'.format(mean_squared_error(y, y_pred)))
    # 计算模型决定系数 R2
    print('R2 = {0}'.format(r2_score(y, y_pred)))
    
    # 计算预测残差,找异常点
    y = pd.Series(y)
    y_pred = pd.Series(y_pred, index=y.index)
    resid = y - y_pred
    mean_resid = resid.mean()
    std_resid = resid.std()
    z = (resid - mean_resid) / std_resid
    n_outliers = sum(abs(z)>3)
    
    # 图一:真实值vs预计值
    plt.figure(figsize=(18,5), dpi=80)
    plt.subplot(131)
    plt.plot(y, y_pred, '.')
    plt.xlabel('y')
    plt.ylabel('y_pred')
    plt.title('corr = {:.3f}'.format(np.corrcoef(y,y_pred)[0][1]))
    
    # 图二:残差分布散点图
    plt.subplot(132)
    plt.plot(y, y-y_pred, '.')
    plt.xlabel('y')
    plt.ylabel('resid')
    plt.ylim([-3,3])
    plt.title('std_resid = {:.3f}'.format(std_resid))
    
    # 图三:残差z得分直方图
    plt.subplot(133)
    sns.distplot(z, bins=50)
    plt.xlabel('z')
    plt.title('{:.0f} samples with z>3'.format(n_outliers))
    plt.tight_layout()

开始模型训练前,利用岭回归模型预测,剔除异常样本

# 利用RidgeCV函数自动寻找最优参数
ridge = RidgeCV()
ridge.fit(X_train, y_train)
print('best_alpha = {0}'.format(ridge.alpha_))

y_pred = ridge.predict(X_train)
score(y_train, y_pred)

best_alpha = 10.0
MSE = 0.12396474687013001
R2 = 0.8695133658493558
在这里插入图片描述

找出异常样本点并剔除

resid = y_train - y_pred
resid = pd.Series(resid, index=range(len(y_train)))
resid_z = (resid-resid.mean()) / resid.std()
outliers = resid_z[abs(resid_z)>3].index
print(f'{len(outliers)} Outliers:')
print(outliers.tolist())

plt.figure(figsize=(14,6),dpi=60)

plt.subplot(121)
plt.plot(y_train, y_pred, '.')
plt.plot(y_train[outliers], y_pred[outliers], 'ro')
plt.title(f'MSE = {mean_squared_error(y_train,y_pred)}')
plt.legend(['Accepted', 'Outliers'])
plt.xlabel('y_train')
plt.ylabel('y_pred')

plt.subplot(122)
sns.distplot(resid_z, bins = 50)
sns.distplot(resid_z.loc[outliers], bins = 50, color = 'r')
plt.legend(['Accepted', 'Outliers'])
plt.xlabel('z')
plt.tight_layout()

29 Outliers: [89, 407, 652, 725, 768, 797, 829, 875, 907, 1123, 1190,
1195, 1236, 1295, 1324, 1366, 1544, 1641, 1662, 1706, 1718, 1833,
1983, 2013, 2022, 2025, 2084, 2124, 2279]
在这里插入图片描述

# 异常样本点剔除
X_train = np.array(pd.DataFrame(X_train).drop(outliers,axis=0))
y_train = np.array(pd.Series(y_train).drop(outliers,axis=0))

开始进行模型训练

模型1: Lasso回归

利用LassoCV自动选择最佳正则化参数

lasso = LassoCV(cv=5)
lasso.fit(X_train, y_train)
print('best_alpha = {0}'.format(lasso.alpha_))

pred_lasso = lasso.predict(X_valid)
score(y_valid, pred_lasso)

best_alpha = 0.0008145685058014669
MSE = 0.1335263089686254
R2 = 0.8715017160007512
在这里插入图片描述

模型2: 支持向量回归(SVR)

模型参数:

  • kernel [default=‘rbf’]:
    指定要在算法中使用的内核类型。它必须是’linear’,‘poly’,‘rbf’,‘sigmoid’,‘precomputed’或者callable之一。
    如果没有给出,将使用’rbf’。如果给出了callable,则它用于预先计算内核矩阵。
  • C [default=0]:
    错误术语的惩罚参数C.
  • gamma [default=‘auto’]:
    ‘rbf’,‘poly’和’sigmoid’的核系数。默认值为’auto’,它使用1/nfeatures1/nfeatures,如果gamma='scale’传递,则使用1/nfeaturesX.std1/nfeatures*X.std作为gamma的值。

使用sklearn中的网格搜索方法 GridSearchCV 寻找SVR最优模型参数
创建GridSearchCV网格参数搜寻函数,评价标准为最小均方误差,采用K折交叉验证的检验方法

def gsearch(model, param_grid, scoring='neg_mean_squared_error', splits=5, repeats=1, n_jobs=-1):
    # p次k折交叉验证
    rkfold = RepeatedKFold(n_splits=splits, n_repeats=repeats, random_state=0)
    model_gs = GridSearchCV(model, param_grid=param_grid, scoring=scoring, cv=rkfold, verbose=1, n_jobs=-1)
    model_gs.fit(X_train, y_train)
    print('参数最佳取值: {0}'.format(model_gs.best_params_))
    print('最小均方误差: {0}'.format(abs(model_gs.best_score_)))
    return model_gs

使用SVR回归器默认的“rbf”内核,即高斯核
对惩罚参数C与核系数gamma进行网格搜索CV验证

svr = SVR()
cv_params = {'C': np.logspace(0, 3, 4), 'gamma': np.logspace(-4, -1, 4)}
svr = gsearch(svr, cv_params)

参数最佳取值: {‘C’: 100.0, ‘gamma’: 0.001}
最小均方误差: 0.09654670260096526

缩小参数范围进行细调:

svr = SVR()
cv_params = {'C': [1,2,5,10,15,20,30,50,80,100,150,200], 'gamma': [0.0001,0.0005,0.0008,0.001,0.002,0.003,0.005]}
svr = gsearch(svr, cv_params)

参数最佳取值: {‘C’: 15, ‘gamma’: 0.005}
最小均方误差: 0.09545332435605208

确定最佳参数(C:15, gamma:0.005)
验证集预测

pred_svr = svr.predict(X_valid)
score(y_valid, pred_svr)

MSE = 0.11299160551598528
R2 = 0.8912631710763776
在这里插入图片描述

模型3: XGB回归(XGBRegressor )

模型参数:

  • n_estimators [default=100]:
    决策树的棵树,即总共迭代的次数
  • learning_rate [default=0.3]:
    shrinkage参数,用于更新叶子节点权重时,乘以该系数,避免步长过大。参数值越大,越可能无法收敛。
    把学习率 eta 设置的小一些,小学习率可以使得后面的学习更加仔细。
  • min_child_weight [default=1]:
    这个参数默认是 1,是每个叶子里面 h 的和至少是多少,对正负样本不均衡时的 0-1 分类而言,假设 h 在 0.01 附近,min_child_weight 为 1 意味着叶子节点中最少需要包含 100 个样本。这个参数非常影响结果,控制叶子节点中二阶导的和的最小值,该参数值越小,越容易 overfitting。
  • max_depth [default=6]:
    每颗树的最大深度,树高越深,越容易过拟合。
  • max_leaf_nodes:
    最大叶结点数,与max_depth作用有点重合。
  • gamma [default=0]:
    后剪枝时,用于控制是否后剪枝的参数。
  • max_delta_step [default=0]:
    这个参数在更新步骤中起作用,如果取0表示没有约束,如果取正值则使得更新步骤更加保守。
    可以防止做太大的更新步子,使更新更加平缓。
  • subsample [default=1]:
    样本随机采样,较低的值使得算法更加保守,防止过拟合,但是太小的值也会造成欠拟合。
  • colsample_bytree [default=1]:
    列采样,对每棵树的生成用的特征进行列采样.一般设置为: 0.5-1
  • reg_lambda [default=1]:
    控制模型复杂度的权重值的L2正则化项参数,参数越大,模型越不容易过拟合。
  • reg_alpha [default=0]:
    控制模型复杂程度的权重值的 L1 正则项参数,参数值越大,模型越不容易过拟合。
  • scale_pos_weight [default=1]:
    如果取值大于0的话,在类别样本不平衡的情况下有助于快速收敛。

参数调优方法参考:XGBRegressor参数调优

# 初始参数值
params = {'learning_rate': 0.1, 'n_estimators': 500, 'max_depth': 5, 'min_child_weight': 1, 'seed': 0,
          'subsample': 0.8, 'colsample_bytree': 0.8, 'gamma': 0, 'reg_alpha': 0, 'reg_lambda': 1}
  1. 最佳迭代次数:n_estimators
cv_params = {'n_estimators': [100,200,300,400,500,600,700,800,900,1000,1100,1200]}
xgb = XGBRegressor(**params)
xgb = gsearch(xgb, cv_params)

参数最佳取值: {‘n_estimators’: 500}
最小均方误差: 0.10051833286889462

# 更新参数
params['n_estimators'] = 500
  1. min_child_weight 以及 max_depth
cv_params = {'max_depth': [3,4,5,6,7,8,9],
            'min_child_weight': [1,2,3,4,5,6,7]}
xgb = XGBRegressor(**params)
xgb = gsearch(xgb, cv_params)

参数最佳取值: {‘max_depth’: 4, ‘min_child_weight’: 7}
最小均方误差: 0.09550672795811381

# 更新参数  
params['max_depth'] = 4
params['min_child_weight'] = 7
  1. 后剪枝参数 gamma
cv_params = {'gamma': [0,0.01,0.05,0.1,0.2,0.3,0.4,0.5,0.6]}
xgb = XGBRegressor(**params)
xgb = gsearch(xgb, cv_params)

参数最佳取值: {‘gamma’: 0}
最小均方误差: 0.09550672795811381

# 更新参数
params['gamma'] = 0
  1. 样本采样subsample 和 列采样colsample_bytree
cv_params = {'subsample': [0.6,0.7,0.8,0.9],
            'colsample_bytree': [0.6,0.7,0.8,0.9]}
xgb = XGBRegressor(**params)
xgb = gsearch(xgb, cv_params)

参数最佳取值: {‘colsample_bytree’: 0.8, ‘subsample’: 0.8}
最小均方误差: 0.09550672795811381

# 更新参数
params['subsample'] = 0.8
params['colsample_bytree'] = 0.8
  1. L1正则项参数reg_alpha 和 L2正则项参数reg_lambda
cv_params = {'reg_alpha': [0,0.02,0.05,0.1,1,2,3],
             'reg_lambda': [0,0.02,0.05,0.1,1,2,3]}
xgb = XGBRegressor(**params)
xgb = gsearch(xgb, cv_params)

参数最佳取值: {‘reg_alpha’: 0, ‘reg_lambda’: 1}
最小均方误差: 0.09550672795811381

# 更新参数
params['reg_alpha'] = 0
params['reg_lambda'] = 1
  1. 最后是learning_rate,一般这时候要调小学习率来测试
cv_params = {'learning_rate': [0.01, 0.02, 0.03, 0.04, 0.05, 0.07, 0.1, 0.2]}
xgb = XGBRegressor(**params)
xgb = gsearch(xgb, cv_params)

参数最佳取值: {‘learning_rate’: 0.04}
最小均方误差: 0.09450026627677707

# 更新参数
params['learning_rate'] = 0.04

参数调优完成,以验证集进行模型误差验证

pred_xgb = xgb.predict(X_valid)
score(y_valid, pred_xgb)

MSE = 0.12008146312295086
R2 = 0.8844402869321888
在这里插入图片描述


四、模型评估

学习曲线 (learning_curve)
在训练模型时,经常我们是需要判断训练出来的模型是否是过拟合或者欠拟合的,这个时候就需要借助Learning curve来帮助我们进行判断,Learning curve描述的是在不同样本的情况下,训练集和验证集的准确率的变化曲线,通过判断两条曲线的间隔就可以看出模型的大致状态。

models = [lasso, svr, xgb]
model_names = ['Lasso','SVR','XGB']
plt.figure(figsize=(20,5))

for i,m in enumerate(models):
    train_sizes, train_scores, test_scores = learning_curve(m, X, y, cv=5, scoring='neg_mean_squared_error',
                                                            train_sizes=np.linspace(0.1,1.0,5), n_jobs=-1)
    train_scores_mean = -train_scores.mean(axis=1)
    test_scores_mean = -test_scores.mean(axis=1)
    
    plt.subplot(1,3,i+1)
    plt.plot(train_sizes, train_scores_mean, 'o-', label='Train')
    plt.plot(train_sizes, test_scores_mean, '^-', label='Test')
    plt.xlabel('Train_size')
    plt.ylabel('Score')
    plt.ylim([0,0.35])
    plt.title(model_names[i], fontsize=16)
    plt.legend()
    plt.grid()
    
plt.tight_layout()

在这里插入图片描述
从学习曲线可看出,Lasso与SVR模型效果还行,XGB回归模型存在轻微过拟合,后续有待进一步参数优化进行改进。

模型加权融合

对于多个模型结果,采取加权融合的办法进行结合,即对各模型预测结果取加权平均,这样可用避免单个模型在预测某一部分数据时产生较大的误差。
为了取得最小的MSE,利用验证集对各种加权方法进行验证,确定三个模型的权重。

def model_mix(pred_1, pred_2, pred_3):
    result = pd.DataFrame(columns=['Lasso','SVR','XGB','Combine'])
    for a in range(5):
        for b in range(1,6):
            for c in range(5):
                y_pred = (a*pred_1 + b*pred_2 + c*pred_3) / (a+b+c)
                mse = mean_squared_error(y_valid, y_pred)
                result = result.append([{'Lasso':a, 'SVR':b, 'XGB':c, 'Combine':mse}], ignore_index=True)
    return result

model_combine = model_mix(pred_lasso, pred_svr, pred_xgb)
model_combine.sort_values(by='Combine', inplace=True)
model_combine.head()

线下最佳成绩:0.1121
结果表明:在验证集上,Lasso、SVR、XGBRegressor三种模型分别取权重为1/8、8/5、1/4时得到的预测数据均方误差最小,线下 Min(MSE) = 0.1121


五、模型预测

对3种模型预测结果进行加权融合

X_test = np.array(dtest)
ans_lasso = lasso.predict(X_test)
ans_svr = svr.predict(X_test)
ans_xgb = xgb.predict(X_test)
ans_mix = (ans_lasso + 5 * ans_svr + 2 * ans_xgb) / 8
pd.Series(ans_mix).to_csv('正态+标准化.txt', sep='\t', index=False)
print('Finished!')

Finished!

在这里插入图片描述
线上提交分数:MSE = 0.1222
排名 345 / 4792


一点感想:

首先,通过这个赛题,最重要的是要明白学到了什么。
于我而言,认为最重要的与最需要学习的有以下几点:

  • 掌握数据分析预测比赛的完整流程和总体数据分析方法
  • 进行特征工程的思路以及各种方法,如数据正态化、标准化、PCA等等
  • 模型的选择与训练,参数调优的方法等等,在本赛题中,我分别从线性回归、支持向量机和决策树三种基本回归方法中各挑了一种模型进行预测,其实可以选择更多的模型进行融合预测,如随机森林、GBDT以及神经网络等等。

其次,对于不了解锅炉工况、不理解特征数据意义的外行者来说,能做到0.12-0.13已经很好了,基本上没有新的内容了,对分数吹毛求疵往往得不偿失。其实做到这些就已经足够了,分数的差距主要在特征上,如:你选择了哪几个特征、新造了哪几个特征。这有时是需要具体问题具体分析的,需要一些专业背景知识去特征处理,如预测房价肯定肯房子的地理位置特征有关。

最后,最好的学习方式是分享,希望各位同好们有更好的想法在能够在评论区不吝赐教~

易学教程内所有资源均来自网络或用户发布的内容,如有违反法律规定的内容欢迎反馈
该文章没有解决你所遇到的问题?点击提问,说说你的问题,让更多的人一起探讨吧!