BY:乔木
题目描述
比赛链接:工业蒸汽量预测
赛题背景
火力发电的基本原理是:燃料在燃烧时加热水生成蒸汽,蒸汽压力推动汽轮机旋转,然后汽轮机带动发电机旋转,产生电能。 在这一系列的能量转化中,影响发电效率的核心是锅炉的燃烧效率,即燃料燃烧加热水产生高温高压蒸汽。锅炉的燃烧效率的影响因素很多,包括锅炉的可调参数,如燃烧给量,一二次风,引风,返料风,给水水量;以及锅炉的工况,比如锅炉床温、床压,炉膛温度、压力,过热器的温度等。赛题描述
经脱敏后的锅炉传感器采集的数据(采集频率是分钟级别),根据锅炉的工况,预测产生的蒸汽量。
数据说明
数据分成训练数据(train.txt)和测试数据(test.txt),其中字段 V0-V37,这38个字段是作为特征变量,target作为目标变量。 选手利用训练数据训练出模型,预测测试数据的目标变量,排名结果依据预测结果的 MSE(mean square error)。结果提交
选手需要提交测试数据的预测结果(txt格式,只有1列预测结果)。结果评估
预测结果以mean square error作为评判标准。
一、导入数据 | 观察数据
导入相关的库
import numpy as np
import pandas as pd
import matplotlib.pyplot as plt
import seaborn as sns
sns.set(style='ticks')
from scipy import stats
from sklearn.decomposition import PCA
from sklearn.metrics import mean_squared_error, r2_score
from sklearn.model_selection import train_test_split, GridSearchCV, learning_curve, RepeatedKFold
from sklearn.linear_model import LinearRegression, RidgeCV, LassoCV
from sklearn.svm import SVR
from xgboost import XGBRegressor
import warnings
warnings.filterwarnings('ignore')
导入数据
dtrain = pd.read_csv('zhengqi_train.txt', sep='\t')
dtest = pd.read_csv('zhengqi_test.txt', sep='\t')
dfull = pd.concat([dtrain, dtest], ignore_index=True, sort=False)
print('训练集大小: ', np.shape(dtrain))
print('测试集大小: ', np.shape(dtest))
训练集大小: (2888, 39)
测试集大小: (1925, 38)
观察数据基本分布情况
plt.figure(figsize=(18,8),dpi=100)
dfull.boxplot(sym='r^', patch_artist=True, notch=True)
plt.title('DATA-FULL')
- 数据共有38个特征变量和1目标变量
- 所有特征变量及蒸汽量目标变量均为连续型数据
- 所有数据均分布在0附近,且无量级差异
# 查看数据缺失情况
print('缺失值统计:')
print(dfull.apply(lambda x: sum(x.isnull())))
缺失值统计:
V0 0
V1 0
V2 0
V3 0
V4 0
…
V34 0
V35 0
V36 0
V37 0
target 1925
dtype: int64
无缺失数据
接下来绘制数据相关性热力图,查看数据相关性情况
def heatmap(df):
plt.figure(figsize=(20,16), dpi=100)
cols = df.columns.tolist()
mcorr = df[cols].corr(method = 'spearman')
cmap = sns.diverging_palette(220, 10, as_cmap=True)
mask = np.zeros_like(mcorr, dtype = np.bool)
mask[np.triu_indices_from(mask)] = True # 角分线右侧为True
g = sns.heatmap(mcorr, mask=mask, cmap=cmap, square=True, annot=True, fmt='0.2f')
plt.xticks(rotation=45)
return mcorr
dtrain_mcorr = heatmap(dtrain)
热力图中发现,特征之间存在多重共线性,针对这一问题处理方法有以下三种:
- 主成分分析(PCA):通常情况下可能导致模型精度降低
- 正则化:许多较为成熟模型中都带有正则项,同时能够防止模型过拟合
- 逐步回归法:较为繁琐,不建议
在此次比赛中,尝试使用主成分分析,结果发现预测结果并不是太理想,最佳线上成绩为0.1306,因此在此文中未使用PCA方案,仅通过模型调参使用正则化方法消除共线性,不过当对于大量特征无从下手时,PCA也是值得一试的方法
二、特征工程
特征工程往往是影响预测结果好坏的关键所在,在此项目中我主要对数据进行了以下处理:
- 剔除训练集与测试集分布不均匀的特征变量
- 查看特征与目标变量相关系数,剔除相关系数低于0.1的无关变量
- 查看特征分布偏态系数,将部分明显左偏/右偏的特征数据进行正态化
- 对剩余特征数据进行标准化
另外对更多特征处理方法感兴趣的同学可用参考:工业蒸汽量预测 | 天池论坛
创建特征剔除函数,方便对数据进行统一处理
# 删除dfull表中指定的列
def drop_var(var_lst):
dfull.drop(var_lst, axis=1, inplace=True)
# 将dfull重新分割为dtrain核dtest
def split_dfull():
dtrain = dfull[dfull['target'].notnull()]
dtest = dfull[dfull['target'].isnull()]
dtest.drop('target', axis=1, inplace=True)
return dtrain, dtest
1. 剔除训练集与测试集分布不均匀的特征变量
针对38个特征变量画训练数据和测试数据特征分布直方图
plt.figure(figsize=(20,50),dpi=100)
for i in range(38):
plt.subplot(10,4,i+1)
sns.distplot(dtrain.iloc[:,i], color='green')
sns.distplot(dtest.iloc[:,i], color='red')
plt.legend(['Train','Test'])
plt.tight_layout()
从各特征数据分布直方图发现:
V5、V9、V11、V17、V20、V21、V22、V27、V28 特征训练集和测试集分布差异过大
因此为了减小数据分布不均对预测结果的影响,应将上述特征进行剔除
drop_var(['V5','V9','V11','V17','V20','V21','V22','V27','V28'])
dtrain, dtest = split_dfull()
2. 查看各特征与结果变量的相关性,以及是否服从正态分布
利用sns.regplot查看特征与目标变量间的线性关系强弱;
利用sns.distplot查看每个特征分布情况,并进行正态拟合。
plt.figure(figsize=(20,60),dpi=80)
i = 0
for col in dtrain.columns:
i += 1
plt.subplot(15,4,i)
sns.regplot(col, 'target', data = dtrain,
scatter_kws = {'marker': '.', 's': 5, 'alpha': .6},
line_kws = {'color': 'k'})
coef = np.corrcoef(dtrain[col], dtrain['target'])[0][1]
plt.title(f'coef = {coef}')
plt.xlabel(col)
plt.ylabel('target')
i += 1
plt.subplot(15,4,i)
sns.distplot(dtrain[col], fit = stats.norm)
plt.title(f'skew = {stats.skew(dtrain[col])}')
plt.xlabel(col)
plt.tight_layout()
从图中可看出:
- V14、V25、V26、V32、V33、V34、V35 与结果变量相关性很低,予以 删除
- V0、V1、V6、V7、V8、V12、V16、V31 存在明显的数据左偏,可用 对数转换 降低偏态
3. 删除无关变量
drop_var(['V14','V25','V26','V32','V33','V34','V35'])
dtrain, dtest = split_dfull()
4. 对偏态数据进行正态化转换
# 分布呈明显左偏的特征
piantai = ['V0','V1','V6','V7','V8','V12','V16','V31']
# 创建函数——找到令偏态系数绝对值最小的对数转换的底
def find_min_skew(data):
subs = list(np.arange(1.01,2,0.01))
skews = []
for x in subs:
skew = abs(stats.skew(np.power(x,data)))
skews.append(skew)
min_skew = min(skews)
i = skews.index(min_skew)
return subs[i], min_skew
偏态数据对数转换前后对比可视化
plt.figure(figsize=(20,36), dpi=80)
i = 0
for col in piantai:
# 正态化之前的偏态特征与结果变量相关图与正态分布图
i += 1
plt.subplot(8,4,i)
sns.regplot(col, 'target', data = dtrain,
scatter_kws = {'marker': '.', 's': 5, 'alpha': .6},
line_kws = {'color': 'k'})
coef = np.corrcoef(dtrain[col], dtrain['target'])[0][1]
plt.title(f'coef = {coef}')
plt.xlabel(col)
plt.ylabel('target')
i += 1
plt.subplot(8,4,i)
sns.distplot(dtrain[col], fit = stats.norm)
plt.title(f'skew = {stats.skew(dtrain[col])}')
plt.xlabel(col)
# 找到合适的底数,对dtrain的偏态特征进行对数转换
sub = find_min_skew(dfull[col])[0]
dtrain[col] = np.power(sub, dtrain[col])
# 对数转换之后特征与结果变量相关图与正态分布图
i += 1
plt.subplot(8,4,i)
sns.regplot(col, 'target', data = dtrain,
scatter_kws = {'marker': '.', 's': 5, 'alpha': .6},
line_kws = {'color': 'k'})
coef = np.corrcoef(dtrain[col], dtrain['target'])[0][1]
plt.title(f'coef = {coef}')
plt.xlabel(col+' transformed')
plt.ylabel('target')
i += 1
plt.subplot(8,4,i)
sns.distplot(dtrain[col], fit = stats.norm)
plt.title(f'skew = {stats.skew(dtrain[col])}')
plt.xlabel(col+' transformed')
plt.tight_layout()
偏态系数 明显减小,同时相关系数未有明显影响
证明该方法可以有效实现特征正态化
因此,对训练集和测试集偏态特征同时进行对数转换
for col in piantai:
sub = find_min_skew(dfull[col])[0]
dfull[col] = np.power(sub, dfull[col])
dtrain, dtest = split_dfull()
5. 对剩余特征数据进行标准化
采用 z-score标准化 方法
dfull.iloc[:,:-1] = dfull.iloc[:,:-1].apply(lambda x: (x-x.mean())/x.std())
dtrain, dtest = split_dfull()
特征工程完成!
查看完成后特征分布直方图
plt.figure(figsize=(20,20),dpi=80)
for i in range(22):
plt.subplot(6,4,i+1)
sns.distplot(dtrain.iloc[:,i], color='green')
sns.distplot(dtest.iloc[:,i], color='red')
plt.legend(['Train','Test'])
plt.tight_layout()
三、模型训练
模型训练之前,先用岭回归进行预测,剔除训练集中的异常样本(预测残差在3sigma之外的点)
然后使用以下回归模型进行 模型训练 和 参数调优
- Lasso 回归
- SVR 回归
- XGBoost 回归
将训练数据分割为训练集与验证集
X = np.array(dtrain.iloc[:,:-1])
y = np.array(dtrain['target'])
X_train, X_valid, y_train, y_valid = train_test_split(X, y, test_size=0.2, random_state=0)
创建模型评分函数
def score(y, y_pred):
# 计算均方误差 MSE
print('MSE = {0}'.format(mean_squared_error(y, y_pred)))
# 计算模型决定系数 R2
print('R2 = {0}'.format(r2_score(y, y_pred)))
# 计算预测残差,找异常点
y = pd.Series(y)
y_pred = pd.Series(y_pred, index=y.index)
resid = y - y_pred
mean_resid = resid.mean()
std_resid = resid.std()
z = (resid - mean_resid) / std_resid
n_outliers = sum(abs(z)>3)
# 图一:真实值vs预计值
plt.figure(figsize=(18,5), dpi=80)
plt.subplot(131)
plt.plot(y, y_pred, '.')
plt.xlabel('y')
plt.ylabel('y_pred')
plt.title('corr = {:.3f}'.format(np.corrcoef(y,y_pred)[0][1]))
# 图二:残差分布散点图
plt.subplot(132)
plt.plot(y, y-y_pred, '.')
plt.xlabel('y')
plt.ylabel('resid')
plt.ylim([-3,3])
plt.title('std_resid = {:.3f}'.format(std_resid))
# 图三:残差z得分直方图
plt.subplot(133)
sns.distplot(z, bins=50)
plt.xlabel('z')
plt.title('{:.0f} samples with z>3'.format(n_outliers))
plt.tight_layout()
开始模型训练前,利用岭回归模型预测,剔除异常样本
# 利用RidgeCV函数自动寻找最优参数
ridge = RidgeCV()
ridge.fit(X_train, y_train)
print('best_alpha = {0}'.format(ridge.alpha_))
y_pred = ridge.predict(X_train)
score(y_train, y_pred)
best_alpha = 10.0
MSE = 0.12396474687013001
R2 = 0.8695133658493558
找出异常样本点并剔除
resid = y_train - y_pred
resid = pd.Series(resid, index=range(len(y_train)))
resid_z = (resid-resid.mean()) / resid.std()
outliers = resid_z[abs(resid_z)>3].index
print(f'{len(outliers)} Outliers:')
print(outliers.tolist())
plt.figure(figsize=(14,6),dpi=60)
plt.subplot(121)
plt.plot(y_train, y_pred, '.')
plt.plot(y_train[outliers], y_pred[outliers], 'ro')
plt.title(f'MSE = {mean_squared_error(y_train,y_pred)}')
plt.legend(['Accepted', 'Outliers'])
plt.xlabel('y_train')
plt.ylabel('y_pred')
plt.subplot(122)
sns.distplot(resid_z, bins = 50)
sns.distplot(resid_z.loc[outliers], bins = 50, color = 'r')
plt.legend(['Accepted', 'Outliers'])
plt.xlabel('z')
plt.tight_layout()
29 Outliers: [89, 407, 652, 725, 768, 797, 829, 875, 907, 1123, 1190,
1195, 1236, 1295, 1324, 1366, 1544, 1641, 1662, 1706, 1718, 1833,
1983, 2013, 2022, 2025, 2084, 2124, 2279]
# 异常样本点剔除
X_train = np.array(pd.DataFrame(X_train).drop(outliers,axis=0))
y_train = np.array(pd.Series(y_train).drop(outliers,axis=0))
开始进行模型训练
模型1: Lasso回归
利用LassoCV自动选择最佳正则化参数
lasso = LassoCV(cv=5)
lasso.fit(X_train, y_train)
print('best_alpha = {0}'.format(lasso.alpha_))
pred_lasso = lasso.predict(X_valid)
score(y_valid, pred_lasso)
best_alpha = 0.0008145685058014669
MSE = 0.1335263089686254
R2 = 0.8715017160007512
模型2: 支持向量回归(SVR)
模型参数:
- kernel [default=‘rbf’]:
指定要在算法中使用的内核类型。它必须是’linear’,‘poly’,‘rbf’,‘sigmoid’,‘precomputed’或者callable之一。
如果没有给出,将使用’rbf’。如果给出了callable,则它用于预先计算内核矩阵。 - C [default=0]:
错误术语的惩罚参数C. - gamma [default=‘auto’]:
‘rbf’,‘poly’和’sigmoid’的核系数。默认值为’auto’,它使用,如果gamma='scale’传递,则使用作为gamma的值。
使用sklearn中的网格搜索方法 GridSearchCV 寻找SVR最优模型参数
创建GridSearchCV网格参数搜寻函数,评价标准为最小均方误差,采用K折交叉验证的检验方法
def gsearch(model, param_grid, scoring='neg_mean_squared_error', splits=5, repeats=1, n_jobs=-1):
# p次k折交叉验证
rkfold = RepeatedKFold(n_splits=splits, n_repeats=repeats, random_state=0)
model_gs = GridSearchCV(model, param_grid=param_grid, scoring=scoring, cv=rkfold, verbose=1, n_jobs=-1)
model_gs.fit(X_train, y_train)
print('参数最佳取值: {0}'.format(model_gs.best_params_))
print('最小均方误差: {0}'.format(abs(model_gs.best_score_)))
return model_gs
使用SVR回归器默认的“rbf”内核,即高斯核
对惩罚参数C与核系数gamma进行网格搜索CV验证
svr = SVR()
cv_params = {'C': np.logspace(0, 3, 4), 'gamma': np.logspace(-4, -1, 4)}
svr = gsearch(svr, cv_params)
参数最佳取值: {‘C’: 100.0, ‘gamma’: 0.001}
最小均方误差: 0.09654670260096526
缩小参数范围进行细调:
svr = SVR()
cv_params = {'C': [1,2,5,10,15,20,30,50,80,100,150,200], 'gamma': [0.0001,0.0005,0.0008,0.001,0.002,0.003,0.005]}
svr = gsearch(svr, cv_params)
参数最佳取值: {‘C’: 15, ‘gamma’: 0.005}
最小均方误差: 0.09545332435605208
确定最佳参数(C:15, gamma:0.005)
验证集预测
pred_svr = svr.predict(X_valid)
score(y_valid, pred_svr)
MSE = 0.11299160551598528
R2 = 0.8912631710763776
模型3: XGB回归(XGBRegressor )
模型参数:
- n_estimators [default=100]:
决策树的棵树,即总共迭代的次数 - learning_rate [default=0.3]:
shrinkage参数,用于更新叶子节点权重时,乘以该系数,避免步长过大。参数值越大,越可能无法收敛。
把学习率 eta 设置的小一些,小学习率可以使得后面的学习更加仔细。 - min_child_weight [default=1]:
这个参数默认是 1,是每个叶子里面 h 的和至少是多少,对正负样本不均衡时的 0-1 分类而言,假设 h 在 0.01 附近,min_child_weight 为 1 意味着叶子节点中最少需要包含 100 个样本。这个参数非常影响结果,控制叶子节点中二阶导的和的最小值,该参数值越小,越容易 overfitting。 - max_depth [default=6]:
每颗树的最大深度,树高越深,越容易过拟合。 - max_leaf_nodes:
最大叶结点数,与max_depth作用有点重合。 - gamma [default=0]:
后剪枝时,用于控制是否后剪枝的参数。 - max_delta_step [default=0]:
这个参数在更新步骤中起作用,如果取0表示没有约束,如果取正值则使得更新步骤更加保守。
可以防止做太大的更新步子,使更新更加平缓。 - subsample [default=1]:
样本随机采样,较低的值使得算法更加保守,防止过拟合,但是太小的值也会造成欠拟合。 - colsample_bytree [default=1]:
列采样,对每棵树的生成用的特征进行列采样.一般设置为: 0.5-1 - reg_lambda [default=1]:
控制模型复杂度的权重值的L2正则化项参数,参数越大,模型越不容易过拟合。 - reg_alpha [default=0]:
控制模型复杂程度的权重值的 L1 正则项参数,参数值越大,模型越不容易过拟合。 - scale_pos_weight [default=1]:
如果取值大于0的话,在类别样本不平衡的情况下有助于快速收敛。
参数调优方法参考:XGBRegressor参数调优
# 初始参数值
params = {'learning_rate': 0.1, 'n_estimators': 500, 'max_depth': 5, 'min_child_weight': 1, 'seed': 0,
'subsample': 0.8, 'colsample_bytree': 0.8, 'gamma': 0, 'reg_alpha': 0, 'reg_lambda': 1}
- 最佳迭代次数:n_estimators
cv_params = {'n_estimators': [100,200,300,400,500,600,700,800,900,1000,1100,1200]}
xgb = XGBRegressor(**params)
xgb = gsearch(xgb, cv_params)
参数最佳取值: {‘n_estimators’: 500}
最小均方误差: 0.10051833286889462
# 更新参数
params['n_estimators'] = 500
- min_child_weight 以及 max_depth
cv_params = {'max_depth': [3,4,5,6,7,8,9],
'min_child_weight': [1,2,3,4,5,6,7]}
xgb = XGBRegressor(**params)
xgb = gsearch(xgb, cv_params)
参数最佳取值: {‘max_depth’: 4, ‘min_child_weight’: 7}
最小均方误差: 0.09550672795811381
# 更新参数
params['max_depth'] = 4
params['min_child_weight'] = 7
- 后剪枝参数 gamma
cv_params = {'gamma': [0,0.01,0.05,0.1,0.2,0.3,0.4,0.5,0.6]}
xgb = XGBRegressor(**params)
xgb = gsearch(xgb, cv_params)
参数最佳取值: {‘gamma’: 0}
最小均方误差: 0.09550672795811381
# 更新参数
params['gamma'] = 0
- 样本采样subsample 和 列采样colsample_bytree
cv_params = {'subsample': [0.6,0.7,0.8,0.9],
'colsample_bytree': [0.6,0.7,0.8,0.9]}
xgb = XGBRegressor(**params)
xgb = gsearch(xgb, cv_params)
参数最佳取值: {‘colsample_bytree’: 0.8, ‘subsample’: 0.8}
最小均方误差: 0.09550672795811381
# 更新参数
params['subsample'] = 0.8
params['colsample_bytree'] = 0.8
- L1正则项参数reg_alpha 和 L2正则项参数reg_lambda
cv_params = {'reg_alpha': [0,0.02,0.05,0.1,1,2,3],
'reg_lambda': [0,0.02,0.05,0.1,1,2,3]}
xgb = XGBRegressor(**params)
xgb = gsearch(xgb, cv_params)
参数最佳取值: {‘reg_alpha’: 0, ‘reg_lambda’: 1}
最小均方误差: 0.09550672795811381
# 更新参数
params['reg_alpha'] = 0
params['reg_lambda'] = 1
- 最后是learning_rate,一般这时候要调小学习率来测试
cv_params = {'learning_rate': [0.01, 0.02, 0.03, 0.04, 0.05, 0.07, 0.1, 0.2]}
xgb = XGBRegressor(**params)
xgb = gsearch(xgb, cv_params)
参数最佳取值: {‘learning_rate’: 0.04}
最小均方误差: 0.09450026627677707
# 更新参数
params['learning_rate'] = 0.04
参数调优完成,以验证集进行模型误差验证
pred_xgb = xgb.predict(X_valid)
score(y_valid, pred_xgb)
MSE = 0.12008146312295086
R2 = 0.8844402869321888
四、模型评估
学习曲线 (learning_curve)
在训练模型时,经常我们是需要判断训练出来的模型是否是过拟合或者欠拟合的,这个时候就需要借助Learning curve来帮助我们进行判断,Learning curve描述的是在不同样本的情况下,训练集和验证集的准确率的变化曲线,通过判断两条曲线的间隔就可以看出模型的大致状态。
models = [lasso, svr, xgb]
model_names = ['Lasso','SVR','XGB']
plt.figure(figsize=(20,5))
for i,m in enumerate(models):
train_sizes, train_scores, test_scores = learning_curve(m, X, y, cv=5, scoring='neg_mean_squared_error',
train_sizes=np.linspace(0.1,1.0,5), n_jobs=-1)
train_scores_mean = -train_scores.mean(axis=1)
test_scores_mean = -test_scores.mean(axis=1)
plt.subplot(1,3,i+1)
plt.plot(train_sizes, train_scores_mean, 'o-', label='Train')
plt.plot(train_sizes, test_scores_mean, '^-', label='Test')
plt.xlabel('Train_size')
plt.ylabel('Score')
plt.ylim([0,0.35])
plt.title(model_names[i], fontsize=16)
plt.legend()
plt.grid()
plt.tight_layout()
从学习曲线可看出,Lasso与SVR模型效果还行,XGB回归模型存在轻微过拟合,后续有待进一步参数优化进行改进。
模型加权融合
对于多个模型结果,采取加权融合的办法进行结合,即对各模型预测结果取加权平均,这样可用避免单个模型在预测某一部分数据时产生较大的误差。
为了取得最小的MSE,利用验证集对各种加权方法进行验证,确定三个模型的权重。
def model_mix(pred_1, pred_2, pred_3):
result = pd.DataFrame(columns=['Lasso','SVR','XGB','Combine'])
for a in range(5):
for b in range(1,6):
for c in range(5):
y_pred = (a*pred_1 + b*pred_2 + c*pred_3) / (a+b+c)
mse = mean_squared_error(y_valid, y_pred)
result = result.append([{'Lasso':a, 'SVR':b, 'XGB':c, 'Combine':mse}], ignore_index=True)
return result
model_combine = model_mix(pred_lasso, pred_svr, pred_xgb)
model_combine.sort_values(by='Combine', inplace=True)
model_combine.head()
结果表明:在验证集上,Lasso、SVR、XGBRegressor三种模型分别取权重为1/8、8/5、1/4时得到的预测数据均方误差最小,线下 Min(MSE) = 0.1121
五、模型预测
对3种模型预测结果进行加权融合
X_test = np.array(dtest)
ans_lasso = lasso.predict(X_test)
ans_svr = svr.predict(X_test)
ans_xgb = xgb.predict(X_test)
ans_mix = (ans_lasso + 5 * ans_svr + 2 * ans_xgb) / 8
pd.Series(ans_mix).to_csv('正态+标准化.txt', sep='\t', index=False)
print('Finished!')
Finished!
线上提交分数:MSE = 0.1222
排名 345 / 4792
一点感想:
首先,通过这个赛题,最重要的是要明白学到了什么。
于我而言,认为最重要的与最需要学习的有以下几点:
- 掌握数据分析预测比赛的完整流程和总体数据分析方法
- 进行特征工程的思路以及各种方法,如数据正态化、标准化、PCA等等
- 模型的选择与训练,参数调优的方法等等,在本赛题中,我分别从线性回归、支持向量机和决策树三种基本回归方法中各挑了一种模型进行预测,其实可以选择更多的模型进行融合预测,如随机森林、GBDT以及神经网络等等。
其次,对于不了解锅炉工况、不理解特征数据意义的外行者来说,能做到0.12-0.13已经很好了,基本上没有新的内容了,对分数吹毛求疵往往得不偿失。其实做到这些就已经足够了,分数的差距主要在特征上,如:你选择了哪几个特征、新造了哪几个特征。这有时是需要具体问题具体分析的,需要一些专业背景知识去特征处理,如预测房价肯定肯房子的地理位置特征有关。
最后,最好的学习方式是分享,希望各位同好们有更好的想法在能够在评论区不吝赐教~
来源:CSDN
作者:乔木zzz
链接:https://blog.csdn.net/weixin_42565558/article/details/104570584