超参数的调优(lightgbm)
参考 原文 Automated Hyperparameter Optimization 超参数的优化过程:通过自动化 目的:使用带有策略的启发式搜索(informed search)在更短的时间内找到最优超参数,除了初始设置之外,并不需要额外的手动操作。 实践部分 贝叶斯优化问题有四个组成部分: 目标函数:我们想要最小化的对象,这里指带超参数的机器学习模型的验证误差 域空间:待搜索的超参数值 优化算法:构造代理模型和选择接下来要评估的超参数值的方法 结果的历史数据:存储下来的目标函数评估结果,包含超参数和验证损失 通过以上四个步骤,我们可以对任意实值函数进行优化(找到最小值)。这是一个强大的抽象过程,除了机器学习超参数的调优,它还能帮我们解决其他许多问题。 代码示例 数据集:https://www.jiqizhixin.com/articles/2018-08-08-2 目标:预测客户是否会购买一份保险产品 监督分类问题 观测值:5800 测试点:4000 不平衡的分类问题,本文使用的评价性能的指标是受试者工作特征曲线下的面积(ROC AUC),ROC AUC 的值越高越好,其值为 1 代表模型是完美的。 什么是不平衡的分类问题? 如何处理数据中的「类别不平衡」? 极端类别不平衡数据下的分类问题S01:困难与挑战 hyperropt1125.py - 导入库 import