一、机器学习基础题
1、LSTM的公式
2、RNN为什么出现梯度消失及BPTT的推导
3、DQN的基本原理么
4、GBDT和随机森林有什么区别
5、GBDT的原理,如何做分类和回归
6、随机森林的随机体现在哪方面
7、Wide &Deep的原理
8、GBDT+LR是怎么做的?
9、DQN模型为什么要做经验回放
10、数据之间如果不是独立同分布的会怎样
11、AUC的原理介绍一下
12、XGBOOst和GBDT的区别。
13、强化学习和监督学习的区别
14、神经网络里面的损失函数有哪些
15、机器学习中常见的激活函数有哪些?为什么通常需要零均值?
16、DeepFM介绍
17、FM推导
18、boosting和bagging的区别?
19、bagging为什么能减小方差?
20、交叉熵损失函数,0-1分类的交叉熵损失函数的形式。什么是凸函数?0-1分类如果用平方损失为什么用交叉熵而不是平方损失?
21、L1和L2有什么区别,从数学角度解释L2为什么能提升模型的泛化能力。
22、深度学习中,L2和dropout有哪些区别?
23、L1正则化有哪些好处
24、如果有一万个地理坐标,转换成1-10000的数,可以用决策树么?
25、CART分类树和ID3以及C4.5有什么区别?
26、树集成模型有哪几种实现方式:Bagging和Boosting,回答过程中又问到了很多细节。随即森林的随机体现在哪些方面,AdaBoost是如何改变样本权重,GBDT分类树拟合的是什么?
27、Dueling DQN和DQN有什么区别
28、early stop对参数有什么影响?
二、数据结构算法题
1、K个有序数组,找一个
来源:oschina
链接:https://my.oschina.net/u/4340449/blog/4329652