svm算法

近千道真题面经汇总(内附薪资)

我与影子孤独终老i 提交于 2019-11-26 13:00:51
前言 感谢ShawnNg的投稿。 原文开始 我成功拿到了心仪的offer(自然语言算法工程师),也感觉各位大佬分享的面经,所以想回馈一波。在这期间我找到很多面经资料,自己用代码过滤整理了出来。我个人觉得这个资料是十分有用的,我希望也能帮助到各位。祝大家也能够早日找到心仪的工作! [图片上传中…(image-4c2d62-1510246116379-17)] 目录 HR常问问题 开放题 机器学习 编程题 HR常问问题 为什么不读博、对读博报以什么态度。 HR常问问题 为什么选择百度,谷歌百度都给你offer你选哪个。 为什么选择跨专业学计算机? 为什么选择阿里 以后可能要学习很多新技术,你怎么看。 你平时喜欢做什么?看过哪些书?最近在看什么书? 你觉得最有挑战的项目是什么。 你觉得最难忘的事情是什么? 你认为你的优(缺)点是什么。 你还有什么想问的? 加班怎么看。 印象最深刻的事? 压力最大的情况是什么时候。 在面试过程中觉得自己那些当面有进步 场景分析题,有一个任务给你,要求一个月完成,但是以目前的能力一个月完成不了,现在你知道有一个同事擅长这部分工作,但是他有自己的活,帮助你就可能耽误他的进度,问你咋办。 大学令你觉得最不爽的事情是什么 如何学习的? 如何看待加班。 实习期间项目,在组内担任的角色,是否熟悉其他组员的工作。 家庭教育观念? 家里什么情况?独生子女? 将来的职业规划

支持向量机(SVM)

故事扮演 提交于 2019-11-26 12:59:28
一、概念 1、分离超平面:空间内能够将数据分为不同类别的平面 2、线性可分:不同类别数据能够被一个超平面完全分开 3、损失项:模型在数据上违反自身分类原则的程度(是一个求和项) 4、损失系数:损失项的系数(是一个超参数,由模型给定) 5、损失函数L = min (1/2*(||w||)2) + C*max(Σi max(0,1-y(i)*(w.x(i) +c)) 6、预测损失:损失函数的第二项(称作 hinge loss) 7、惩罚项:损失函数的第一项 (在svm中,惩罚项的初衷是最大化margin(两个分类之间的距离)) 8、hard margin : C比较大,此时margin较小,模型更注重靠近超平面的异常点 9、soft margin :C比较小,此时margin较大,模型更注重靠近类别中心的点 10、核函数:机器学习重要的数据处理技巧,通过核函数将原空间中的非线性数据映射为高维(或者无限维)空间中近似线性关系的数据,机器学习模型搭载核函数的方法大体一致。 常用的核函数: 1、线性核函数(linear kernel) 2、多项式核函数(ploynomial kernel) 3、S型核函数(sigmoid kernel) 4、拉普拉斯核函数(laplacian kernel) 5、高斯核函数(RBF kernel) 常用的核函数选择方法: 1、网格搜寻 (grid