机器学习之SVM(Hinge Loss+Kernel Trick)原理推导与解析
支持向量机(Support Vector Machine, SVM)是一类按监督学习方式对数据进行二元分类的广义线性分类器(generalized linear classifier),其决策边界是对学习样本求解的最大边距超平面。 SVM使用铰链损失函数(hinge loss)计算经验风险(empirical risk)并在求解系统中加入了正则化项以优化结构风险(structural risk),是一个具有稀疏性和稳健性的分类器。SVM可以通过核方法(kernel method)进行非线性分类,是常见的核学习(kernel learning)方法之一 。 因此, hinge loss+kernel trick就是Support Vector Machine。 本文借助了李宏毅机器学习笔记,主要是用通俗易懂的语言来推导出hinge loss和kernel trick。 目录 1.引入Hinge loss 1.ideal loss 2.Square loss 3.Sigmoid+Square loss 4.Sigmoid+Cross entropy 5. Hinge loss 2.线性SVM 1.Step1:定义Function 2. Step2:定义loss function。 3.线性SVM的另外一种表述 3.kernel function的引入 1. function set 2