所谓范数及其在机器学习中的作用
本文参考: 1、 https://www.jianshu.com/p/4bad38fe07e6 2、 https://zhuanlan.zhihu.com/p/26884695 3、深度学习入门:基于Python的理论与实现 斋藤康毅(作者) 理解范数 - : 在很多机器学习相关书籍中我们经常看到各种各样的距离及范数,如 、 其中, , 分别表示向量和矩阵。 也有其他的欧氏距离、均方差之类,例如,向量 的欧式范数 (Euclidean norm)为 用于表示向量的大小,这个也被叫 -范数。 为方便统一,一般将任意向量 的 -范数定义为 主要有三类: 、 、 范数的定义: 根据 -范数的定义,当p=0时,我们就有了 -范数 表示向量x中非0元素的个数(0的0次方是0,非零的0次方是1,所以所有的零元素全都没了,只剩下非零元素变成的1了) 大佬是这么说的: 在诸多机器学习模型中,比如压缩感知 (compressive sensing),我们很多时候希望最小化向量的 -范数。一个标准的 -范数优化问题往往可以写成如下形式: 然而,由于 -范数仅仅表示向量中非0元素的个数,因此,这个优化模型在数学上被认为是一个NP-hard问题,即直接求解它很复杂、也不可能找到解。 需要注意的是,正是由于该类优化问题难以求解,因此,压缩感知模型是将 -范数最小化问题转换成 -范数最小化问题。 我就看不懂了