浅谈压缩感知(十):范数与稀疏性
问题: 压缩感知中算法会通过L0,L1范数建立的数学模型得到一个稀疏解,那么为什么L0,L1范数会导致一个稀疏解呢? 分析与解释: 1、范数 常见的有 L 0范数、 L 1范数、 L 2范数,经常要将 L 0范数等价为 L 1范数去求解,因为 L 1范数求解是一个凸优化问题,而 L 0范数求解是一个NP难问题。 (关于NP问题:参考阅读 http://www.cnblogs.com/AndyJee/p/5048556.html ) L 0范数指的是x中非零元素的个数,即x的稀疏度,如果x是K稀疏的,则 L 0范数等于K; L 1范数指的是x中所有元素模值的和; L 2范数指的是x中所有元素模值平方的和再开方,它代表着距离的概念; 还有无穷范数,指的是x中元素模的最大值。 2、稀疏性 在压缩感知里经常提到 "K稀疏" 的概念,这个是很容易理解的:也就是对于长度为N的向量(实际上是指一个N维离散离值信号)来说,它的N个元素值只有K个是非零的,其中K<<N,这时我们称这个向量是K稀疏的或者说是严格K稀疏的;实际中要做到严格K稀疏不容易,一般来说,只要除了这K个值其它的值很小很小,我们就认为向量是稀疏的,这时区别于严格K稀疏且就叫它K稀疏吧。 为什么要谈稀疏这个问题呢?因为如果信号是稀疏的,则它是可压缩的,也就是说里面那么多零,我只记录那些非零值及它的位置就好了。 当然