子空间学习大意是指通过投影,实现高维特征向低维空间的映射,是一种经典的降维思想。

例如人脸图像,如果每幅图像提取出来的特征是1000维,则每幅图像对应着1000维空间中的一个点。维数太高给计算带来很多问题,且很多人认为真实有效的人脸图像特征并没有那么高维,可能只有100维,即每幅人脸只是100维空间中的一个点。将特征从1000维压缩到100维,就是子空间学习问题。在模式识别中,可能绝大多数的维数约简(降维,投影)算法都算是子空间学习,如PCA, LDA, LPP, LLE等等。子空间学习的主要问题,就是如何将特征从高维空间压缩到低维空间,需要保留什么样的信息,设定什么样的准则,低维空间的特征具有哪些特征等问题。

作者:Jason Gu
链接:https://www.zhihu.com/question/26908926/answer/35314770
来源:知乎

_____________________________________________________________________________________________________

子空间学习: 举例说明,比如你拿到了一组数据要做分类任务,然而数据分布在一个高维空间中,不太方便处理,维度太高导致采用的分类模型的复杂度也相应增高,最终导致分类模型容易过拟合。一般情况下,这个问题无法解决,但是,数据中往往存在一些特性使得这个问题又有了可以解决的希望,比如数据其实分布在高维空间的一个子空间中,你拿到的高维数据其实是子空间中的无噪声数据+高维噪声数据,而这个子空间的维度其实不是很大,那么找出这个子空间,就能保证尽量不丢失信息又能降低数据维度,在这个子空间中做训练,就可以降低过拟合现象。常见的PCA LDA LLE 等都是基于spectral method(谱方法)的子空间学习方法,往往可以看做是kernel pca的特例。还有一类子空间学习方法是R. Vidal做的SSC(subspace clustering)系列,有相应的理论保证。广义上看,子空间学习就是降维。

作者:li Eta
链接:https://www.zhihu.com/question/26908926/answer/72960191
来源:知乎

_____________________________________________________________________________________________________
Logo

CSDN联合极客时间,共同打造面向开发者的精品内容学习社区,助力成长!

更多推荐