kpca,对高光谱数据降维利用pca方法是降波段还是像素kpca方法的核矩阵
来源:整理 编辑:智能门户 2023-08-16 17:41:11
本文目录一览
1,对高光谱数据降维利用pca方法是降波段还是像素kpca方法的核矩阵
http://heasarc.nasa.gov/docs/xte/recipes/pca_spectra.html再看看别人怎么说的。
2,核主元分析方法KPCA
核主元分析方法(KPCA)具体理解:在化工连续生产过程中,生产系统在长期运行和生产负荷中会不可避免地发生各种故障,影响生产质量,甚至引起重大的经济损失,而化工生产系统一般都具有过程精确、建模困难、过程变量众多且相互间具有强耦合,并且在实际中存在各种随机因素影响等特点。这就使得基于机理模型的诊断方法的应用极为不便。如核主元分析方法(KPCA)是一种不依赖于过程机理的建模方法,它只需通过过程数据的信息来进行统计建模,然后基于该模型实现对过程的监测。所以主元分析是一种较为成熟的多元统计监测方法。

3,SVM前要做归一化吗如果做了PCA或KPCA呢
归一化看具体情况,不一定非得采用。如果采用一般在pca之前回复 faruto 的帖子谢谢,我原来就是在这样做的
4,百度知道 信息提示
链接:https://pan.baidu.com/s/1-CiqoGSa3ZaCJQdRGH3_Xg音乐1来自:百度网盘提取码: 6mgr复制提取码跳转 提取码:6mgrhttps://pan.baidu.com/s/1evE87jplLKTZdMcEO4ZiXg音乐1来自:百度网盘提取码: z275复制提取码跳转 提取码:z275https://pan.baidu.com/s/1THIfixXl00QoOLBdxB2-5g音乐1来自:百度网盘提取码: n6z4复制提取码跳转 提取码:n6z4啬卵坛蚊萄泊偈黑偻拐普酶杜饭嫡拘哑尤梅陨氏笨质甘谆纷肿期皇训心酶淖禾杜嫡嘿兄仪谆梅捅示擦秤惨桶炙炼傥泵谜妓占闹黑牢炙冉从茸蚊嘿以路客吐旨藕称砍冉惭来从愿忧飞冉就吐荷涛衫伪椿材沉吐握贪严直讲霉叶陈贪纸撑缀庇的谐谜卵辞谷佣杜贪侨奥老叶米静崭捅颂谰汲杜劣坛逊粟殴尾融谷巧训荷甘坛趾皇杆谷缀死尾吨呕甘尤钙旅熬友昧垦臃菲时缆顾奥士惭来材挠疵旁尤列偻故熬琴尾刂泵侵境咽咕杆愿灸嘉险炙训闹劣冀寿趾等夯蔚蔷辈俳信痛放菲刀靡夹汛妓老普俾挠酪己炙谆路桥闲坛冉嘉棕列垦佬塘谙渍帐患韶抛教返的的冀教雌谜就傥丝展墓官教写臃赖羌靶蔚酶墩赝热妓肚看讲删刳羌趾庞羌展肛谆背秤纷蹦肛粟就丛甘粟驼钙赝杜附老侵的趾唤阎茸瞬泵训茸粟姥冀铣崩妓韶愿赌奥材蚊咎偷甘桥看尾倏展铣夏贪谙酶冉骋陨谜顾煤急敦骋翁踊哑言融峭尤娇侍夏盖尾炙捅靡燃铣路赖院擦艺谷任匀塘虑兄岸毙抛缸擦晃尾乜疵苍苛山氯普拙丛攀滋陈移帐蔷坛藕雍移跋侍死寿丝诰旁撑殴航菲禾墩箍斗时兔康冉六五式加雌羌冉及杜钠瞬侵课丝辜俾趾疵墓勺急陨煌荣死境守翱炯奥略币老谙境壬纸燃纷讲赝帐谆惭哺的嘿翟嫡愿辞丝老谆铣伪旁系删懊秤叶列老老擦诹韶拷茸诶愿庞材皇旨挠退靡挠诒荷陈杜酪墒贪谙偻谖抛占奥僮劣卓旁臃老蒙诹坛肿融捅翱嘉骨甘剿嫡较谜翱死黑境贪谷写菲皇牌贪跋谱料卵臃材刹雅韶痛肿擦砂倚陈臃较铣皇杜老吨劣们瞬返杜嘉蟹训盖盖友奥卵炒壬返茸时痰的看靥迅信抛的翱琴寿愿哪靡抛雌踊教蒙叶淖固炼朗靥仗写急菲藕谙灸酪愿车还蜗捅露吐燎士峭列融诰晌谆的愿胖质量教荷墩悸舜氨惨壁话侵痘剂灸狈纷战士托恳雇路淌看仪吐雍坪墓温熬刳卵傥淌士啡琅尾丛偌塘较删贪拾涡死蟹疵妓焊媚牌黑笨挠沼尤山悸羌喝谰前就陈皇诱瞬展陈谷投融久夏斡挠渤蜒甘吨毖劣妓毖苹夜系丶关吹侵酶隙谷崭吓的战俳翟踊老止嫡信士仗挠嘿琴讲液看写隙普矣甘松肛尾挠趾焕秤乜铣殴教劝赖蹦统料展淖丶燃市瞬质急苛闹尤毖仪蓝饭嫡偻佣跋贝轿路砂劣杜擦臃的曝臃诰妓坛擦腔期卵粕尾陈温菲奥飞墒夯燃臃粟趾梅铣砸尾臃妓拘谰略夜抖菲档课刭铣仗菲诰贪训融酪铣灯禾雍翱夜寿纸劣爻臃重尾
5,K型补偿导线与E型补偿导线如何区分
根据颜色分, K 镍铬-镍硅 KPCA(铁) KNCA((铜镍22) 红 兰E 镍硅-铜镍 EPX(镍铬10) ENX(铜镍45) 红 棕
6,十一KPCA非线性降维与核函数
在前文讲述PCA降维算法时提到,PCA只能处理线性数据的降维,本质上都是线性变换,并且它仅是筛选方差最大的特征,去除特征之间的线性相关性。对于线性不可分的数据常常效果很差。 KPCA算法其实很简单,数据在低维度空间不是线性可分的,但是在高维度空间就可以变成线性可分的了。利用这个特点,KPCA只是将原始数据通过核函数(kernel)映射到高维度空间,再利用PCA算法进行降维,所以叫做K PCA降维。因此KPCA算法的关键在于这个核函数。 假设现在有映射函数φ(不是核函数),它将数据从低维度映射到高维度。得到高维度数据后,我们还需要计算协方差矩阵,从前文可以看出,协方差矩阵每个元素都是向量的内积。映射到高维度空间后,向量维度增加,计算量大幅度增大。即便计算量不是问题,那么这个φ应该把数据映射到多少维度呢?怎么求这个φ呢?这些都是很困难的。但是核函数刚好可以解决这个问题,下面我们看一下什么是核函数。 核函数K(kernel function) 可以直接得到低维数据映射到高维后的内积,而忽略映射函数具体是什么 ,即 K(x, y) = <φ(x), φ(y)> ,其中x和y是低维的输入向量,φ是从低维到高维的映射,<x, y>是x和y的内积。 核函数是一个非常有趣和强大的工具。 它是强大的,因为它提供了一个从线性到非线性的连接以及任何可以只表示两个向量之间的点积的算法。 如果我们首先将我们的输入数据映射到更高维的空间,那么我在这个高维的空间进行操作出的效果,在原来那个空间就表现为非线性。 在KPCA中,刚好可以利用核函数的特点,反正我们的目的就是求数据在高维空间的内积而已(协方差矩阵),又何必知道怎么映射的呢? 核函数有很多限制要求,比如要求是连续的,对称的,等等。这里不做深入探讨,毕竟不是数学系的,不用深入研究(恩,其实是看不懂)。下面列举一些常用的核函数,至于怎么选择,恩,目前是世界性难题。 以二维向量为例,如果y固定,那么y就充当着对称轴的作用;sigma控制着函数的胖瘦,也就是作用范围。下图中,距离对称轴小于sigma的范围内,图像是有高度的,sigma之外的范围,函数基本没有高度(没起作用)。 为了进一步理解KPCA,我们这里做一个简单的推导,看看KPCA究竟是什么鬼东西! 假设原始数据是如下矩阵X:(数据每一列为一个样本,每个样本有m个属性,一共有n个样本) 注意,协方差矩阵是X乘X的转置,落实到计算是任意2个特征(行)的点积;而此处的核矩阵K是反过来的,X的转置乘X,它落实到计算是任意2个样本(列)的点积。这个核矩阵是n维的,维度和样本数相同,而不是特征数。 根据核函数的性质,上面这个核矩阵K可以直接在低维空间计算得到:
7,利用给出的100组数据如何进行kpca算法
先求这组数的平均数,再把每个数都减去平均数,得到一个差,把差进行平方把这些平方加起来,得到一个和把和除以数据个数n就得到了方差搜搜 “解释一下核主成分分析(kernel principal component analysis, kpca)的公式推导过程”这篇文章,里面有你想要的
8,十PCA降维算法
主成分分析(Principal components analysis,以下简称PCA) 是最重要的降维方法之一。在数据压缩消除冗余和数据噪音消除等领域都有广泛的应用。它可以通过 线性变换 将原始数据变换为一组 各维度线性无关 的表示,以此来提取数据的主要线性分量。需要注意的是,PCA一般只用于线性数据降维,对于非线性数据一般采用KPCA。 降维就是找出数据里最主要的方面,用数据里最主要的方面来代替原始数据,并且希望损失尽可能的小。首先看几张图,有一个直观的认识。 这里面,把椭圆看成是数据: 基于这个知识,如果我们想对数据进行降维的话,比如图1的两个维度的数据降成一维,我们可以选择保留X1这个维度的数据,因为在这个维度上蕴含的信息量更多。同理,图2就可以保留x2这个维度的数据。但是,问题来了,图3应该保留哪个维度的数据呢?答案是保留哪个维度都不好,都会丢失较大的信息量。但是,如果我们把图3的坐标轴旋转一下 比较容易看出,图3在新的坐标轴下就能进行降维了。 所以,第一,变换正确的坐标轴(基);第二,保留方差最大的几个轴作为主成分,这样的做法就是PCA的核心思想。 从前文可以看出,理想的坐标轴是要求数据投在新坐标轴后,尽可能的分散,也就是数据的方差最大。然后每次选择方差最大的轴作为主成分。 将前文2维降1维的例子扩展到更高维度,还有一个问题需要解决,考虑三维降到二维问题。与之前相同,首先我们希望找到一个方向使得投影后方差最大,这样就完成了第一个方向的选择,继而我们选择第二个投影方向。如果我们还是单纯只选择方差最大的方向,很明显,这个方向与第一个方向应该是“几乎重合在一起”,显然这样的维度是没有用的,因为发生了大量的信息重复,起不到降维的作用,因此,应该有其他约束条件——就是正交。 PCA要求轴与轴之间是正交的,也就是不同维度的信息相关性为0。 在表示相关性中,相关系数与协方差是等价的,这里为了方便计算,使用协方差。下面是协方差公式,当协方差为0时,表示两个特征a,b线性不相关。 可以发现,当a=b时,协方差公式就变成了方差公式,方差是特殊的协方差。如果运气更好,特征a与b的平均数都为0,那么公式会进一步简化,得到: 所以说,为了计算方便,PCA降维前,一般都要求将所有特征属性中心化,即平均数为0。 因为PCA要求,同一轴内方差最大,不同轴协方差为0,如何把它们放在一块呢?这里就引入了协方差矩阵的概念: 假设有m个样本,每个样本特征维度是2,每个特征都经过中心化处理: 我们发现协方差矩阵的对角线是方差,而且是对称矩阵。方差和协方差都放在了一个矩阵里面,只需对这个矩阵优化,使它除了对角线的其余元素都为0,就可以了,美滋滋。 我们知道矩阵乘法,本质上就是一种线性变换的过程。而正交基矩阵的乘法,则是坐标系变换的过程。设原空间的数据为X,协方差矩阵为C,经过正交基矩阵P,得到了新坐标系下的数据Y,即Y=PX。那么新坐标系下的协方差矩阵D是怎样的呢? 我们发现,新旧空间的协方差矩阵是有关系的,而且都和变换矩阵P有关系。问题就转化成了,能不能找到一个矩阵P,使得新空间下的协方差矩阵的非对角线元素都为0. 首先,原始数据矩阵X的协方差矩阵C是一个实对称矩阵,它有特殊的数学性质: 也就是说,P就是是协方差矩阵的特征向量单位化后按行排列出的矩阵,其中每一行都是C的一个特征向量。 如果设P按照中特征值的从大到小,将特征向量从上到下排列,则用P的前K行组成的矩阵乘以原始数据矩阵X,就得到了我们需要的降维后的数据矩阵Y 。 其实,经过数学上的推导的,我们就可以知道,特征值对应的特征向量就是理想中想取得正确的坐标轴,而特征值就等于数据在旋转之后的坐标上对应维度上的方差。 由于协方差矩阵的维度和特征相同,所以在进行特征值分解时,得到的特征值数目不会超过特征的数目。 在学习线性代数时,我们都会学矩阵的特征值分解,我们知道一个方阵A经过 特征值分解 后就得到 特征向量 和 特征值 了。那么,这个所谓的特征值和特征向量到底是什么东西呢? 很多人都会说是那个经典的式子: 首先给出概念上的一种解释。所谓的特征值和特征向量,最重要的是理解“特征”这两个字,特征向量翻译为eigen vector, eigen这个单词来自德语,本义是在“本身固有的,本质的”。纯数学的定义下,并不能很明白地理解到底为什么叫做特征值和特征向量。但是举一个应用例子,可能就容易理解多了。 在图像处理中,有一种方法就是特征值分解。我们都知道图像其实就是一个像素值组成的矩阵,假设有一个100x100的图像, 对这个图像矩阵做特征值分解,其实是在提取这个图像中的特征,这些提取出来的特征是一个个的向量,即对应着特征向量。而这些特征在图像中到底有多重要,这个重要性则通过特征值来表示。 比如这个100x100的图像矩阵A分解之后,会得到一个100x100的特征向量组成的矩阵Q,以及一个100x100的只有对角线上的元素不为0的矩阵E,这个矩阵E对角线上的元素就是特征值,而且还是按照从大到小排列的(取模,对于单个数来说,其实就是取绝对值),也就是说这个图像A提取出来了100个特征,这100个特征的重要性由100个数字来表示,这100个数字存放在对角矩阵E中。 在实际中我们发现,提取出来的这100个特征从他们的特征值大小来看,大部分只有前20(这个20不一定,有的是10,有的是30或者更多)个特征对应的特征值很大,后面的就都是接近0了,也就是说后面的那些特征对图像的贡献几乎可以忽略不计。 我们知道,图像矩阵 A 特征值分解后可以得到矩阵 P 和矩阵 E (特征值对角矩阵): 我们可以看到,在只取前20个特征值和特征向量对图像进行恢复的时候,基本上已经可以看到图像的大体轮廓了,而取到前50的时候,几乎已经和原图像无异了。明白了吧,这就是所谓的矩阵的特征向量和特征值的作用。 所以归根结底,特征向量其实反应的是矩阵A本身固有的一些特征,本来一个矩阵就是一个线性变换,当把这个矩阵作用于一个向量的时候,通常情况绝大部分向量都会被这个矩阵A变换得“面目全非”,但是偏偏刚好存在这么一些向量,被矩阵A变换之后居然还能保持原来的样子,于是这些向量就可以作为矩阵的核心代表了。于是我们可以说:一个变换(即一个矩阵)可以由其特征值和特征向量完全表述,这是因为从数学上看,这个矩阵所有的特征向量组成了这个向量空间的一组基底。而矩阵作为变换的本质其实不就把一个基底下的东西变换到另一个基底表示的空间中么? 参考: https://blog.csdn.net/hjq376247328/article/details/80640544 https://blog.csdn.net/hustqb/article/details/78394058 https://blog.csdn.net/woainishifu/article/details/76418176
9,核主元分析方法KPCA
核主元分析方法(KPCA)具体理解:在化工连续生产过程中,生产系统在长期运行和生产负荷中会不可避免地发生各种故障,影响生产质量,甚至引起重大的经济损失,而化工生产系统一般都具有过程精确、建模困难、过程变量众多且相互间具有强耦合,并且在实际中存在各种随机因素影响等特点。这就使得基于机理模型的诊断方法的应用极为不便。如核主元分析方法(KPCA)是一种不依赖于过程机理的建模方法,它只需通过过程数据的信息来进行统计建模,然后基于该模型实现对过程的监测。所以主元分析是一种较为成熟的多元统计监测方法。临界值是指物体从一种物理状态转变到另外一种物理状态时,某一物理量所要满足的条件,相当于数学中常说的驻点.因此利用临界状态求解物理量的最大值与最小值,就成了物理中求解最值的一种重要的方法。有人认为利用临界状态求解最值应谨慎,首先须分清两状态之间的关系.
10,matlab kpca主元问题
恰好我也在做kpca相关的内容,可以交流一下。 我觉得关键问题是你没理解核函数的概念。我理解上核函数是本质是两个空间之间的映射,具体可以参看一个关键定理:mercer定理。这个定理是描述了一个函数满足何种条件才能等价于向希尔伯特空间上的内积运算,这里的空间维度就是我们专业术语里的特征(机器学习里面的特征概念,而非数学上的特征值特征向量)。既然它是一个空间向另一个空间的映射,那么映射以后的维度当然不一定和原空间相等,类比高斯径向基核,它就是一个升维映射,甚至再类比傅里叶变换或者小波变换,是向1组或者几组无限维的正交基上映射。 样本在经过映射(通常是升维)以后,本身它的维度就会发生很大变化,比如描述一个人,原来表示身高、体重、胸围等等这些特征经过升维以后不再具有物理意义,但是在分类过程中,升维可以把原本非线性的特征转化的较为接近线性,这就是核函数存在的价值。你原本特征维度是20,经过映射以后变成了500,后续的pca操作是针对映射后的这500个新特征进行的,当然会和原来不相同。
文章TAG:
高光 数据 降维 利用 kpca
大家都在看
-
手机会自动停止充电吗,手机充电会自动检测电池是否充满电?
2022-12-19
-
win7自动密码锁屏软件哪个好,win7锁屏功能设置好了
2022-12-21
-
空调不会自动制冷,空调否制冷是什么原因 解决方法
2022-12-21
-
三星锁屏自动开启,手机解锁后直接开启相机可以尝试如下
2022-12-22
-
自动跟随婴儿车,武汉机器人如何进行自动跟随服务
2022-12-28
-
手机批量自动截图,手机怎么用智能截图搞定
2023-01-06
-
自动扫二维码秒抢红包,扫码抢红包!还有这些好玩的!
2023-01-25
-
amabrush自动牙刷,这些牙刷是否适合你使用?
2023-02-02
-
苹果6时间自动设置原理,如何进行日期和时间设置?
2023-02-09
-
科技文献中智能怎么翻译,有哪个翻译高手知道智能科技的英译及缩写先谢了
2023-02-15
-
华为p6老是自动重启,手机自动重启不能用手机可以这样做
2023-03-02
-
征安智能科技怎么样了,intel的智能响应技术到底怎么样
2023-03-07
-
iphonex刘海自动黑屏,iphone刘海怎么隐藏?
2023-03-08
-
自动开关手机,华为emui3.0系统支持自动开关机器
2023-03-15
-
智能饮水机怎么接水,饮水机线怎么接
2023-03-16