多选题 : 以下关于特征值与特征向量分解的应用,说法正确的有?
(A)在二次型最优化中,矩阵特征值的大小与函数值的变化快慢有关,在最大特征值所对应的特征方向上函数值变化最大,也就是该方向上的方向导数最大。
(B)如果某几个特征值很小,说明这个方向上的信息量很小,可以用来降维,也就是删除小特征值对应方向的数据,只保留大特征值方向对应的数据,这样做以后数据维度减少,但有用信息量变化不大。
(C)从线性空间的角度看,特征值越大,说明矩阵在对应的特征向量上的方差越大,功率越大,信息量越多。
(D)在数据挖掘中,最大特征值对应的特征向量上包含最多的信息量。
参考答案
继续答题:下一题