scikit-learn 无监督降维
2023-02-20 14:38 更新
如果数据集的特征数量很多,则在进行有监督的步骤之前先通过无监督的步骤来减少特征数可能会很有用。许多 无监督学习方法都实现了一种可用于降低维度的transform
方法。下面,我们讨论大量使用此模式的两个特定示例。
Pipelining
无监督的数据约简和有监督的估计器只需一步即可链接在一起。请参阅Pipelining:链接估算器。
6.5.1 PCA:主成分分析
decomposition.PCA
寻找可以捕捉原始特征方差的特征组合。请参阅分解组件中的信号(矩阵分解问题)。
示例
6.5.2 随机投影
模块:random_projection
提供了几种用于通过随机投影进行数据缩减的工具。请参阅文档的相关部分:随机投影。
例子
6.5.3 特征聚集
cluster.FeatureAgglomeration
应用 层次聚类将行为相似的特征分组在一起。
例子
功能缩放
请注意,如果特征具有不同的缩放比例或统计属性,则
cluster.FeatureAgglomeration
可能无法捕获相关特征之间的关系。在这些设置中使用preprocessing.StandardScaler
可能会有用。
以上内容是否对您有帮助:
更多建议: