在之前的BLOG中,我们学习了如何运用PCA进行降维。在这篇BLOG里,就让我们一同来看看PCA的几个应用吧! 压缩重现 在之前的BLOG我们一同学习了如何运用 PCA (主成分分析) 来进行压缩数据,我们现在能将高达一千维度的数据压缩到 只有一百个维度,或者将三维数据压缩到两个维度……那么按照道理来说如果有一个这样的压缩算法,那么也应该有一种方法可以从压缩过的数据近似地回到原始高维度的...
对于降维问题来说,目前最流行且最常用的算法是主成分分析法 (Principal Componet Analysis, PCA),这篇BLOG就让我们手把手学习并实现PCA算法吧。 了解PCA算法 在这一部分,我想首先开始讨论 PCA 问题的公式描述。也就是说我们尝试用公式准确地精确地描述我们想让 PCA 来做什么。 假设我们有下图这样的一个数据集,这个数据集含有二维实数空间内的样本 X:...
在之前的BLOG里,我们学习了无监督学习的聚类算法。在之后的几篇BLOG中,我们将学习第二种无监督学习问题——降维(dimensionality reduction),顾名思义就是降低我们数据集的维度。这篇BLOG,就让我们来看看看看降维吧。 降维 首先先让我们通过一个例子来具体看看什么是降维。 假如我们有一个有很多很多很多特征变量的数据集: 其中有两个特征量,一个某个物体的长度以厘米...
在在之前的BLOG里,我们一同学习了非监督学习的一种主流聚类算法——K-Means算法,在这篇BLOG中,就让我们来一同学习K-Means算法的实现细节吧。 优化目标 在大多数我们已经学到的监督学习算法中,每一个学习算法算法都有一个优化目标函数或者有某个代价函数需要通过算法进行最小化。事实上K-Means算法也有一个优化目标函数或者所是需要最小化的代价函数。在这一部分,就让我们一同学习K...
在之前的BLOG中,我们完成了对监督学习算法的学习,从这篇BLOG开始就让我们迈入无监督学习的殿堂,开始学习无监督学习的相关算法吧! 无监督学习 首先,让我们来复习一下什么是无监督学习?所谓无监督学习,就是我们要从未标记的数据中进行学习, 而不是从已标记的数据中进行学习。现在我想将无监督学习算法与监督学习算法做个对照。 下图是一个典型的监督学习例子: 在监督学习中,我们有一组附标记的训...