机器学习中的十种非线性降维技术对比总结

降维是指在减少数据集特征数量的同时,尽可能保留数据的主要信息。降维算法属于无监督学习,通过未标记数据来训练算法。

☞☞☞AI 智能聊天, 问答助手, AI 智能搜索, 免费无限量使用 DeepSeek R1 模型☜☜☜

机器学习中的十种非线性降维技术对比总结

尽管降维方法种类繁多,但它们都可以归为两大类:线性和非线性。

线性方法将数据从高维空间线性投影到低维空间(因此称为线性投影)。例子包括PCA和LDA。

非线性方法是执行非线性降维的一种途径,通常用于发现原始数据的非线性结构。当原始数据不容易线性分离时,非线性降维方法就显得尤为重要。在某些情况下,非线性降维也被称为流形学习,这种方法能够更有效地处理高维数据,并帮助揭示数据的潜在结构。通过非线性降维,我们可以更好地理解数据之间的关系,发现数据中隐藏的模式和规律,为进一步的数据分析和应用提供有力支持。

机器学习中的十种非线性降维技术对比总结

本文整理了10个常用的非线性降维技术,可以帮助你在日常工作中进行选择

1、核PCA

你们可能熟悉正常的PCA,这是一种线性降维技术。核PCA可以看作是正态主成分分析的非线性版本。

主成分分析和核主成分分析都可用于降维,但核PCA在处理线性不可分数据方面更为有效。核PCA的主要优势在于将非线性可分的数据转化为线性可分,同时减少数据维度。核PCA通过引入核技巧,能够捕捉数据中的非线性结构,从而提高数据的分类性能。因此,核PCA在处理复杂数据集时具有更强的表现力和泛化能力。

我们先创建一个非常经典的数据:

import matplotlib.pyplot as plt plt.figure(figsize=[7, 5])  from sklearn.datasets import make_moons X, y = make_moons(n_samples=100, noise=None, random_state=0)  plt.scatter(X[:, 0], X[:, 1], c=y, s=50, cmap='plasma') plt.title('Linearly inseparable data')

机器学习中的十种非线性降维技术对比总结

这两种颜色代表线性上不可分割的两类。我们不可能在这里画一条直线把这两类分开。

我们先使用常规PCA。

 import numpy as np from sklearn.decomposition import PCA  pca = PCA(n_components=1) X_pca = pca.fit_transform(X)  plt.figure(figsize=[7, 5]) plt.scatter(X_pca[:, 0], np.zeros((100,1)), c=y, s=50, cmap='plasma') plt.title('First component after linear PCA') plt.xlabel('PC1')

机器学习中的十种非线性降维技术对比总结

可以看到,这两个类仍然是线性不可分割的,现在我们试试核PCA。

 import numpy as np from sklearn.decomposition import KernelPCA  kpca = KernelPCA(n_components=1, kernel='rbf', gamma=15) X_kpca = kpca.fit_transform(X)  plt.figure(figsize=[7, 5]) plt.scatter(X_kpca[:, 0], np.zeros((100,1)), c=y, s=50, cmap='plasma') plt.axvline(x=0.0, linestyle='dashed', color='black', linewidth=1.2) plt.title('First component after kernel PCA') plt.xlabel('PC1')

机器学习中的十种非线性降维技术对比总结

这两个类变成了线性可分的,核PCA算法使用不同的核将数据从一种形式转换为另一种形式。核PCA是一个两步的过程。首先核函数暂时将原始数据投影到高维空间中,在高维空间中,类是线性可分的。然后算法将该数据投影回n_components超参数(我们想要保留的维数)中指定的较低维度。

sklearn中有四个核选项:linear’, ‘poly’, ‘rbf’ and ‘sigmoid’。如果我们将核指定为“线性”,则将执行正常的PCA。任何其他核将执行非线性PCA。rbf(径向基函数)核是最常用的。

2、多维尺度变换(multidimensional scaling, MDS)

多维尺度变换是另一种非线性降维技术,它通过保持高维和低维数据点之间的距离来执行降维。例如,原始维度中距离较近的点在低维形式中也显得更近。

要在Scikit-learn我们可以使用MDS()类。

 from sklearn.manifold import MDS  mds = MDS(n_components, metric) mds_transformed = mds.fit_transform(X)

metric 超参数区分了两种类型的MDS算法:metric和non-metric。如果metric=True,则执行metric MDS。否则,执行non-metric MDS。

我们将两种类型的MDS算法应用于以下非线性数据。

 import numpy as np from sklearn.manifold import MDS  mds = MDS(n_components=1, metric=True) # Metric MDS X_mds = mds.fit_transform(X)  plt.figure(figsize=[7, 5]) plt.scatter(X_mds[:, 0], np.zeros((100,1)), c=y, s=50, cmap='plasma') plt.title('Metric MDS') plt.xlabel('Component 1')

机器学习中的十种非线性降维技术对比总结

 import numpy as np from sklearn.manifold import MDS  mds = MDS(n_components=1, metric=False) # Non-metric MDS X_mds = mds.fit_transform(X)  plt.figure(figsize=[7, 5]) plt.scatter(X_mds[:, 0], np.zeros((100,1)), c=y, s=50, cmap='plasma') plt.title('Non-metric MDS') plt.xlabel('Component 1')

机器学习中的十种非线性降维技术对比总结

可以看到MDS后都不能使数据线性可分,所以可以说MDS不适合我们这个经典的数据集。

3、Isomap

Isomap(Isometric Mapping)在保持数据点之间的地理距离,即在原始高维空间中的测地线距离或者近似的测地线距离,在低维空间中也被保持。Isomap的基本思想是通过在高维空间中计算数据点之间的测地线距离(通过最短路径算法,比如Dijkstra算法),然后在低维空间中保持这些距离来进行降维。在这个过程中,Isomap利用了流形假设,即假设高维数据分布在一个低维流形上。因此,Isomap通常在处理非线性数据集时表现良好,尤其是当数据集包含曲线和流形结构时。

 import matplotlib.pyplot as plt plt.figure(figsize=[7, 5])  from sklearn.datasets import make_moons X, y = make_moons(n_samples=100, noise=None, random_state=0)  import numpy as np from sklearn.manifold import Isomap  isomap = Isomap(n_neighbors=5, n_components=1) X_isomap = isomap.fit_transform(X)  plt.figure(figsize=[7, 5]) plt.scatter(X_isomap[:, 0], np.zeros((100,1)), c=y, s=50, cmap='plasma') plt.title('First component after applying Isomap') plt.xlabel('Component 1')

机器学习中的十种非线性降维技术对比总结

就像核PCA一样,这两个类在应用Isomap后是线性可分的!

4、Locally Linear Embedding(LLE)

与Isomap类似,LLE也是基于流形假设,即假设高维数据分布在一个低维流形上。LLE的主要思想是在局部邻域内保持数据点之间的线性关系,并在低维空间中重构这些关系。

Calliper 文档对比神器 Calliper 文档对比神器

文档内容对比神器

Calliper 文档对比神器 28 查看详情 Calliper 文档对比神器

 from sklearn.manifold import LocallyLinearEmbedding lle = LocallyLinearEmbedding(n_neighbors=5,n_components=1) lle_transformed = lle.fit_transform(X) plt.figure(figsize=[7, 5]) plt.scatter(lle_transformed[:, 0], np.zeros((100,1)), c=y, s=50, cmap='plasma') plt.title('First component after applying LocallyLinearEmbedding') plt.xlabel('Component 1')

机器学习中的十种非线性降维技术对比总结

只有2个点,其实并不是这样,我们打印下这个数据

机器学习中的十种非线性降维技术对比总结

可以看到数据通过降维变成了同一个数字,所以LLE降维后是线性可分的,但是却丢失了数据的信息。

5、Spectral Embedding

Spectral Embedding是一种基于图论和谱理论的降维技术,通常用于将高维数据映射到低维空间。它的核心思想是利用数据的相似性结构,将数据点表示为图的节点,并通过图的谱分解来获取低维表示。

 from sklearn.manifold import SpectralEmbedding sp_emb = SpectralEmbedding(n_components=1, affinity='nearest_neighbors') sp_emb_transformed = sp_emb.fit_transform(X) plt.figure(figsize=[7, 5]) plt.scatter(sp_emb_transformed[:, 0], np.zeros((100,1)), c=y, s=50, cmap='plasma') plt.title('First component after applying SpectralEmbedding') plt.xlabel('Component 1')

机器学习中的十种非线性降维技术对比总结

6、t-Distributed Stochastic Neighbor Embedding (t-SNE)

t-SNE的主要目标是保持数据点之间的局部相似性关系,并在低维空间中保持这些关系,同时试图保持全局结构。

from sklearn.manifold import TSNE tsne = TSNE(1, learning_rate='auto', init='pca') tsne_transformed = tsne.fit_transform(X) plt.figure(figsize=[7, 5]) plt.scatter(tsne_transformed[:, 0], np.zeros((100,1)), c=y, s=50, cmap='plasma') plt.title('First component after applying TSNE') plt.xlabel('Component 1')

机器学习中的十种非线性降维技术对比总结

t-SNE好像也不太适合我们的数据。

7、Random Trees Embedding

Random Trees Embedding是一种基于树的降维技术,常用于将高维数据映射到低维空间。它利用了随机森林(Random Forest)的思想,通过构建多棵随机决策树来实现降维。

Random Trees Embedding的基本工作流程:

构建随机决策树集合:首先,构建多棵随机决策树。每棵树都是通过从原始数据中随机选择子集进行训练的,这样可以减少过拟合,提高泛化能力。提取特征表示:对于每个数据点,通过将其在每棵树上的叶子节点的索引作为特征,构建一个特征向量。每个叶子节点都代表了数据点在树的某个分支上的位置。降维:通过随机森林中所有树生成的特征向量,将数据点映射到低维空间中。通常使用降维技术,如主成分分析(PCA)或t-SNE等,来实现最终的降维过程。

Random Trees Embedding的优势在于它的计算效率高,特别是对于大规模数据集。由于使用了随机森林的思想,它能够很好地处理高维数据,并且不需要太多的调参过程。

RandomTreesEmbedding使用高维稀疏进行无监督转换,也就是说,我们最终得到的数据并不是一个连续的数值,而是稀疏的表示。所以这里就不进行代码展示了,有兴趣的看看sklearn的sklearn.ensemble.RandomTreesEmbedding

8、Dictionary Learning

Dictionary Learning是一种用于降维和特征提取的技术,它主要用于处理高维数据。它的目标是学习一个字典,该字典由一组原子(或基向量)组成,这些原子是数据的线性组合。通过学习这样的字典,可以将高维数据表示为一个更紧凑的低维空间中的稀疏线性组合。

Dictionary Learning的优点之一是它能够学习出具有可解释性的原子,这些原子可以提供关于数据结构和特征的重要见解。此外,Dictionary Learning还可以产生稀疏表示,从而提供更紧凑的数据表示,有助于降低存储成本和计算复杂度。

 from sklearn.decomposition import DictionaryLearning  dict_lr = DictionaryLearning(n_components=1) dict_lr_transformed = dict_lr.fit_transform(X) plt.figure(figsize=[7, 5]) plt.scatter(dict_lr_transformed[:, 0], np.zeros((100,1)), c=y, s=50, cmap='plasma') plt.title('First component after applying DictionaryLearning') plt.xlabel('Component 1')

机器学习中的十种非线性降维技术对比总结

9、Independent Component Analysis (ICA)

Independent Component Analysis (ICA) 是一种用于盲源分离的统计方法,通常用于从混合信号中估计原始信号。在机器学习和信号处理领域,ICA经常用于解决以下问题:

盲源分离:给定一组混合信号,其中每个信号是一组原始信号的线性组合,ICA的目标是从混合信号中分离出原始信号,而不需要事先知道混合过程的具体细节。特征提取:ICA可以被用来发现数据中的独立成分,提取数据的潜在结构和特征,通常在降维或预处理过程中使用。

ICA的基本假设是,混合信号中的各个成分是相互独立的,即它们的统计特性是独立的。这与主成分分析(PCA)不同,PCA假设成分之间是正交的,而不是独立的。因此ICA通常比PCA更适用于发现非高斯分布的独立成分。

 from sklearn.decomposition import FastICA  ica = FastICA(n_components=1, whiten='unit-variance') ica_transformed = dict_lr.fit_transform(X) plt.figure(figsize=[7, 5]) plt.scatter(ica_transformed[:, 0], np.zeros((100,1)), c=y, s=50, cmap='plasma') plt.title('First component after applying FastICA') plt.xlabel('Component 1')

机器学习中的十种非线性降维技术对比总结

10、Autoencoders (AEs)

到目前为止,我们讨论的NLDR技术属于通用机器学习算法的范畴。而自编码器是一种基于神经网络的NLDR技术,可以很好地处理大型非线性数据。当数据集较小时,自动编码器的效果可能不是很好。

机器学习中的十种非线性降维技术对比总结

自编码器我们已经介绍过很多次了,所以这里就不详细说明了。

总结

非线性降维技术是一类用于将高维数据映射到低维空间的方法,它们通常适用于数据具有非线性结构的情况。

大多数NLDR方法基于最近邻方法,该方法要求数据中所有特征的尺度相同,所以如果特征的尺度不同,还需要进行缩放。

另外这些非线性降维技术在不同的数据集和任务中可能表现出不同的性能,因此在选择合适的方法时需要考虑数据的特征、降维的目标以及计算资源等因素。

以上就是机器学习中的十种非线性降维技术对比总结的详细内容,更多请关注创想鸟其它相关文章!

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。
如发现本站有涉嫌抄袭侵权/违法违规的内容, 请发送邮件至 chuangxiangniao@163.com 举报,一经查实,本站将立刻删除。
发布者:程序猿,转转请注明出处:https://www.chuangxiangniao.com/p/426178.html

(0)
打赏 微信扫一扫 微信扫一扫 支付宝扫一扫 支付宝扫一扫
上一篇 2025年11月7日 11:52:39
下一篇 2025年11月7日 11:53:37

相关推荐

  • HTML数据如何用于机器学习 HTML数据预处理的特征工程方法

    首先解析HTML提取文本与元信息,再从结构、文本、样式三方面构建特征:1. 用BeautifulSoup等工具解析HTML,提取标题、正文、链接及属性;2. 统计标签频率、DOM深度、路径模式等结构特征;3. 清洗文本并采用TF-IDF或词嵌入向量化;4. 提取class、id、样式、脚本等交互与视…

    2025年12月23日
    000
  • 标题标签:你想知道的一切

    html,用于构建网页的语言,严重依赖于标头标签。它们用于排列和组织网页内容,使其更易于阅读和理解。标题标签范围从 h1 到 h6。 h1 是最重要的标题标签,而 h6 是最不重要的。这些标题标签有助于组织页面的内容,使其更易于阅读和导航。它们还用于告知用户和搜索引擎有关页面内容的信息,这对于 se…

    2025年12月21日
    000
  • 如何用机器学习算法优化前端用户交互体验?

    通过机器学习分析用户行为数据,可实现前端交互的个性化与自适应优化。1. 利用LSTM、XGBoost等模型预测用户操作,实现智能补全与实时推荐;2. 借助强化学习与聚类算法动态调整UI布局,提升操作效率;3. 使用孤立森林等无监督方法检测异常交互,优化流程设计;4. 通过时序模型预测页面跳转,结合S…

    2025年12月20日
    000
  • C++机器学习入门 线性回归实现示例

    首先实现线性回归模型,通过梯度下降最小化均方误差,代码包含数据准备、训练和预测,最终参数接近真实关系,适用于高性能场景。 想用C++实现线性回归,其实并不复杂。虽然Python在机器学习领域更常见,但C++凭借其高性能,在对效率要求高的场景中非常适用。下面是一个简单的线性回归实现示例,帮助你入门C+…

    2025年12月18日
    000
  • C++中如何构建机器学习框架_张量运算实现

    要构建高效的c++++机器学习框架张量运算模块,需遵循以下核心步骤:1. 设计支持泛型的tensor类,包含内存管理与基础接口;2. 实现运算符重载以简化加减乘除操作;3. 采用simd、多线程及缓存优化提升性能;4. 使用openmp实现并行化加法;5. 利用strassen或winograd算法…

    2025年12月18日 好文分享
    000
  • 怎样在C++中实现决策树_机器学习算法实现

    决策树在c++++中的实现核心在于通过递归构建树节点,使用“如果…那么…”逻辑进行数据分裂,最终实现分类或预测。1. 数据结构方面,定义包含特征索引、分裂阈值、左右子节点、叶子节点值及是否为叶子的treenode结构;2. 分裂准则包括信息增益(id3)、信息增益率(c4.5)和基尼指数(cart)…

    2025年12月18日 好文分享
    000
  • C++ lambda 表达式与闭包在机器学习中的应用

    在机器学习中,lambda 表达式和闭包用于数据预处理、特征工程、模型构建和闭包。具体应用包括:数据规范化等数据预处理操作。创建新特征或转换现有特征。向模型添加自定义的损失函数、激活函数等组件。利用闭包访问外部变量,用于计算特定特征的平均值等目的。 C++ Lambda 表达式与闭包在机器学习中的应…

    2025年12月18日
    000
  • 如何将C++框架与机器学习集成

    如何将 c++++ 框架与机器学习集成?选择 c++ 框架: eigen、armadillo、blitz++集成机器学习库: tensorflow、pytorch、scikit-learn实战案例:使用 eigen 和 tensorflow 构建线性回归模型 如何将 C++ 框架与机器学习集成 引言…

    2025年12月18日
    000
  • 如何将 C++ 框架与机器学习技术集成?

    集成 c++++ 框架和机器学习技术,以提高应用程序性能和功能:准备数据和模型:收集数据,训练模型并将其保存为 tensorflow lite 格式。集成 tensorflow lite:在 c++ 项目中包含 tensorflow lite 头文件和库。加载模型:从文件加载 tensorflow …

    2025年12月18日
    000
  • 如何将 C++ 框架与机器学习算法集成?

    在 c++++ 框架中集成机器学习算法的步骤: 1. 选择合适的 c++ 框架,如 armadillo 或 tensorflow。 2. 获取机器学习算法库,如 scikit-learn 或 xgboost。 3. 通过构建工具将算法库集成到框架中。 4. 从算法库加载算法。 5. 利用框架工具训练…

    2025年12月18日
    000
  • 如何将C++框架与机器学习库集成?

    将c++++框架与机器学习库集成可提供强大的开发基础。步骤如下:选择c++框架(如qt、mfc、boost)选择机器学习库(如tensorflow、pytorch、scikit-learn)创建c++项目集成机器学习库(按照库说明)使用框架和库编写c++代码编译、运行并测试应用程序 如何将 C++ …

    2025年12月18日
    000
  • C++框架在机器学习领域的应用

    c++++框架在机器学习中得到广泛应用,提供预构建组件和工具。流行框架包括:tensorflow c++ api:google开发,提供广泛的算子、层和架构。pytorch:facebook开发,支持动态图计算和易用的python界面。c++ builder:embarcadero开发,集成开发环境…

    2025年12月18日
    000
  • 支持人工智能和机器学习的C++框架

    c++++ 中的人工智能和机器学习框架包括:深度学习框架:tensorflow:谷歌开发,用于大型神经网络pytorch:facebook 开发,用于创建灵活的可读模型机器学习库:armadillo:高性能线性代数和统计计算nlp 工具包:natural language toolkit (nltk…

    2025年12月18日
    000
  • 如何将C++框架与机器学习工具集成?

    如何将 c++++ 框架与机器学习工具集成?设置 tensorflow 和 boost。编写接口,将 tensorflow 对象公开给 boost 代码。使用 boost.python 导出接口,允许从 python 代码调用 tensorflow 方法。在实战案例中,集成 boost c++ 扩展…

    2025年12月18日
    000
  • C++框架与机器学习和人工智能的契合度?

    c++++框架与机器学习和人工智能高度契合,提供高性能、效率和灵活性。tensorflow:一个开源端到端ml/ai框架,提供构建、训练和部署ml模型的工具,如计算图。pytorch:一个基于python的框架,支持动态计算图。xgboost:专注于梯度增强树的框架。cntk:一个微软开发的框架,用…

    2025年12月18日
    000
  • 开始使用 C++ 机器学习框架需要具备哪些技能?

    掌握 c++++ 机器学习框架需要以下核心技能:1. c++ 基础;2. 线性代数和统计的数学基础;3. 机器学习算法和模型;4. 选择并熟悉 c++ ml 框架。例如,使用 eigen 计算协方差矩阵:它创建了一个数据矩阵,计算协方差矩阵,并将其打印到控制台。 踏入 C++ 机器学习框架之旅的必备…

    2025年12月18日
    000
  • C++ 框架在人工智能和机器学习中的应用有什么前景?

    c++++ 框架在 ai/ml 中前景广阔,由于其高性能、内存效率和跨平台兼容性。流行的 c++ 框架包括 tensorflow lite、caffe2 和 scikit-learn。在实战案例中,tensorflow lite 用于图像分类,加载模型、创建解释器、预处理图像、执行推理和获取结果。 …

    2025年12月18日
    100
  • 哪种C++框架最适合用于机器学习和数据科学?

    对于机器学习和数据科学,最流行的 c++++ 框架包括:tensorflow:用于构建和训练机器学习模型pytorch:用于原型化和调试新模型xgboost:用于基于树的机器学习算法opencv:用于计算机视觉任务 探索用于机器学习和数据科学的顶级 C++ 框架 C++ 以其速度、效率和对复杂项目的…

    2025年12月18日
    000
  • 如何调试和解决 C++ 机器学习框架中的问题?

    调试和解决 c++++ 机器学习框架中的问题的步骤:使用调试器(例如 gdb 或 lldb)。检查日志文件以查找错误消息。使用断言来检查条件。打印调试信息以输出变量值。分析异常消息和堆栈跟踪。 如何调试和解决 C++ 机器学习框架中的问题 调试 C++ 机器学习框架中的问题可能是一个挑战,因为它涉及…

    2025年12月18日
    000
  • C++ 机器学习框架的最佳实践和设计模式有哪些?

    c++++ 机器学习框架的最佳实践包括:抽象化和接口隔离依赖关系和松散耦合高内聚和低耦合测试驱动开发设计模式(如工厂方法、单例模式和观察者模式) C++ 机器学习框架的最佳实践和设计模式 机器学习算法在现代软件开发中发挥着至关重要的作用。许多 C++ 框架可用于开发机器学习模型,例如 TensorF…

    2025年12月18日
    000

发表回复

登录后才能评论
关注微信