常见降维技术对比:保持信息完整性下降低数据维度的可行性分析

本文将比较各种降维技术机器学习任务中对表格数据的有效性。我们将降维方法应用于数据集,并通过回归和分类分析评估其有效性。我们将降维方法应用于从与不同领域相关的 UCI 中获取的各种数据集。总共选择了 15 个数据集,其中 7 个将用于回归,8 个用于分类。

☞☞☞AI 智能聊天, 问答助手, AI 智能搜索, 免费无限量使用 DeepSeek R1 模型☜☜☜

常见的降维技术比较:能否在不丢失信息的情况下降低数据维度

为了使本文易于阅读和理解,仅显示了一个数据集的预处理和分析。实验从加载数据集开始。数据集被分成训练集和测试集,然后在均值为 0 且标准差为 1 的情况下进行标准化。

然后会将降维技术应用于训练数据,并使用相同的参数对测试集进行变换以进行降维。对于回归,使用主成分分析(PCA)和奇异值分解(SVD)进行降维,另一方面对于分类,使用线性判别分析(LDA)

降维后就训练多个机器学习模型进行测试,并比较了不同模型在通过不同降维方法获得的不同数据集上的性能。

数据处理

让我们通过加载第一个数据集开始这个过程,

import pandas as pd ## for data manipulationdf = pd.read_excel(r'RegressionAirQualityUCI.xlsx')print(df.shape)df.head()

常见的降维技术比较:能否在不丢失信息的情况下降低数据维度

数据集包含15个列,其中一个是需要预测标签。在继续降维之前,日期和时间列也会被删除。

X = df.drop(['CO(GT)', 'Date', 'Time'], axis=1)y = df['CO(GT)']X.shape, y.shape#Output: ((9357, 12), (9357,))

为了训练,我们需要将数据集划分为训练集和测试集,这样可以评估降维方法和在降维特征空间上训练的机器学习模型的有效性。模型将使用训练集进行训练,性能将使用测试集进行评估。

from sklearn.model_selection import train_test_splitX_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.2)X_train.shape, X_test.shape, y_train.shape, y_test.shape#Output: ((7485, 12), (1872, 12), (7485,), (1872,))

在对数据集使用降维技术之前,可以对输入数据进行缩放,这样可以保证所有特征处于相同的比例上。这对于线性模型来说是是至关重要的,因为某些降维方法可以根据数据是否标准化以及对特征的大小敏感而改变其输出。

from sklearn.preprocessing import StandardScalerscaler = StandardScaler()X_train = scaler.fit_transform(X_train)X_test = scaler.transform(X_test)X_train.shape, X_test.shape

主成分分析(PCA)

线性降维的PCA方法降低了数据的维数,同时保留了尽可能多的数据方差。

这里将使用Python sklearn.decomposition模块的PCA方法。要保留的组件数量是通过这个参数指定的,这个数字会影响在较小的特征空间中包含多少维度。作为一种替代方法,我们可以设定要保留的目标方差,它根据捕获的数据中的方差量建立组件的数量,我们这里设置为0.95

from sklearn.decomposition import PCApca = PCA(n_compnotallow=0.95)X_train_pca = pca.fit_transform(X_train)X_test_pca = pca.transform(X_test)X_train_pca

常见的降维技术比较:能否在不丢失信息的情况下降低数据维度

上述特征代表什么?主成分分析(PCA)将数据投射到低维空间,试图尽可能多地保留数据中的不同之处。虽然这可能有助于特定的操作,但也可能使数据更难以理解。,PCA可以识别数据中的新轴,这些轴是初始特征的线性融合。

奇异值分解(SVD)

SVD是一种线性降维技术,它将数据方差较小的特征投影到低维空间。我们需要设置降维后要保留的组件数量。这里我们将把维度降低 2/3。

from sklearn.decomposition import TruncatedSVDsvd = TruncatedSVD(n_compnotallow=int(X_train.shape[1]*0.33))X_train_svd = svd.fit_transform(X_train)X_test_svd = svd.transform(X_test)X_train_svd

常见的降维技术比较:能否在不丢失信息的情况下降低数据维度

训练回归模型

现在,我们将开始使用上述三种数据(原始数据集、PCA和SVD)对模型进行训练和测试,并且我们使用多个模型进行对比。

import numpy as npfrom sklearn.linear_model import LinearRegressionfrom sklearn.neighbors import KNeighborsRegressorfrom sklearn.svm import SVRfrom sklearn.tree import DecisionTreeRegressorfrom sklearn.ensemble import RandomForestRegressor, GradientBoostingRegressorfrom sklearn.metrics import r2_score, mean_squared_errorimport time

train_test_ML:这个函数将完成与模型的训练和测试相关的重复任务。通过计算rmse和r2_score来评估所有模型的性能。并返回包含所有详细信息和计算值的数据集,还将记录每个模型在各自的数据集上训练和测试所花费的时间。

def train_test_ML(dataset, dataform, X_train, y_train, X_test, y_test):temp_df = pd.DataFrame(columns=['Data Set', 'Data Form', 'Dimensions', 'Model', 'R2 Score', 'RMSE', 'Time Taken'])for i in [LinearRegression, KNeighborsRegressor, SVR, DecisionTreeRegressor, RandomForestRegressor, GradientBoostingRegressor]:start_time = time.time()reg = i().fit(X_train, y_train)y_pred = reg.predict(X_test)r2 = np.round(r2_score(y_test, y_pred), 2)rmse = np.round(np.sqrt(mean_squared_error(y_test, y_pred)), 2)end_time = time.time()time_taken = np.round((end_time - start_time), 2)temp_df.loc[len(temp_df)] = [dataset, dataform, X_train.shape[1], str(i).split('.')[-1][:-2], r2, rmse, time_taken]return temp_df

原始数据:

original_df = train_test_ML('AirQualityUCI', 'Original', X_train, y_train, X_test, y_test)original_df

常见的降维技术比较:能否在不丢失信息的情况下降低数据维度

可以看到KNN回归器和随机森林在输入原始数据时表现相对较好,随机森林的训练时间是最长的。

PCA

pca_df = train_test_ML('AirQualityUCI', 'PCA Reduced', X_train_pca, y_train, X_test_pca, y_test)pca_df

常见的降维技术比较:能否在不丢失信息的情况下降低数据维度

与原始数据集相比,不同模型的性能有不同程度的下降。梯度增强回归和支持向量回归在两种情况下保持了一致性。这里一个主要的差异也是预期的是模型训练所花费的时间。与其他模型不同的是,SVR在这两种情况下花费的时间差不多。

表单大师AI 表单大师AI

一款基于自然语言处理技术的智能在线表单创建工具,可以帮助用户快速、高效地生成各类专业表单。

表单大师AI 221 查看详情 表单大师AI

SVD

svd_df = train_test_ML('AirQualityUCI', 'SVD Reduced', X_train_svd, y_train, X_test_svd, y_test)svd_df

常见的降维技术比较:能否在不丢失信息的情况下降低数据维度

与PCA相比,SVD以更大的比例降低了维度,随机森林和梯度增强回归器的表现相对优于其他模型。

回归模型分析

对于这个数据集,使用主成分分析时,数据维数从12维降至5维,使用奇异值分析时,数据降至3维。

就机器学习性能而言,数据集的原始形式相对更好。造成这种情况的一个潜在原因可能是,当我们使用这种技术降低维数时,在这个过程中会发生信息损失。但是线性回归、支持向量回归和梯度增强回归在原始和PCA案例中的表现是一致的。在我们通过SVD得到的数据上,所有模型的性能都下降了。在降维情况下,由于特征变量的维数较低,模型所花费的时间减少了。

将类似的过程应用于其他六个数据集进行测试,得到以下结果:

常见的降维技术比较:能否在不丢失信息的情况下降低数据维度

我们在各种数据集上使用了SVD和PCA,并对比了在原始高维特征空间上训练的回归模型与在约简特征空间上训练的模型的有效性

原始数据集始终优于由降维方法创建的低维数据。这说明在降维过程中可能丢失了一些信息。当用于更大的数据集时,降维方法有助于显著减少数据集中的特征数量,从而提高机器学习模型的有效性。对于较小的数据集,改影响并不显著。模型的性能在original和pca_reduced两种模式下保持一致。如果一个模型在原始数据集上表现得更好,那么它在PCA模式下也会表现得更好。同样,较差的模型也没有得到改进。在SVD的情况下,模型的性能下降比较明显。这可能是n_components数量选择的问题,因为太小数量肯定会丢失数据。决策树在SVD数据集时一直是非常差的,因为它本来就是一个弱学习器

训练分类模型

对于分类我们将使用另一种降维方法:LDA。机器学习和模式识别任务经常使用被称为线性判别分析(LDA)的降维方法。这种监督学习技术旨在最大化几个类或类别之间的距离,同时将数据投影到低维空间。由于它的作用是最大化类之间的差异,因此只能用于分类任务。

from sklearn.linear_model import LogisticRegressionfrom sklearn.neighbors import KNeighborsClassifierfrom sklearn.svm import SVCfrom sklearn.tree import DecisionTreeClassifierfrom sklearn.ensemble import RandomForestClassifier, GradientBoostingClassifierfrom sklearn.metrics import accuracy_score, f1_score, recall_score, precision_score

继续我们的训练方法

def train_test_ML2(dataset, dataform, X_train, y_train, X_test, y_test):temp_df = pd.DataFrame(columns=['Data Set', 'Data Form', 'Dimensions', 'Model', 'Accuracy', 'F1 Score', 'Recall', 'Precision', 'Time Taken'])for i in [LogisticRegression, KNeighborsClassifier, SVC, DecisionTreeClassifier, RandomForestClassifier, GradientBoostingClassifier]:start_time = time.time()reg = i().fit(X_train, y_train)y_pred = reg.predict(X_test)accuracy = np.round(accuracy_score(y_test, y_pred), 2)f1 = np.round(f1_score(y_test, y_pred, average='weighted'), 2)recall = np.round(recall_score(y_test, y_pred, average='weighted'), 2)precision = np.round(precision_score(y_test, y_pred, average='weighted'), 2)end_time = time.time()time_taken = np.round((end_time - start_time), 2)temp_df.loc[len(temp_df)] = [dataset, dataform, X_train.shape[1], str(i).split('.')[-1][:-2], accuracy, f1, recall, precision, time_taken]return temp_df

开始训练

from sklearn.discriminant_analysis import LinearDiscriminantAnalysislda = LinearDiscriminantAnalysis()X_train_lda = lda.fit_transform(X_train, y_train)X_test_lda = lda.transform(X_test)

预处理、分割和数据集的缩放,都与回归部分相同。在对8个不同的数据集进行新联后我们得到了下面结果:

常见的降维技术比较:能否在不丢失信息的情况下降低数据维度

分类模型分析

我们比较了上面所有的三种方法SVD、LDA和PCA。

LDA数据集通常优于原始形式的数据和由其他降维方法创建的低维数据,因为它旨在识别最有效区分类的特征的线性组合,而原始数据和其他无监督降维技术不关心数据集的标签。降维技术在应用于更大的数据集时,可以极大地减少了数据集中的特征数量,这提高了机器学习模型的效率。在较小的数据集上,影响不是特别明显。除了LDA(它在这些情况下也很有效),因为它们在一些情况下,如二元分类,可以将数据集的维度减少到只有一个。当我们在寻找一定的性能时,LDA可以是分类问题的一个非常好的起点。SVD与回归一样,模型的性能下降很明显。需要调整n_components的选择。

总结

我们比较了一些降维技术的性能,如奇异值分解(SVD)、主成分分析(PCA)和线性判别分析(LDA)。我们的研究结果表明,方法的选择取决于特定的数据集和手头的任务。

对于回归任务,我们发现PCA通常比SVD表现得更好。在分类的情况下,LDA优于SVD和PCA,以及原始数据集。线性判别分析(LDA)在分类任务中始终击败主成分分析(PCA)的这个是很重要的,但这并不意味着LDA在一般情况下是一种更好的技术。这是因为LDA是一种监督学习算法,它依赖于有标签的数据来定位数据中最具鉴别性的特征,而PCA是一种无监督技术,它不需要有标签的数据,并寻求在数据中保持尽可能多的方差。因此,PCA可能更适合于无监督的任务或可解释性至关重要的情况,而LDA可能更适合涉及标记数据的任务。

虽然降维技术可以帮助减少数据集中的特征数量,并提高机器学习模型的效率,但重要的是要考虑对模型性能和结果可解释性的潜在影响。

本文完整代码:

https://github.com/salmankhi/DimensionalityReduction/blob/main/Notebook_25373.ipynb

以上就是常见降维技术对比:保持信息完整性下降低数据维度的可行性分析的详细内容,更多请关注创想鸟其它相关文章!

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。
如发现本站有涉嫌抄袭侵权/违法违规的内容, 请发送邮件至 chuangxiangniao@163.com 举报,一经查实,本站将立刻删除。
发布者:程序猿,转转请注明出处:https://www.chuangxiangniao.com/p/835554.html

(0)
打赏 微信扫一扫 微信扫一扫 支付宝扫一扫 支付宝扫一扫
上一篇 2025年11月27日 10:12:36
下一篇 2025年11月27日 10:18:29

相关推荐

  • HTML数据如何用于机器学习 HTML数据预处理的特征工程方法

    首先解析HTML提取文本与元信息,再从结构、文本、样式三方面构建特征:1. 用BeautifulSoup等工具解析HTML,提取标题、正文、链接及属性;2. 统计标签频率、DOM深度、路径模式等结构特征;3. 清洗文本并采用TF-IDF或词嵌入向量化;4. 提取class、id、样式、脚本等交互与视…

    2025年12月23日
    000
  • 标题标签:你想知道的一切

    html,用于构建网页的语言,严重依赖于标头标签。它们用于排列和组织网页内容,使其更易于阅读和理解。标题标签范围从 h1 到 h6。 h1 是最重要的标题标签,而 h6 是最不重要的。这些标题标签有助于组织页面的内容,使其更易于阅读和导航。它们还用于告知用户和搜索引擎有关页面内容的信息,这对于 se…

    2025年12月21日
    000
  • 如何用机器学习算法优化前端用户交互体验?

    通过机器学习分析用户行为数据,可实现前端交互的个性化与自适应优化。1. 利用LSTM、XGBoost等模型预测用户操作,实现智能补全与实时推荐;2. 借助强化学习与聚类算法动态调整UI布局,提升操作效率;3. 使用孤立森林等无监督方法检测异常交互,优化流程设计;4. 通过时序模型预测页面跳转,结合S…

    2025年12月20日
    000
  • C++机器学习入门 线性回归实现示例

    首先实现线性回归模型,通过梯度下降最小化均方误差,代码包含数据准备、训练和预测,最终参数接近真实关系,适用于高性能场景。 想用C++实现线性回归,其实并不复杂。虽然Python在机器学习领域更常见,但C++凭借其高性能,在对效率要求高的场景中非常适用。下面是一个简单的线性回归实现示例,帮助你入门C+…

    2025年12月18日
    000
  • C++中如何构建机器学习框架_张量运算实现

    要构建高效的c++++机器学习框架张量运算模块,需遵循以下核心步骤:1. 设计支持泛型的tensor类,包含内存管理与基础接口;2. 实现运算符重载以简化加减乘除操作;3. 采用simd、多线程及缓存优化提升性能;4. 使用openmp实现并行化加法;5. 利用strassen或winograd算法…

    2025年12月18日 好文分享
    000
  • 怎样在C++中实现决策树_机器学习算法实现

    决策树在c++++中的实现核心在于通过递归构建树节点,使用“如果…那么…”逻辑进行数据分裂,最终实现分类或预测。1. 数据结构方面,定义包含特征索引、分裂阈值、左右子节点、叶子节点值及是否为叶子的treenode结构;2. 分裂准则包括信息增益(id3)、信息增益率(c4.5)和基尼指数(cart)…

    2025年12月18日 好文分享
    000
  • C++ lambda 表达式与闭包在机器学习中的应用

    在机器学习中,lambda 表达式和闭包用于数据预处理、特征工程、模型构建和闭包。具体应用包括:数据规范化等数据预处理操作。创建新特征或转换现有特征。向模型添加自定义的损失函数、激活函数等组件。利用闭包访问外部变量,用于计算特定特征的平均值等目的。 C++ Lambda 表达式与闭包在机器学习中的应…

    2025年12月18日
    000
  • 如何将C++框架与机器学习集成

    如何将 c++++ 框架与机器学习集成?选择 c++ 框架: eigen、armadillo、blitz++集成机器学习库: tensorflow、pytorch、scikit-learn实战案例:使用 eigen 和 tensorflow 构建线性回归模型 如何将 C++ 框架与机器学习集成 引言…

    2025年12月18日
    000
  • 如何将 C++ 框架与机器学习技术集成?

    集成 c++++ 框架和机器学习技术,以提高应用程序性能和功能:准备数据和模型:收集数据,训练模型并将其保存为 tensorflow lite 格式。集成 tensorflow lite:在 c++ 项目中包含 tensorflow lite 头文件和库。加载模型:从文件加载 tensorflow …

    2025年12月18日
    000
  • 如何将 C++ 框架与机器学习算法集成?

    在 c++++ 框架中集成机器学习算法的步骤: 1. 选择合适的 c++ 框架,如 armadillo 或 tensorflow。 2. 获取机器学习算法库,如 scikit-learn 或 xgboost。 3. 通过构建工具将算法库集成到框架中。 4. 从算法库加载算法。 5. 利用框架工具训练…

    2025年12月18日
    000
  • 如何将C++框架与机器学习库集成?

    将c++++框架与机器学习库集成可提供强大的开发基础。步骤如下:选择c++框架(如qt、mfc、boost)选择机器学习库(如tensorflow、pytorch、scikit-learn)创建c++项目集成机器学习库(按照库说明)使用框架和库编写c++代码编译、运行并测试应用程序 如何将 C++ …

    2025年12月18日
    000
  • C++框架在机器学习领域的应用

    c++++框架在机器学习中得到广泛应用,提供预构建组件和工具。流行框架包括:tensorflow c++ api:google开发,提供广泛的算子、层和架构。pytorch:facebook开发,支持动态图计算和易用的python界面。c++ builder:embarcadero开发,集成开发环境…

    2025年12月18日
    000
  • 支持人工智能和机器学习的C++框架

    c++++ 中的人工智能和机器学习框架包括:深度学习框架:tensorflow:谷歌开发,用于大型神经网络pytorch:facebook 开发,用于创建灵活的可读模型机器学习库:armadillo:高性能线性代数和统计计算nlp 工具包:natural language toolkit (nltk…

    2025年12月18日
    000
  • 如何将C++框架与机器学习工具集成?

    如何将 c++++ 框架与机器学习工具集成?设置 tensorflow 和 boost。编写接口,将 tensorflow 对象公开给 boost 代码。使用 boost.python 导出接口,允许从 python 代码调用 tensorflow 方法。在实战案例中,集成 boost c++ 扩展…

    2025年12月18日
    000
  • C++框架与机器学习和人工智能的契合度?

    c++++框架与机器学习和人工智能高度契合,提供高性能、效率和灵活性。tensorflow:一个开源端到端ml/ai框架,提供构建、训练和部署ml模型的工具,如计算图。pytorch:一个基于python的框架,支持动态计算图。xgboost:专注于梯度增强树的框架。cntk:一个微软开发的框架,用…

    2025年12月18日
    000
  • 开始使用 C++ 机器学习框架需要具备哪些技能?

    掌握 c++++ 机器学习框架需要以下核心技能:1. c++ 基础;2. 线性代数和统计的数学基础;3. 机器学习算法和模型;4. 选择并熟悉 c++ ml 框架。例如,使用 eigen 计算协方差矩阵:它创建了一个数据矩阵,计算协方差矩阵,并将其打印到控制台。 踏入 C++ 机器学习框架之旅的必备…

    2025年12月18日
    000
  • C++ 框架在人工智能和机器学习中的应用有什么前景?

    c++++ 框架在 ai/ml 中前景广阔,由于其高性能、内存效率和跨平台兼容性。流行的 c++ 框架包括 tensorflow lite、caffe2 和 scikit-learn。在实战案例中,tensorflow lite 用于图像分类,加载模型、创建解释器、预处理图像、执行推理和获取结果。 …

    2025年12月18日
    100
  • 哪种C++框架最适合用于机器学习和数据科学?

    对于机器学习和数据科学,最流行的 c++++ 框架包括:tensorflow:用于构建和训练机器学习模型pytorch:用于原型化和调试新模型xgboost:用于基于树的机器学习算法opencv:用于计算机视觉任务 探索用于机器学习和数据科学的顶级 C++ 框架 C++ 以其速度、效率和对复杂项目的…

    2025年12月18日
    000
  • 如何调试和解决 C++ 机器学习框架中的问题?

    调试和解决 c++++ 机器学习框架中的问题的步骤:使用调试器(例如 gdb 或 lldb)。检查日志文件以查找错误消息。使用断言来检查条件。打印调试信息以输出变量值。分析异常消息和堆栈跟踪。 如何调试和解决 C++ 机器学习框架中的问题 调试 C++ 机器学习框架中的问题可能是一个挑战,因为它涉及…

    2025年12月18日
    000
  • C++ 机器学习框架的最佳实践和设计模式有哪些?

    c++++ 机器学习框架的最佳实践包括:抽象化和接口隔离依赖关系和松散耦合高内聚和低耦合测试驱动开发设计模式(如工厂方法、单例模式和观察者模式) C++ 机器学习框架的最佳实践和设计模式 机器学习算法在现代软件开发中发挥着至关重要的作用。许多 C++ 框架可用于开发机器学习模型,例如 TensorF…

    2025年12月18日
    000

发表回复

登录后才能评论
关注微信