Python怎样检测数据质量中的异常?完整性检查

python中,数据质量的异常检测和完整性检查可通过统计学方法、机器学习算法和pandas等工具实现。1. 异常检测常用z-score和iqr方法,z-score适用于正态分布,iqr适用于偏态分布;2. 机器学习方法如孤立森林、dbscan和one-class svm可用于复杂模式识别;3. 完整性检查包括缺失值检测与处理(如填充或删除)、重复值识别与处理(如去重)、数据类型与格式验证、逻辑一致性检查及唯一性验证。这些步骤通常结合使用,以确保数据质量,支撑后续分析与建模可靠性。

Python怎样检测数据质量中的异常?完整性检查

数据质量中的异常检测和完整性检查,在Python里我们通常会结合统计学方法、特定领域知识以及强大的数据处理库(比如Pandas、NumPy),甚至一些机器学习算法来完成。说白了,就是用代码去“审视”数据,看看它是不是“干净”的,有没有“毛病”,比如数值是不是超出了正常范围,有没有重复的记录,或者关键信息是不是缺失了。这个过程是数据分析和建模前非常关键的一步,直接决定了后续工作的可靠性。

Python怎样检测数据质量中的异常?完整性检查

解决方案

要用Python检测数据质量中的异常和进行完整性检查,我们需要一套组合拳。这不仅仅是跑几行代码那么简单,它更像是一种艺术,需要你对数据有深刻的理解,才能判断什么算“异常”,什么才算“完整”。

异常检测:

立即学习“Python免费学习笔记(深入)”;

Python怎样检测数据质量中的异常?完整性检查统计学方法: 这是最直接也最常用的。Z-score(标准分数): 适用于近似正态分布的数据。它衡量一个数据点距离均值有多少个标准差。通常,Z-score超过某个阈值(比如2、3或3.5)的数据点就被认为是异常值。IQR(四分位距): 对偏态分布的数据更鲁棒。它定义了数据中间50%的范围。异常值通常被定义为低于Q1 – 1.5 IQR或高于Q3 + 1.5 IQR的数据点。箱线图(Box Plot): 它是IQR的可视化体现,能直观地展示数据的分布和潜在异常点。基于距离/密度的方法:LOF(Local Outlier Factor): 评估一个数据点相对于其邻居的局部密度偏差。如果一个点的局部密度远低于其邻居,它可能就是异常点。DBSCAN: 一种聚类算法,但它也能识别噪声点(即不属于任何聚类的点),这些噪声点往往就是异常值。机器学习方法:Isolation Forest(孤立森林): 通过随机选择特征并递归地划分数据空间,来“孤立”异常点。异常点通常在树中被更快地孤立出来。One-Class SVM(单类支持向量机): 学习一个能够包围“正常”数据点的边界,任何落在边界之外的点都被视为异常。

完整性检查:

缺失值检测与处理: 识别数据中哪些地方是空的(

NaN

,

None

, 空字符串),然后决定是填充(均值、中位数、众数、前向/后向填充)还是删除这些记录。重复值检测与处理: 查找数据集中完全相同或在关键字段上重复的记录,并决定保留一个还是全部删除。数据类型一致性检查: 确保每列的数据类型是正确的,比如数字列不能包含文本,日期列是标准的日期格式。范围/格式验证: 对特定列应用业务规则,比如年龄必须在0到120之间,电话号码必须是11位数字。逻辑一致性检查: 检查不同列之间是否存在矛盾,比如订单总价不等于单价乘以数量。唯一性检查: 确保主键或特定标识符列的值是唯一的。

这些方法并非孤立存在,很多时候我们需要结合使用。比如,先用统计方法找出初步的异常点,再结合业务经验判断它们是否真的“异常”,或者先处理缺失值和重复值,再进行异常检测。

Python怎样检测数据质量中的异常?完整性检查

Python如何识别数值型数据中的统计异常?

在Python中,识别数值型数据中的统计异常,最常用的就是Z-score和IQR这两种方法。这两种方法各有侧重,Z-score对正态分布的数据更敏感,而IQR则对偏态分布的数据表现更稳健。

使用Z-score检测异常:Z-score的计算公式是

(数据点 - 均值) / 标准差

。在Python中,我们可以很方便地用NumPy和Pandas实现。通常我们会设定一个阈值,比如3,如果Z-score的绝对值超过3,就认为它是异常值。

import pandas as pdimport numpy as np# 假设我们有这样一组数据data = {'value': [10, 12, 11, 13, 100, 14, 15, 9, 8, 10, -50]}df = pd.DataFrame(data)# 计算Z-scoredf['z_score'] = np.abs((df['value'] - df['value'].mean()) / df['value'].std())# 设定Z-score阈值,找出异常值threshold = 3outliers_zscore = df[df['z_score'] > threshold]print("基于Z-score的异常值:")print(outliers_zscore)# 实际操作中,我们可能还会结合可视化,比如散点图或直方图,来观察这些异常点的位置。

这种方法简单直接,但它有个明显的“缺点”:均值和标准差本身就容易受到异常值的影响。也就是说,如果数据中已经存在一些极端的异常值,它们可能会“拉高”均值或标准差,从而使得一些原本应该被识别出来的异常值变得不那么“异常”了。

使用IQR检测异常:IQR是基于四分位数的方法,它对极端值不那么敏感。Q1是25%分位数,Q3是75%分位数,IQR = Q3 – Q1。异常值通常被定义为:

小于

Q1 - 1.5 * IQR

大于

Q3 + 1.5 * IQR
# 继续使用上面的DataFrame dfQ1 = df['value'].quantile(0.25)Q3 = df['value'].quantile(0.75)IQR = Q3 - Q1# 定义异常值的上下界lower_bound = Q1 - 1.5 * IQRupper_bound = Q3 + 1.5 * IQR# 找出异常值outliers_iqr = df[(df['value']  upper_bound)]print("n基于IQR的异常值:")print(outliers_iqr)

IQR方法在处理非正态分布或包含极端离群值的数据时更为稳健,因为它不依赖于均值和标准差。在我的经验里,对于大多数真实世界的数据集,IQR往往是更安全、更可靠的初步异常检测方法。

Python如何进行数据完整性检查,特别是处理缺失值和重复项?

数据完整性是数据质量的基石,而缺失值和重复项是其中最常见也最需要优先处理的问题。Python的Pandas库提供了非常强大和直观的工具来应对这些挑战。

缺失值处理:缺失值就像数据中的“黑洞”,它们可能是数据采集时的疏忽,也可能是数据本身就不存在。识别和处理它们是第一步。

import pandas as pdimport numpy as np# 创建一个包含缺失值的示例DataFramedata = {    'id': [1, 2, 3, 4, 5],    'name': ['Alice', 'Bob', np.nan, 'David', 'Eve'],    'age': [25, 30, 22, np.nan, 28],    'city': ['NY', 'LA', 'NY', 'LA', np.nan]}df_missing = pd.DataFrame(data)print("原始DataFrame:")print(df_missing)# 1. 检测缺失值:print("n检测缺失值(True表示缺失):")print(df_missing.isnull()) # 或者 df_missing.isna()# 2. 统计每列的缺失值数量:print("n每列缺失值数量:")print(df_missing.isnull().sum())# 3. 可视化缺失值(通常用heatmap更直观,这里用文字描述):# import seaborn as sns# import matplotlib.pyplot as plt# sns.heatmap(df_missing.isnull(), cbar=False, cmap='viridis')# plt.show()# 4. 处理缺失值:# a. 删除含有缺失值的行:df_dropna_rows = df_missing.dropna()print("n删除含有缺失值的行:")print(df_dropna_rows)# b. 删除含有缺失值的列:df_dropna_cols = df_missing.dropna(axis=1)print("n删除含有缺失值的列:")print(df_dropna_cols)# c. 填充缺失值:# 填充固定值df_fill_fixed = df_missing.fillna('未知')print("n填充固定值'未知':")print(df_fill_fixed)# 填充数值列的均值df_fill_mean = df_missing.copy()df_fill_mean['age'].fillna(df_fill_mean['age'].mean(), inplace=True)print("n填充age列的均值:")print(df_fill_mean)# 填充类别列的众数df_fill_mode = df_missing.copy()df_fill_mode['city'].fillna(df_fill_mode['city'].mode()[0], inplace=True)print("n填充city列的众数:")print(df_fill_mode)# 前向填充(ffill)或后向填充(bfill)df_ffill = df_missing.fillna(method='ffill')print("n前向填充:")print(df_ffill)

选择哪种处理方式,很大程度上取决于数据的特性和业务场景。删除行是最简单粗暴的,但可能损失大量信息;填充则需要谨慎,不当的填充可能会引入偏差。

重复项处理:重复项是指数据集中存在完全相同或在特定标识符上重复的记录。它们可能导致统计结果偏差,甚至影响模型训练的准确性。

# 创建一个包含重复项的示例DataFramedata_dup = {    'id': [1, 2, 3, 2, 4, 1],    'name': ['Alice', 'Bob', 'Charlie', 'Bob', 'David', 'Alice'],    'age': [25, 30, 22, 30, 28, 25],    'city': ['NY', 'LA', 'NY', 'LA', 'SF', 'NY']}df_duplicates = pd.DataFrame(data_dup)print("n原始DataFrame(含重复项):")print(df_duplicates)# 1. 检测重复项:# 默认检测所有列都重复的行print("n检测所有列都重复的行:")print(df_duplicates.duplicated())# 统计重复行的数量print("n重复行的数量:", df_duplicates.duplicated().sum())# 检测特定列(如'id'和'name')重复的行print("n检测id和name列重复的行:")print(df_duplicates.duplicated(subset=['id', 'name']))# 2. 处理重复项:# 删除重复行,默认保留第一次出现的记录df_no_duplicates = df_duplicates.drop_duplicates()print("n删除重复行(保留第一次出现):")print(df_no_duplicates)# 删除重复行,保留最后一次出现的记录df_no_duplicates_last = df_duplicates.drop_duplicates(keep='last')print("n删除重复行(保留最后一次出现):")print(df_no_duplicates_last)# 删除重复行,基于特定列(如'id')df_no_duplicates_subset = df_duplicates.drop_duplicates(subset=['id'])print("n删除基于id列的重复行:")print(df_no_duplicates_subset)

处理重复项时,

keep

参数非常重要,它决定了保留哪条记录。在业务场景中,可能需要根据时间戳或其他字段来决定保留最新或最旧的记录。

除了统计方法,Python还有哪些高级技术可以发现数据中的“怪异”模式?

除了传统的统计学方法,Python在机器学习领域也提供了多种强大的工具,可以帮助我们发现数据中那些更复杂、更“怪异”的异常模式。这些方法通常不依赖于数据是否服从某种特定分布,而是尝试学习数据的内在结构,从而识别出偏离常规的“异类”。

1. 孤立森林 (Isolation Forest):这是我个人在实际项目中非常喜欢用的一种算法,因为它既高效又有效。孤立森林的基本思想是,异常点是“少数派”,并且它们在数据空间中通常距离其他正常点更远,更容易被“孤立”出来。算法通过随机选择特征并随机选择分割点来构建决策树,异常点往往在更少的分割步骤中就被分到叶子节点。

from sklearn.ensemble import IsolationForestimport pandas as pdimport numpy as np# 构造一个包含正常点和少量异常点的数据集X = np.array([    [1, 1], [1.2, 1.1], [1.1, 1.2], [1.3, 1.3], [1.0, 1.0],    [10, 10], # 异常点1    [1.5, 1.6], [1.4, 1.5], [1.6, 1.4],    [-5, -5]  # 异常点2])df_ml = pd.DataFrame(X, columns=['feature1', 'feature2'])# 初始化Isolation Forest模型# contamination参数表示数据集中异常值的比例,这是一个先验知识,也可以不设置让模型自己学习# random_state用于保证结果可复现model = IsolationForest(contamination=0.1, random_state=42)# 训练模型(实际上,Isolation Forest是无监督的,fit方法只是学习数据分布)model.fit(df_ml)# 预测每个点的异常分数(越低越异常)和标签(-1表示异常,1表示正常)df_ml['anomaly_score'] = model.decision_function(df_ml)df_ml['is_anomaly'] = model.predict(df_ml)print("Isolation Forest检测结果:")print(df_ml)# 筛选出被标记为异常的点outliers_if = df_ml[df_ml['is_anomaly'] == -1]print("nIsolation Forest识别出的异常点:")print(outliers_if)

孤立森林的优势在于它不需要对数据分布做任何假设,并且对高维数据也能有不错的表现。它的输出是一个异常分数,这允许我们根据业务需求调整异常的“严格程度”。

2. DBSCAN (Density-Based Spatial Clustering of Applications with Noise):DBSCAN是一种基于密度的聚类算法。它将数据点分为三类:核心点、边界点和噪声点。噪声点就是那些不属于任何密集区域的点,它们通常被视为异常值。DBSCAN不需要预设聚类数量,这在异常检测中非常有用。

from sklearn.cluster import DBSCANimport pandas as pdimport numpy as np# 构造数据,包含一些密集区域和一些稀疏的噪声点X_dbscan = np.array([    [1, 1], [1.2, 1.1], [1.1, 1.2], # 簇1    [5, 5], [5.1, 5.2], [5.3, 5.1], # 簇2    [10, 10], # 噪声点1    [0, 0],   # 噪声点2    [1.5, 1.6], [1.4, 1.5] # 簇1])df_dbscan = pd.DataFrame(X_dbscan, columns=['x', 'y'])# 初始化DBSCAN模型# eps: 邻域半径,min_samples: 形成核心点所需的最小样本数dbscan = DBSCAN(eps=0.7, min_samples=2)# 训练并预测clusters = dbscan.fit_predict(df_dbscan)df_dbscan['cluster'] = clustersprint("nDBSCAN聚类结果(-1表示噪声/异常):")print(df_dbscan)# 筛选出被标记为噪声(异常)的点outliers_dbscan = df_dbscan[df_dbscan['cluster'] == -1]print("nDBSCAN识别出的异常点:")print(outliers_dbscan)

DBSCAN的挑战在于选择合适的

eps

(邻域半径)和

min_samples

参数,这往往需要一些领域知识或通过尝试不同的参数组合来找到最佳效果。

3. One-Class SVM (One-Class Support Vector Machine):One-Class SVM主要用于“异常检测”,它学习一个决策函数,将数据点分为一类(正常点)和另一类(异常点)。它通过找到一个超平面,将大部分数据点(正常点)包围起来,而将远离这个超平面的点视为异常。

from sklearn.svm import OneClassSVMimport pandas as pdimport numpy as np# 构造数据,大部分是正常点,少量异常点X_ocsvm = np.array([    [0.1, 0.1], [0.2, 0.2], [0.3, 0.3], [0.4, 0.4], [0.5, 0.5],    [10, 10], # 异常点    [0.15, 0.15], [0.25, 0.25],    [-5, -5] # 异常点])df_ocsvm = pd.DataFrame(X_ocsvm, columns=['f1', 'f2'])# 初始化One-Class SVM模型# nu参数表示异常值的比例(通常是0到1之间),类似于Isolation Forest的contaminationocsvm = OneClassSVM(nu=0.1, kernel="rbf", gamma='auto')# 训练模型ocsvm.fit(df_ocsvm)# 预测每个点的标签(-1表示异常,1表示正常)df_ocsvm['is_anomaly'] = ocsvm.predict(df_ocsvm)print("nOne-Class SVM检测结果:")print(df_ocsvm)# 筛选出被标记为异常的点outliers_ocsvm = df_ocsvm[df_ocsvm['is_anomaly'] == -1]print("nOne-Class SVM识别出的异常点:")print(outliers_ocsvm)

One-Class SVM在处理高维数据和复杂模式时表现良好,但它的计算成本相对较高,并且对

nu

参数的设置比较敏感。

选择哪种高级技术,取决于你的数据特性、异常的定义以及计算资源。有时候,这些方法会比简单的统计方法更能发现那些“隐藏”在数据深处的、不易察觉的“怪异”模式。但话说回来,任何算法都只是工具,最终的判断还是得结合我们对业务的理解。

以上就是Python怎样检测数据质量中的异常?完整性检查的详细内容,更多请关注创想鸟其它相关文章!

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。
如发现本站有涉嫌抄袭侵权/违法违规的内容, 请发送邮件至 chuangxiangniao@163.com 举报,一经查实,本站将立刻删除。
发布者:程序猿,转转请注明出处:https://www.chuangxiangniao.com/p/1367971.html

(0)
打赏 微信扫一扫 微信扫一扫 支付宝扫一扫 支付宝扫一扫
上一篇 2025年12月14日 08:22:51
下一篇 2025年12月14日 08:23:01

相关推荐

发表回复

登录后才能评论
关注微信