基于LightGBM实现保险反欺诈预测

项目以保险风控为背景,保险是重要的金融体系,对社会发展,民生保障起到重要作用。保险欺诈近些年层出不穷,在某些险种上保险欺诈的金额已经占到了理赔金额的20%甚至更多。对保险欺诈的识别成为保险行业中的关键应用场景。

☞☞☞AI 智能聊天, 问答助手, AI 智能搜索, 免费无限量使用 DeepSeek R1 模型☜☜☜

基于lightgbm实现保险反欺诈预测 - 创想鸟

一、项目背景

项目以保险风控为背景,保险是重要的金融体系,对社会发展,民生保障起到重要作用。保险欺诈近些年层出不穷,在某些险种上保险欺诈的金额已经占到了理赔金额的20%甚至更多。对保险欺诈的识别成为保险行业中的关键应用场景。

【任务】 数据集提供了之前客户索赔的车险数据,希望你能开发模型帮助公司预测哪些索赔是欺诈行为

【评价标准】 AUC, 即ROC曲线下面的面积 (Area under the Curve of ROC)

二、项目方案

1. 简述技术路线

流程:数据处理 →模型建模→训练→评估预测

在本次项目中,使用的数据集不存在缺失和重复,不用经过清洗和处理,使用sklearn完成模型建模和评估等操作,为完成预测任务采用了lightgbm进行模型训练。

2. Sklearn介绍 -机器学习最常用的一个库

Sklearn 全称 Scikit-learn。它涵盖了分类、回归、聚类、降维、模型选择、数据预处理六大模块,降低机器学习实践门槛,将复杂的数学计算集成为简单的函数,并提供了众多公开数据集和学习案例。

官网中有详细的介绍:Sklearn官方文档

可以在AI Studio中进一步学习它:『行远见大』Python 进阶篇:Sklearn 库

下面是sklearn的算法选择路径,可供在模型选择中进行参考:

基于LightGBM实现保险反欺诈预测 - 创想鸟        

三、数据说明

挂载aistudio中的数据集:保险反欺诈预测

数据集内容:train.csv 训练集 test(1).csv 测试集 submission.csv 提交格式

通过载入数据集以及初步观察,对项目提供的数据集的表头进行理解和记录:

表头 说明

policy_id保险编号age年龄customer_months成为客户的时长,以月为单位policy_bind_date保险绑定日期policy_state上保险所在地区policy_csl组合单一限制policy_deductable保险扣除额policy_annual_premium每年的保险费umbrella_limit保险责任上限insured_zip被保人邮编insured_sex被保人性别insured_education_level被保人学历insured_occupation被保人职业insured_hobbies被保人爱好insured_relationship被保人关系capital-gains资本收益capital-loss资本损失incident_date出险日期incident_type出险类型collision_type碰撞类型incident_severity事故严重程度authorities_contacted联系了当地的哪个机构incident_state出事所在的州incident_city出事所在的城市incident_hour_of_the_day出事所在的小时number_of_vehicles_involved涉及车辆数property_damage是否有财产损失bodily_injuries身体伤害witnesses目击证人police_report_available是否有警察记录的报告total_claim_amount整体索赔金额injury_claim伤害索赔金额property_claim财产索赔金额vehicle_claim汽车索赔金额auto_make汽车品牌,比如Audi, BMW, Toyotaauto_model汽车型号,比如A3,X5,Camry,Passat等auto_year汽车购买的年份fraud是否欺诈,1或者0

四、代码实现

共分为以下5个部分

1.数据集载入及初步观察

2.探索性数据分析

3.数据建模

4.模型评估

5.输出结果

下面将逐一进行介绍

1. 数据集载入及初步观察

In [1]

import pandas as pdimport numpy as npdf=pd.read_csv("保险反欺诈预测/train.csv")test=pd.read_csv("保险反欺诈预测/test (1).csv")df.head(10)

       

   policy_id  age  customer_months policy_bind_date policy_state policy_csl       122576   37              189       2013-08-21            C   500/1000   1     937713   44              234       1998-01-04            B    250/500   2     680237   33               23       1996-02-06            B   500/1000   3     513080   42              210       2008-11-14            A   500/1000   4     192875   29               81       2002-01-08            A    100/300   5     690246   47              305       1999-08-14            C    100/300   6     750108   48              308       2009-06-18            C    250/500   7     237180   30              103       2008-01-02            C   500/1000   8     300549   42               46       2010-11-12            A    100/300   9     532414   41              280       1998-11-10            B    250/500      policy_deductable  policy_annual_premium  umbrella_limit  insured_zip  ...                 1000                1465.71         5000000       455456  ...   1                500                 821.24               0       591805  ...   2               1000                1844.00               0       442490  ...   3                500                1867.29               0       439408  ...   4               1000                 816.25               0       640575  ...   5                500                1592.15               0       483650  ...   6               1000                1442.75         3000000       462503  ...   7               1000                1325.87               0       460080  ...   8               2000                 950.27               0       610944  ...   9               1000                1314.43         6000000       455585  ...     witnesses police_report_available total_claim_amount injury_claim           3                       ?              54930         6029   1         1                     YES              50680         5376   2         1                      NO              47829         4460   3         2                     YES              68862        11043   4         1                     YES              59726         5617   5         2                      NO              57974        12975   6         0                      NO              53693         5731   7         2                     YES              63344        11427   8         3                       ?              74670        12864   9         3                     YES              55484         6128     property_claim  vehicle_claim  auto_make  auto_model auto_year fraud  0           5752          44452     Nissan      Maxima      2000     0  1          10156          37347      Honda       Civic      1996     0  2           9247          33644       Jeep    Wrangler      2002     0  3           5955          53548     Suburu      Legacy      2003     1  4          10301          41550       Ford        F150      2004     0  5           6619          39006       Saab          93      1996     1  6           5685          42042     Toyota  Highlander      2013     0  7           5429          43300     Suburu      Legacy      2012     0  8          20141          44657      Dodge         RAM      2004     1  9          12680          37788       Saab         92x      2007     0  [10 rows x 38 columns]

               In [2]

#查看缺失值df.info()

       

RangeIndex: 700 entries, 0 to 699Data columns (total 38 columns): #   Column                       Non-Null Count  Dtype  ---  ------                       --------------  -----   0   policy_id                    700 non-null    int64   1   age                          700 non-null    int64   2   customer_months              700 non-null    int64   3   policy_bind_date             700 non-null    object  4   policy_state                 700 non-null    object  5   policy_csl                   700 non-null    object  6   policy_deductable            700 non-null    int64   7   policy_annual_premium        700 non-null    float64 8   umbrella_limit               700 non-null    int64   9   insured_zip                  700 non-null    int64   10  insured_sex                  700 non-null    object  11  insured_education_level      700 non-null    object  12  insured_occupation           700 non-null    object  13  insured_hobbies              700 non-null    object  14  insured_relationship         700 non-null    object  15  capital-gains                700 non-null    int64   16  capital-loss                 700 non-null    int64   17  incident_date                700 non-null    object  18  incident_type                700 non-null    object  19  collision_type               700 non-null    object  20  incident_severity            700 non-null    object  21  authorities_contacted        700 non-null    object  22  incident_state               700 non-null    object  23  incident_city                700 non-null    object  24  incident_hour_of_the_day     700 non-null    int64   25  number_of_vehicles_involved  700 non-null    int64   26  property_damage              700 non-null    object  27  bodily_injuries              700 non-null    int64   28  witnesses                    700 non-null    int64   29  police_report_available      700 non-null    object  30  total_claim_amount           700 non-null    int64   31  injury_claim                 700 non-null    int64   32  property_claim               700 non-null    int64   33  vehicle_claim                700 non-null    int64   34  auto_make                    700 non-null    object  35  auto_model                   700 non-null    object  36  auto_year                    700 non-null    int64   37  fraud                        700 non-null    int64  dtypes: float64(1), int64(18), object(19)memory usage: 207.9+ KB

       In [4]

# 绘制箱线图,查看异常值import matplotlib.pyplot as pltimport seaborn as sns# 分离数值变量与分类变量Nu_feature = list(df.select_dtypes(exclude=['object']).columns)  Ca_feature = list(df.select_dtypes(include=['object']).columns)# 绘制箱线图plt.figure(figsize=(30,30))   #  箱线图查看数值型变量异常值i=1for col in Nu_feature:    ax=plt.subplot(4,5,i)    ax=sns.boxplot(data=df[col])    ax.set_xlabel(col)    ax.set_ylabel('Frequency')    i+=1plt.show()# 结合原始数据及经验,真正的异常值只有umbrella_limit这一个变量,有一个-1000000的异常值,但测试集没有,可以忽略不管

       

               

2. 探索性数据分析

查看训练集与测试集数值变量分布

查看分类变量分布

查看数据相关性

查看训练集与测试集数值变量分布

In [5]

#查看训练集与测试集数值变量分布import warningswarnings.filterwarnings("ignore")plt.figure(figsize=(20,15))i=1Nu_feature.remove('fraud')for col in Nu_feature:    ax=plt.subplot(4,5,i)    ax=sns.kdeplot(df[col],color='red')    ax=sns.kdeplot(test[col],color='cyan')    ax.set_xlabel(col)    ax.set_ylabel('Frequency')    ax=ax.legend(['train','test'])    i+=1plt.show()

       

               

查看分类变量分布

In [6]

# 查看分类变量分布col1=Ca_featureplt.figure(figsize=(40,40))j=1for col in col1:    ax=plt.subplot(8,5,j)    ax=plt.scatter(x=range(len(df)),y=df[col],color='red')    plt.title(col)    j+=1k=11for col in col1:    ax=plt.subplot(5,8,k)    ax=plt.scatter(x=range(len(test)),y=test[col],color='cyan')    plt.title(col)    k+=1plt.subplots_adjust(wspace=0.4,hspace=0.3)  plt.show()

       

               

查看数据相关性

In [7]

from sklearn.preprocessing import LabelEncoderlb = LabelEncoder()                               cols = Ca_featurefor m in cols:    df[m] = lb.fit_transform(df[m])    test[m] = lb.fit_transform(test[m])correlation_matrix=df.corr()plt.figure(figsize=(12,10))sns.heatmap(correlation_matrix,vmax=0.9,linewidths=0.05,cmap="RdGy")# 几个相关性比较高的特征在模型的特征输出部分也占据比较重要的位置

       


               

               

3. 数据建模

切割训练集和测试集

这里使用留出法划分数据集,将数据集分为自变量和因变量。

按比例切割训练集和测试集(一般测试集的比例有30%、25%、20%、15%和10%),使用分层抽样,设置随机种子以便结果能复现

x_train,x_test,y_train,y_test = train_test_split( X, Y,test_size=0.3,random_state=1)

       模型创建

创建基于树的分类模型(lightgbm)

这些模型进行训练,分别的到训练集和测试集的得分

In [8]

from lightgbm.sklearn import LGBMClassifierfrom sklearn.model_selection import train_test_splitfrom sklearn.model_selection import KFoldfrom sklearn.metrics import accuracy_score, auc, roc_auc_scoreX=df.drop(columns=['policy_id','fraud'])Y=df['fraud']test=test.drop(columns='policy_id')# 划分训练及测试集x_train,x_test,y_train,y_test = train_test_split( X, Y,test_size=0.3,random_state=1)

   In [19]

# 建立模型gbm = LGBMClassifier(n_estimators=600,learning_rate=0.01,boosting_type= 'gbdt',       objective = 'binary',    max_depth = -1,      random_state=2022,               metric='auc')

   

4. 模型评估

交叉验证介绍

交叉验证(cross-validation)是一种评估泛化性能的统计学方法,它比单次划分训练集和测试集的方法更加稳定、全面。在交叉验证中,数据被多次划分,并且需要训练多个模型。最常用的交叉验证是 k 折交叉验证(k-fold cross-validation),其中 k 是由用户指定的数字,通常取 5 或 10。基于LightGBM实现保险反欺诈预测 - 创想鸟            In [10]

# 交叉验证result1 = []mean_score1 = 0n_folds=5kf = KFold(n_splits=n_folds ,shuffle=True,random_state=2022)for train_index, test_index in kf.split(X):    x_train = X.iloc[train_index]    y_train = Y.iloc[train_index]    x_test = X.iloc[test_index]    y_test = Y.iloc[test_index]    gbm.fit(x_train,y_train)    y_pred1=gbm.predict_proba((x_test),num_iteration=gbm.best_iteration_)[:,1]    print('验证集AUC:{}'.format(roc_auc_score(y_test,y_pred1)))    mean_score1 += roc_auc_score(y_test,y_pred1)/ n_folds    y_pred_final1 = gbm.predict_proba((test),num_iteration=gbm.best_iteration_)[:,1]    y_pred_test1=y_pred_final1    result1.append(y_pred_test1)

       

验证集AUC:0.8211382113821137验证集AUC:0.8088235294117647验证集AUC:0.8413402315841341验证集AUC:0.8452820891845282验证集AUC:0.8099856321839081

       In [20]

# 模型评估print('mean 验证集auc:{}'.format(mean_score1))cat_pre1=sum(result1)/n_folds

       

mean 验证集auc:0.8253139387492898

       

5. 输出结果

将预测结果按照指定格式输出到submission-Copy2.csv文件

In [21]

ret1=pd.DataFrame(cat_pre1,columns=['fraud'])ret1['fraud']=np.where(ret1['fraud']>0.5,'yes','no').astype('str')result = pd.DataFrame()result['policy_id'] = df['policy_id']result['fraud'] = ret1['fraud']result.to_csv('/home/aistudio/submission.csv',index=False)

   

五、效果展示

最后得到验证集accuracy达到0.8253139387492898

以上就是基于LightGBM实现保险反欺诈预测的详细内容,更多请关注创想鸟其它相关文章!

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。
如发现本站有涉嫌抄袭侵权/违法违规的内容, 请发送邮件至 chuangxiangniao@163.com 举报,一经查实,本站将立刻删除。
发布者:程序猿,转转请注明出处:https://www.chuangxiangniao.com/p/53852.html

(0)
打赏 微信扫一扫 微信扫一扫 支付宝扫一扫 支付宝扫一扫
上一篇 2025年11月9日 12:31:45
下一篇 2025年11月9日 12:32:32

相关推荐

  • PHP SimpleXML解析多维XML数据:高效访问与最佳实践

    本文旨在指导开发者如何高效地使用PHP的SimpleXML扩展来解析和访问多维XML数据,避免常见的转换误区。我们将深入探讨SimpleXML对象的结构特性,演示如何直接通过对象属性访问XML元素和属性,并提供实用的代码示例和错误处理建议,帮助您更专业、更流畅地处理XML响应。 理解PHP Simp…

    2025年12月11日
    000
  • PHP连接MySQL后如何执行INSERT语句

    要安全执行php连接mysql后的insert语句,必须使用预处理语句防止sql注入。1. 建立数据库连接,推荐使用支持预处理的pdo或mysqli扩展;2. 构造带有占位符的sql语句,如insert into users (username, email) values (:username, …

    2025年12月11日 好文分享
    000
  • 解决PhpStorm自动补全功能失灵的方法

    1.检查自动补全设置是否启用;2.清除缓存并重建索引;3.确认php解释器与项目配置正确;4.更新插件及phpstorm版本。首先确保editor > general > code completion中勾选了自动提示选项,并确认快捷键未改动;接着通过file > invalida…

    2025年12月11日 好文分享
    000
  • 解决WordPress博客首页无法显示页面标题的问题

    摘要:本文针对WordPress主题开发中,使用静态页面作为博客首页时,home.php无法正确显示页面标题的问题,提供了详细的解决方案。通过使用get_the_title()函数并结合get_option(‘page_for_posts’)获取文章页面的ID,从而正确显示博…

    2025年12月11日
    000
  • WordPress博客首页无法显示页面标题的解决方案

    本教程旨在解决WordPress主题开发中,使用静态首页和博客页面展示最新文章时,home.php无法正确获取页面标题和特色图像的问题。通过使用get_the_title()函数并结合get_option(‘page_for_posts’)获取博客页面的ID,可以确保博客首页…

    2025年12月11日
    000
  • WordPress Home.php 无法获取页面标题的解决方案

    本文针对 WordPress 主题开发中,使用 home.php 作为博客内容页时,无法正确获取页面标题和特色图像的问题,提供了一种解决方案。通过使用 get_the_title() 函数并结合 get_option(‘page_for_posts’) 获取文章页面的 ID,…

    2025年12月11日
    000
  • 处理PHPCMS数据库数据丢失的情况

    phpcms数据库数据丢失应对方法包括立即评估损失、停止写入操作、查找可用备份并恢复。首先确认是否为彻底丢失,检查mysql服务状态;若确定丢失则紧急止损,停止网站或数据库服务;寻找最近的可用备份文件并评估其完整性;新建数据库并导入备份文件,通过命令行或图形界面操作;修改phpcms配置文件指向新数…

    2025年12月11日 好文分享
    000
  • 怎样用PHP实现缓存?文件缓存优化方案

    在Web开发中,缓存是提升性能的重要手段。PHP实现缓存的方式有很多种,其中文件缓存是一种简单、稳定又不依赖额外组件的方案,特别适合中小型项目或初期阶段使用。 什么是文件缓存? 文件缓存就是把一些需要频繁读取但变化不大的数据(比如数据库查询结果、配置信息、页面片段等)写入到服务器上的一个文件中,下次…

    2025年12月11日 好文分享
    000
  • 解决PHPCMS编辑器文字排版错乱的问题

    解决phpcms编辑器文字排版错乱的问题,核心在于“净化”内容并优化编辑流程。1. 最直接的方法是使用“粘贴为纯文本”功能,剥离外部样式后再重新排版;2. 若内容已粘贴错乱,可使用“清除格式”按钮去除多余内联样式;3. 对于顽固问题,进入html源代码视图手动删除冗余的span、div标签及特殊字符…

    2025年12月11日 好文分享
    000
  • WebSocket实时通信怎么做?PHP实现方案详解

    php 实现 websocket 实时通信需借助第三方库。1. 启动 websocket 服务器:使用 ratchet 等框架,通过 composer 安装后编写监听脚本并运行;2. 前端连接:使用 javascript 的 websocket api 连接服务端,注意跨域、协议和端口配置;3. 性…

    2025年12月11日 好文分享
    000
  • PHP数组如何高效操作?常用数组函数使用指南

    php 数组操作可通过高效函数提升代码简洁性与性能。1. 使用 array_merge 或 php 7.4+ 的 … 运算符合并数组,自动重索引数字键;2. array_map 可遍历处理数组元素,支持多数组同步处理;3. array_filter 筛选符合条件的元素,默认移除 fals…

    2025年12月11日 好文分享
    000
  • 处理PhpStorm快捷键无法使用的故障

    phpstorm快捷键失效常见原因包括键盘映射更改、系统或插件冲突、配置异常等,解决方法如下:1. 检查并恢复keymap设置至默认或习惯方案,排除插件影响;2. 关闭可能冲突的系统或第三方软件,测试输入法切换是否干扰;3. 清除phpstorm缓存或重置配置,路径依操作系统而异;4. 更新phps…

    2025年12月11日 好文分享
    000
  • WAMP环境下配置PHPCMS域名的详细教程

    配置wamp环境下的phpcms域名需完成五个步骤:1. 修改hosts文件,添加127.0.0.1 yourdomain.com和127.0.0.1 www.yourdomain.com,实现本地域名解析;2. 配置wamp虚拟主机,在httpd-vhosts.conf中设置documentroo…

    2025年12月11日 好文分享
    000
  • PHP怎样解析Protocol Buffers PHP解析Protocol Buffers教程

    php解析protocol buffers需先安装protoc编译器,再安装php的protobuf扩展。1. 安装protoc:linux用apt-get/yum,macos用brew,windows下载二进制文件并配置环境变量;2. 安装php扩展:通过pecl install protobuf…

    2025年12月11日 好文分享
    000
  • PHP怎样处理CoAP协议消息 CoAP协议消息处理技巧分享

    php处理coap协议消息的核心在于理解其结构并利用php的网络编程能力进行解析和生成。1. 首先选择合适的库或自行编写解析逻辑,2. 使用udp socket编程接收和发送coap消息,3. 若有dtls安全需求则需处理加密过程,4. 对于observe机制,服务端需维护订阅列表并在资源变化时通知…

    2025年12月11日 好文分享
    000
  • PHP性能优化怎么做?代码执行效率提升方案

    php性能优化的核心在于减少资源消耗和缩短执行时间,具体措施包括以下几点:1. 优化代码结构,避免在循环中重复计算,提前计算好循环条件并尽量减少嵌套循环;2. 合理使用缓存机制,如页面缓存、数据缓存(redis/memcached)和opcode缓存(opcache),以减少重复请求和编译时间;3.…

    2025年12月11日 好文分享
    000
  • 解决Laravel应用在共享主机上链接失效的404问题:基于.htaccess的部署指南

    本教程详细阐述了Laravel应用部署至000webhost等共享主机后,链接无法正常工作并返回404错误的问题。核心解决方案是通过在public_html目录下配置.htaccess文件,正确设置Apache的URL重写规则,确保所有请求都通过Laravel的入口文件index.php处理,从而恢…

    2025年12月11日
    000
  • 优化PHPCMS安装环境以提高性能

    php版本选择对phpcms性能影响显著,较新的稳定版本(如php 7.x或8.x)能提升执行效率、降低资源消耗并增强安全性;升级前需充分测试兼容性。其次,mysql配置应调整innodb_buffer_pool_size至内存50%-80%,启用查询缓存并优化索引,以提高数据库性能。最后,使用cd…

    2025年12月11日 好文分享
    000
  • 目录遍历功能怎样实现?递归扫描文件技巧分享

    实现目录遍历的关键在于递归函数,1. 使用递归函数深入每一层目录并处理其中的文件和子目录;2. 扫描时应注意跳过隐藏文件并捕获权限不足引发的异常以提升程序稳定性;3. 可借助生成器提高大目录处理效率;4. 实际应用中常用于批量操作、清理或资源打包等任务,需结合过滤条件灵活使用。 目录遍历功能其实挺常…

    2025年12月11日 好文分享
    000
  • 解决PHPCMS缓存污染漏洞的有效办法

    解决phpcms缓存污染漏洞的核心方法包括:1. 输入验证与净化是基石,对所有用户输入进行白名单验证、类型检查和特殊字符转义;2. 构建健壮的缓存键,将影响内容的所有动态因素纳入并标准化处理后生成唯一哈希值;3. 精细化缓存策略与失效机制,根据内容动态性设置缓存时间并及时清除过期缓存;4. 安全更新…

    2025年12月11日 好文分享
    000

发表回复

登录后才能评论
关注微信