700字范文,内容丰富有趣,生活中的好帮手!
700字范文 > XGBoost算法案例实战—— 金融反欺诈模型

XGBoost算法案例实战—— 金融反欺诈模型

时间:2023-12-20 16:27:13

相关推荐

XGBoost算法案例实战—— 金融反欺诈模型

案例背景

信用卡盗刷一般发生在持卡人信息被不法分子窃取后复制卡片进行消费或信用卡被他人冒领后激活消费的情况。一旦发生信用卡盗刷,持卡人和银行都会蒙受一定的经济损失。因此,通过大数据搭建金融反欺诈模型对银行来说尤为重要。

模型搭建

1.读取数据

import pandas as pddf = pd.read_excel('信用卡交易数据.xlsx')df.head()

2.提取特征变量和目标变量

# 通过如下代码将特征变量和目标变量单独提取出来,代码如下:X = df.drop(columns='欺诈标签') y = df['欺诈标签']

3.划分训练集和测试集

# 提取完特征变量后,通过如下代码将数据拆分为训练集及测试集:from sklearn.model_selection import train_test_splitX_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.2, random_state=123)

4.模型训练及搭建

# 划分为训练集和测试集之后,就可以引入XGBoost分类器进行模型训练了,代码如下:from xgboost import XGBClassifierclf = XGBClassifier(n_estimators=100, learning_rate=0.05)clf.fit(X_train, y_train)

模型预测及评估

# 模型搭建完毕后,通过如下代码预测测试集数据:y_pred = clf.predict(X_test)y_pred # 打印预测结果

# 通过和之前章节类似的代码,我们可以将预测值和实际值进行对比:a = pd.DataFrame() # 创建一个空DataFrame a['预测值'] = list(y_pred)a['实际值'] = list(y_test)a.head()

# 可以看到此时前五项的预测准确度为60%,如果想看所有测试集数据的预测准确度,可以使用如下代码:from sklearn.metrics import accuracy_scorescore = accuracy_score(y_pred, y_test)score

# XGBClassifier分类器本质预测的并不是准确的0或1的分类,而是预测其属于某一分类的概率,可以通过predict_proba()函数查看预测属于各个分类的概率,代码如下:y_pred_proba = clf.predict_proba(X_test)print(y_pred_proba[0:5]) # 查看前5个预测的概率

# 此时的y_pred_proba是个二维数组,其中第一列为分类为0(也即非欺诈)的概率,第二列为分类为1(也即欺诈)的概率,因此如果想查看欺诈(分类为1)的概率,可采用如下代码:# y_pred_proba[:,1] # 分类为1的概率# 下面我们利用4.3节相关代码绘制ROC曲线来评估模型预测的效果:from sklearn.metrics import roc_curvefpr, tpr, thres = roc_curve(y_test, y_pred_proba[:,1])import matplotlib.pyplot as pltplt.plot(fpr, tpr)plt.show()

# 通过如下代码求出模型的AUC值:from sklearn.metrics import roc_auc_scorescore = roc_auc_score(y_test, y_pred_proba[:,1])score

# 我们可以通过查看各个特征的特征重要性(feature importance)来得出信用卡欺诈行为判断中最重要的特征变量:clf.feature_importances_

# 通过如下5.2.2节特征重要性相关知识点进行整理,方便结果呈现,代码如下:features = X.columns # 获取特征名称importances = clf.feature_importances_ # 获取特征重要性# 通过二维表格形式显示importances_df = pd.DataFrame()importances_df['特征名称'] = featuresimportances_df['特征重要性'] = importancesimportances_df.sort_values('特征重要性', ascending=False)

模型参数调优

from sklearn.model_selection import GridSearchCV parameters = {'max_depth': [1, 3, 5], 'n_estimators': [50, 100, 150], 'learning_rate': [0.01, 0.05, 0.1, 0.2]} # 指定模型中参数的范围clf = XGBClassifier() # 构建模型grid_search = GridSearchCV(clf, parameters, scoring='roc_auc', cv=5) # 下面我们将数据传入网格搜索模型并输出参数最优值:grid_search.fit(X_train, y_train) # 传入数据grid_search.best_params_ # 输出参数的最优值

# 下面我们根据新的参数建模,首先重新搭建XGBoost分类器,并将训练集数据传入其中:clf = XGBClassifier(max_depth=1, n_estimators=100, learning_rate=0.05)clf.fit(X_train, y_train)# 因为我们是通过ROC曲线的AUC评分作为模型评价准则来进行参数调优的,因此通过如下代码我们来查看新的AUC值:y_pred_proba = clf.predict_proba(X_test)from sklearn.metrics import roc_auc_scorescore = roc_auc_score(y_test, y_pred_proba[:,1])print(score)

本内容不代表本网观点和政治立场,如有侵犯你的权益请联系我们处理。
网友评论
网友评论仅供其表达个人看法,并不表明网站立场。