【SHAP解释运用】基于python的树模型特征选择+随机森林回归预测+SHAP解释预测
1.导入必要的库
import pandas as pd import numpy as np import matplotlib.pyplot as plt import seaborn as sns from sklearn.model_selection import train_test_split from sklearn.ensemble import RandomForestRegressor from sklearn.tree import export_graphviz #from sklearn.inspection import plot_partial_dependence from sklearn.metrics import mean_squared_error import shap import warnings
2.设置忽略警告与显示字体、负号
warnings.filterwarnings("ignore") # 设置Matplotlib的字体属性 plt.rcParams['font.sans-serif'] = ['SimHei'] # 用于中文显示,你可以更改为其他支持中文的字体 plt.rcParams['axes.unicode_minus'] = False # 用来正常显示负号
3.导入数据集
3.1加载数据
# 1. 加载数据 df = pd.read_excel('train.xlsx') X = df.iloc[:, :-1] # 特征 y = df.iloc[:, -1] # 标签
3.2查看数据分布
1.箱线图
plt.figure(figsize=(30, 6)) sns.boxplot(data=df) plt.title('Box Plots of Dataset Features', fontsize=40, color='black') # 如果需要设置坐标轴标签的字体大小和颜色 plt.xlabel('X-axis Label', fontsize=20, color='red') # 设置x轴标签的字体大小和颜色 plt.ylabel('Y-axis Label', fontsize=20, color='green') # 设置y轴标签的字体大小和颜色 # 还可以调整刻度线的长度、宽度等属性 plt.tick_params(axis='x', labelsize=20, colors='blue', length=5, width=1) # 设置x轴刻度线、刻度标签的更多属性 plt.tick_params(axis='y', labelsize=20, colors='deepskyblue', length=5, width=1) # 设置y轴刻度线、刻度标签的更多属性 plt.xticks(rotation=45) # 如果特征名很长,可以旋转x轴标签 plt.show()
结果如图3-1所示:
图3-1
结果图实在丑陋,这是由数据分布不均衡造成的,这里重点不是数据清洗,就这样凑着用吧。
2.分布图
# 注意:distplot 在 seaborn 0.11.0+ 中已被移除 # 你可以分别使用 histplot 和 kdeplot plt.figure(figsize=(50, 10)) for i, feature in enumerate(df.columns, 1): plt.subplot(1, len(df.columns), i) sns.histplot(df[feature], kde=True, bins=30, label=feature,color='blue') plt.title(f'QQ plot of {feature}', fontsize=40, color='black') # 如果需要设置坐标轴标签的字体大小和颜色 plt.xlabel('X-axis Label', fontsize=35, color='red') # 设置x轴标签的字体大小和颜色 plt.ylabel('Y-axis Label', fontsize=40, color='green') # 设置y轴标签的字体大小和颜色 # 还可以调整刻度线的长度、宽度等属性 plt.tick_params(axis='x', labelsize=40, colors='blue', length=5, width=1) # 设置x轴刻度线、刻度标签的更多属性 plt.tick_params(axis='y', labelsize=40, colors='deepskyblue', length=5, width=1) # 设置y轴刻度线、刻度标签的更多属性 plt.tight_layout() plt.show()
结果如图3-2所示:
图3-2
3.QQ图
from scipy import stats plt.figure(figsize=(50, 10)) for i, feature in enumerate(df.columns, 1): plt.subplot(1, len(df.columns), i) stats.probplot(df[feature], dist="norm", plot=plt) plt.title(f'QQ plot of {feature}', fontsize=40, color='black') # 如果需要设置坐标轴标签的字体大小和颜色 plt.xlabel('X-axis Label', fontsize=35, color='red') # 设置x轴标签的字体大小和颜色 plt.ylabel('Y-axis Label', fontsize=40, color='green') # 设置y轴标签的字体大小和颜色 # 还可以调整刻度线的长度、宽度等属性 plt.tick_params(axis='x', labelsize=40, colors='blue', length=5, width=1) # 设置x轴刻度线、刻度标签的更多属性 plt.tick_params(axis='y', labelsize=40, colors='deepskyblue', length=5, width=1) # 设置y轴刻度线、刻度标签的更多属性 plt.tight_layout() plt.show()
结果如图3-3所示:
图3-3
4.树模型特征选择
# 4. 特征选择(使用随机森林的特征重要性) rf = RandomForestRegressor(n_estimators=100, random_state=42) rf.fit(X_scaled, y) importances = rf.feature_importances_ indices = np.argsort(importances)[::-1] # 可视化特征重要性 plt.figure(figsize=(10,7)) plt.title("Feature importances") plt.bar(range(X.shape[1]), importances[indices],align="center", color='cyan') plt.xticks(range(X.shape[1]), [X.columns[i] for i in indices], rotation='vertical') plt.xlim([-1, X.shape[1]]) plt.show()
特征重要性比较如图4-1所示:
图4-1
5.随机森林回归预测
# 划分训练集和测试集 X_train, X_test, y_train, y_test = train_test_split(X_scaled, y, test_size=0.2, random_state=42) # 随机森林回归预测 rf_final = RandomForestRegressor(n_estimators=100, random_state=42) rf_final.fit(X_train, y_train) y_pred = rf_final.predict(X_test) mse = mean_squared_error(y_test, y_pred) print(f"Mean Squared Error: {mse}") # 预测结果输出与比对 plt.figure() plt.plot(np.arange(21), y_test[:100], "go-", label="True value") plt.plot(np.arange(21), y_pred[:100], "ro-", label="Predict value") plt.title("True value And Predict value") plt.legend() plt.show()
预测结果如图5-1所示:
图5-1
由图5-1结合这里的误差Mean Squared Error: 16.092619015714185,说明预测效果很一般,不过本身数据集没有经过清洗,数据分布不合理,有这样的结果也能接受。我一般使用matlab进行数据清晰和标准化,matlab暂时打不开,先搁置,后面我会出数据标准化的文章。
5.SHAP库解释预测
5.1shap库下载安装
这里的shap库我已经下载安装过了,没有下载安装的在pycharm终端、Anaconda Promt终端等等执行命令进行下载安装,最好带上清华镜像源,在网络信号不好时也能顺利安装且节省时间。
pip install -i https://pypi.tuna.tsinghua.edu.cn/simple shap
5.2waterfall
shap.plots.waterfall(shap_values[0]) # For the first observation
结果如图5-1所示:
图5-1
5.3forceplot
#相互作用图 force_plot1 = shap.force_plot(explainer.expected_value, np.mean(shap_values, axis=0), np.mean(X_test, axis=0),feature_label,matplotlib=True, show=False) shap_interaction_values = explainer.shap_interaction_values(X_test) shap.summary_plot(shap_interaction_values,X_test)
结果如图5-2所示:
图5-2
5.4特征影响图
shap.plots.force(explainer.expected_value,shap_values.values,shap_values.data)
结果如图5-3所示:
图5-3
5.5特征密度散点图:summary_plot/beeswarm
5.5.1summary_plot
# 创建SHAP解释器 explainer = shap.TreeExplainer(rf) # 计算SHAP值 shap_values = explainer.shap_values(X_test) #特征标签 feature_label=['feature1','feature2','feature3','feature4','feature5','feature6','feature7'] plt.rcParams['font.family'] = 'serif' plt.rcParams['font.serif'] = 'Times New Roman' plt.rcParams['font.size'] = 13 # 设置字体大小为14 # 现在创建 SHAP 可视化 #配色 viridis Spectral coolwarm RdYlGn RdYlBu RdBu RdGy PuOr BrBG PRGn PiYG shap.summary_plot(shap_values, X_test,feature_names=feature_label) #粉红色点:表示该特征值在这个观察中对模型预测产生了正面影响(增加预测值) #蓝色点:表示该特征值在这个观察中对模型预测产生了负面影响(降低预测值) #水平轴(SHAP 值)显示了影响的大小。点越远离中心线(零点),该特征对模型输出的影响越大 #图中垂直排列的特征按影响力从上到下排序。上方的特征对模型输出的总体影响更大,而下方的特征影响较小。 # 最上方的特征显示了大量的正面和负面影响,表明它在不同的观察值中对模型预测的结果有很大的不同影响。 # 中部的特征也显示出两种颜色的点,但点的分布更集中,影响相对较小。 # 底部的特征对模型的影响最小,且大部分影响较为接近零,表示这些特征对模型预测的贡献较小
结果如图5-4所示:
图5-4
# 创建SHAP解释器 explainer = shap.TreeExplainer(rf) # 计算SHAP值 shap_values = explainer.shap_values(X_test) #特征标签 feature_label=['feature1','feature2','feature3','feature4','feature5','feature6','feature7'] plt.rcParams['font.family'] = 'serif' plt.rcParams['font.serif'] = 'Times New Roman' plt.rcParams['font.size'] = 13 # 设置字体大小为14 # 现在创建 SHAP 可视化 #配色 viridis Spectral coolwarm RdYlGn RdYlBu RdBu RdGy PuOr BrBG PRGn PiYG shap.summary_plot(shap_values,X_test,feature_names=feature_label,cmap='Spectral')
使颜色丰富些如图5-5所示:
图5-5
5.5.2beeswarm
# summarize the effects of all the features # 样本决策图 shap.initjs() shap_values = explainer(X_test) expected_value = explainer.expected_value shap.plots.beeswarm(shap_values)
结果如图5-6所示:
图5-6
5.6特征重要性SHAP值
shap.summary_plot(shap_values,X_test,feature_names=feature_label,plot_type='bar') #主要表示绝对重要值的大小,把SHAP value 的样本取了绝对平均值
或者:
shap.plots.bar(shap_values)
结果如图5-7、图5-8所示,本质都是一样的:
图5-7
图5-8
5.7聚类热力图:heatmap plot
#热图 shap.initjs() shap_values = explainer(X_test) shap.plots.heatmap(shap_values)
结果如图5-9所示:
图5-9
5.7层次聚类shap值
# 层次聚类 + SHAP值 clust = shap.utils.hclust(X, y, linkage="single") shap.plots.bar(shap_values, clustering=clust, clustering_cutoff=1)
结果如图5-10所示:
图5-10
5.8决策图
# 样本决策图 shap.initjs() shap_values = explainer.shap_values(X_test) expected_value = explainer.expected_value shap.decision_plot(expected_value, shap_values,feature_label)
结果如图5-11所示:
图5-11
变形1:由数值 -> 概率
# 样本决策图 shap.initjs() shap_values = explainer.shap_values(X_test) expected_value = explainer.expected_value feature_label=['feature1','feature2','feature3','feature4','feature5','feature6','feature7'] shap.decision_plot(expected_value, shap_values, feature_label, link='logit')
结果如图5-12所示:
图5-12
变形2:高亮某个样本线highlight
shap.decision_plot(expected_value, shap_values, feature_label, highlight=12)
结果如图5-13所示:
图5-13
5.9特征依赖图:dependence_plot
5.9.1单个特征依赖
shap.dependence_plot('feature1', shap_values,X_test, interaction_index=None)
结果如图5.14所示:
图5-14
5.9.2相互依赖图
shap.dependence_plot('feature3', shap_values,X_test, interaction_index='feature4')
结果如图5-15所示:
图5-15
5.10相互作用图:summary_plot
shap.summary_plot(shap_interaction_values,X_test)
结果如图5-16所示:
图5-16
具体的每种解释图的含义可以搜寻以下参考文章:
代码借鉴:http://t.csdnimg.cn/6JWrj
理论借鉴
http://t.csdnimg.cn/6JWrj
http://t.csdnimg.cn/H9X0B
http://t.csdnimg.cn/zvtA8
http://t.csdnimg.cn/nygl6
http://t.csdnimg.cn/zyHy0
http://t.csdnimg.cn/rTPw2