【SHAP解释运用】基于python的树模型特征选择+随机森林回归预测+SHAP解释预测

07-17 826阅读

1.导入必要的库

import pandas as pd  
import numpy as np  
import matplotlib.pyplot as plt  
import seaborn as sns  
from sklearn.model_selection import train_test_split  
from sklearn.ensemble import RandomForestRegressor  
from sklearn.tree import export_graphviz  
#from sklearn.inspection import plot_partial_dependence   
from sklearn.metrics import mean_squared_error  
import shap  
import warnings  

2.设置忽略警告与显示字体、负号

warnings.filterwarnings("ignore")  
  
# 设置Matplotlib的字体属性  
plt.rcParams['font.sans-serif'] = ['SimHei']  # 用于中文显示,你可以更改为其他支持中文的字体  
plt.rcParams['axes.unicode_minus'] = False  # 用来正常显示负号 

3.导入数据集

3.1加载数据

# 1. 加载数据  
df = pd.read_excel('train.xlsx')  
X = df.iloc[:, :-1]  # 特征  
y = df.iloc[:, -1]   # 标签  

3.2查看数据分布

1.箱线图

plt.figure(figsize=(30, 6))  
sns.boxplot(data=df)  
plt.title('Box Plots of Dataset Features', fontsize=40, color='black')  
# 如果需要设置坐标轴标签的字体大小和颜色  
plt.xlabel('X-axis Label', fontsize=20, color='red')  # 设置x轴标签的字体大小和颜色  
plt.ylabel('Y-axis Label', fontsize=20, color='green')  # 设置y轴标签的字体大小和颜色  
  
# 还可以调整刻度线的长度、宽度等属性  
plt.tick_params(axis='x', labelsize=20, colors='blue', length=5, width=1)  # 设置x轴刻度线、刻度标签的更多属性  
plt.tick_params(axis='y', labelsize=20, colors='deepskyblue', length=5, width=1)  # 设置y轴刻度线、刻度标签的更多属性    
plt.xticks(rotation=45)  # 如果特征名很长,可以旋转x轴标签  
plt.show()

        结果如图3-1所示:

【SHAP解释运用】基于python的树模型特征选择+随机森林回归预测+SHAP解释预测

图3-1

        结果图实在丑陋,这是由数据分布不均衡造成的,这里重点不是数据清洗,就这样凑着用吧。

2.分布图

# 注意:distplot 在 seaborn 0.11.0+ 中已被移除  
# 你可以分别使用 histplot 和 kdeplot  
  
plt.figure(figsize=(50, 10))  
for i, feature in enumerate(df.columns, 1):  
    plt.subplot(1, len(df.columns), i)  
    sns.histplot(df[feature], kde=True, bins=30, label=feature,color='blue') 
    plt.title(f'QQ plot of {feature}', fontsize=40, color='black')  
    # 如果需要设置坐标轴标签的字体大小和颜色  
    plt.xlabel('X-axis Label', fontsize=35, color='red')  # 设置x轴标签的字体大小和颜色  
    plt.ylabel('Y-axis Label', fontsize=40, color='green')  # 设置y轴标签的字体大小和颜色  
  
    # 还可以调整刻度线的长度、宽度等属性  
    plt.tick_params(axis='x', labelsize=40, colors='blue', length=5, width=1)  # 设置x轴刻度线、刻度标签的更多属性  
    plt.tick_params(axis='y', labelsize=40, colors='deepskyblue', length=5, width=1)  # 设置y轴刻度线、刻度标签的更多属性 
plt.tight_layout()  
plt.show()

        结果如图3-2所示:

【SHAP解释运用】基于python的树模型特征选择+随机森林回归预测+SHAP解释预测

图3-2

3.QQ图

from scipy import stats
plt.figure(figsize=(50, 10))  
for i, feature in enumerate(df.columns, 1):  
    plt.subplot(1, len(df.columns), i)  
    stats.probplot(df[feature], dist="norm", plot=plt)  
    plt.title(f'QQ plot of {feature}', fontsize=40, color='black')  
    # 如果需要设置坐标轴标签的字体大小和颜色  
    plt.xlabel('X-axis Label', fontsize=35, color='red')  # 设置x轴标签的字体大小和颜色  
    plt.ylabel('Y-axis Label', fontsize=40, color='green')  # 设置y轴标签的字体大小和颜色  
  
    # 还可以调整刻度线的长度、宽度等属性  
    plt.tick_params(axis='x', labelsize=40, colors='blue', length=5, width=1)  # 设置x轴刻度线、刻度标签的更多属性  
    plt.tick_params(axis='y', labelsize=40, colors='deepskyblue', length=5, width=1)  # 设置y轴刻度线、刻度标签的更多属性   
plt.tight_layout()  
plt.show()

        结果如图3-3所示:

【SHAP解释运用】基于python的树模型特征选择+随机森林回归预测+SHAP解释预测

图3-3

4.树模型特征选择

# 4. 特征选择(使用随机森林的特征重要性)  
rf = RandomForestRegressor(n_estimators=100, random_state=42)  
rf.fit(X_scaled, y)  
importances = rf.feature_importances_  
indices = np.argsort(importances)[::-1]  
  
# 可视化特征重要性  
plt.figure(figsize=(10,7))  
plt.title("Feature importances")  
plt.bar(range(X.shape[1]), importances[indices],align="center", color='cyan')
plt.xticks(range(X.shape[1]), [X.columns[i] for i in indices], rotation='vertical')  
plt.xlim([-1, X.shape[1]])  
plt.show()

        特征重要性比较如图4-1所示:

【SHAP解释运用】基于python的树模型特征选择+随机森林回归预测+SHAP解释预测

图4-1

5.随机森林回归预测

# 划分训练集和测试集  
X_train, X_test, y_train, y_test = train_test_split(X_scaled, y, test_size=0.2, random_state=42)  
  
# 随机森林回归预测  
rf_final = RandomForestRegressor(n_estimators=100, random_state=42)  
rf_final.fit(X_train, y_train)  
y_pred = rf_final.predict(X_test)  
mse = mean_squared_error(y_test, y_pred)  
print(f"Mean Squared Error: {mse}")  
 
# 预测结果输出与比对
plt.figure()
plt.plot(np.arange(21), y_test[:100], "go-", label="True value")
plt.plot(np.arange(21), y_pred[:100], "ro-", label="Predict value")
plt.title("True value And Predict value")
plt.legend()
plt.show()
  

        预测结果如图5-1所示:

【SHAP解释运用】基于python的树模型特征选择+随机森林回归预测+SHAP解释预测

图5-1

        由图5-1结合这里的误差Mean Squared Error: 16.092619015714185,说明预测效果很一般,不过本身数据集没有经过清洗,数据分布不合理,有这样的结果也能接受。我一般使用matlab进行数据清晰和标准化,matlab暂时打不开,先搁置,后面我会出数据标准化的文章。

5.SHAP库解释预测

5.1shap库下载安装

        这里的shap库我已经下载安装过了,没有下载安装的在pycharm终端、Anaconda Promt终端等等执行命令进行下载安装,最好带上清华镜像源,在网络信号不好时也能顺利安装且节省时间。

pip install -i https://pypi.tuna.tsinghua.edu.cn/simple shap

5.2waterfall

shap.plots.waterfall(shap_values[0]) # For the first observation

        结果如图5-1所示:

【SHAP解释运用】基于python的树模型特征选择+随机森林回归预测+SHAP解释预测

图5-1

5.3forceplot

#相互作用图
force_plot1 = shap.force_plot(explainer.expected_value, np.mean(shap_values, axis=0), np.mean(X_test, axis=0),feature_label,matplotlib=True, show=False)
shap_interaction_values = explainer.shap_interaction_values(X_test)
shap.summary_plot(shap_interaction_values,X_test)

        结果如图5-2所示:

【SHAP解释运用】基于python的树模型特征选择+随机森林回归预测+SHAP解释预测

图5-2

5.4特征影响图

shap.plots.force(explainer.expected_value,shap_values.values,shap_values.data)

        结果如图5-3所示:

【SHAP解释运用】基于python的树模型特征选择+随机森林回归预测+SHAP解释预测

图5-3

5.5特征密度散点图:summary_plot/beeswarm

5.5.1summary_plot

# 创建SHAP解释器
explainer = shap.TreeExplainer(rf)
# 计算SHAP值
shap_values = explainer.shap_values(X_test)
#特征标签
feature_label=['feature1','feature2','feature3','feature4','feature5','feature6','feature7']
plt.rcParams['font.family'] = 'serif'
plt.rcParams['font.serif'] = 'Times New Roman'
plt.rcParams['font.size'] = 13  # 设置字体大小为14
# 现在创建 SHAP 可视化 
#配色   viridis  Spectral   coolwarm  RdYlGn  RdYlBu  RdBu  RdGy  PuOr  BrBG PRGn  PiYG 
shap.summary_plot(shap_values, X_test,feature_names=feature_label)
#粉红色点:表示该特征值在这个观察中对模型预测产生了正面影响(增加预测值)
#蓝色点:表示该特征值在这个观察中对模型预测产生了负面影响(降低预测值)
#水平轴(SHAP 值)显示了影响的大小。点越远离中心线(零点),该特征对模型输出的影响越大
#图中垂直排列的特征按影响力从上到下排序。上方的特征对模型输出的总体影响更大,而下方的特征影响较小。
# 最上方的特征显示了大量的正面和负面影响,表明它在不同的观察值中对模型预测的结果有很大的不同影响。
# 中部的特征也显示出两种颜色的点,但点的分布更集中,影响相对较小。
# 底部的特征对模型的影响最小,且大部分影响较为接近零,表示这些特征对模型预测的贡献较小

        结果如图5-4所示:

【SHAP解释运用】基于python的树模型特征选择+随机森林回归预测+SHAP解释预测

图5-4

# 创建SHAP解释器
explainer = shap.TreeExplainer(rf)
# 计算SHAP值
shap_values = explainer.shap_values(X_test)
#特征标签
feature_label=['feature1','feature2','feature3','feature4','feature5','feature6','feature7']
plt.rcParams['font.family'] = 'serif'
plt.rcParams['font.serif'] = 'Times New Roman'
plt.rcParams['font.size'] = 13  # 设置字体大小为14
# 现在创建 SHAP 可视化 
#配色   viridis  Spectral   coolwarm  RdYlGn  RdYlBu  RdBu  RdGy  PuOr  BrBG PRGn  PiYG 
shap.summary_plot(shap_values,X_test,feature_names=feature_label,cmap='Spectral')

使颜色丰富些如图5-5所示:

【SHAP解释运用】基于python的树模型特征选择+随机森林回归预测+SHAP解释预测

图5-5

5.5.2beeswarm

# summarize the effects of all the features
# 样本决策图
shap.initjs()
shap_values = explainer(X_test)
expected_value = explainer.expected_value
shap.plots.beeswarm(shap_values)

结果如图5-6所示:

【SHAP解释运用】基于python的树模型特征选择+随机森林回归预测+SHAP解释预测

图5-6

5.6特征重要性SHAP值

shap.summary_plot(shap_values,X_test,feature_names=feature_label,plot_type='bar')
#主要表示绝对重要值的大小,把SHAP value 的样本取了绝对平均值

        或者:

shap.plots.bar(shap_values)

        结果如图5-7、图5-8所示,本质都是一样的:

【SHAP解释运用】基于python的树模型特征选择+随机森林回归预测+SHAP解释预测

图5-7

【SHAP解释运用】基于python的树模型特征选择+随机森林回归预测+SHAP解释预测

图5-8

5.7聚类热力图:heatmap plot

#热图
shap.initjs()
shap_values = explainer(X_test)
shap.plots.heatmap(shap_values)

        结果如图5-9所示:

【SHAP解释运用】基于python的树模型特征选择+随机森林回归预测+SHAP解释预测

图5-9

5.7层次聚类shap值

# 层次聚类 + SHAP值
clust = shap.utils.hclust(X, y, linkage="single")
shap.plots.bar(shap_values, clustering=clust, clustering_cutoff=1)

        结果如图5-10所示:

【SHAP解释运用】基于python的树模型特征选择+随机森林回归预测+SHAP解释预测

图5-10

5.8决策图

# 样本决策图
shap.initjs()
shap_values = explainer.shap_values(X_test)
expected_value = explainer.expected_value
shap.decision_plot(expected_value, shap_values,feature_label)

        结果如图5-11所示:

【SHAP解释运用】基于python的树模型特征选择+随机森林回归预测+SHAP解释预测

图5-11

变形1:由数值 -> 概率

# 样本决策图
shap.initjs()
shap_values = explainer.shap_values(X_test)
expected_value = explainer.expected_value
feature_label=['feature1','feature2','feature3','feature4','feature5','feature6','feature7']
shap.decision_plot(expected_value, shap_values, feature_label, link='logit')

        结果如图5-12所示:

【SHAP解释运用】基于python的树模型特征选择+随机森林回归预测+SHAP解释预测

图5-12

变形2:高亮某个样本线highlight

shap.decision_plot(expected_value, shap_values, feature_label, highlight=12)

        结果如图5-13所示:

【SHAP解释运用】基于python的树模型特征选择+随机森林回归预测+SHAP解释预测

图5-13

5.9特征依赖图:dependence_plot

5.9.1单个特征依赖

shap.dependence_plot('feature1', shap_values,X_test, interaction_index=None)

        结果如图5.14所示:

【SHAP解释运用】基于python的树模型特征选择+随机森林回归预测+SHAP解释预测

图5-14

5.9.2相互依赖图

shap.dependence_plot('feature3', shap_values,X_test, interaction_index='feature4')

        结果如图5-15所示:

【SHAP解释运用】基于python的树模型特征选择+随机森林回归预测+SHAP解释预测

图5-15

5.10相互作用图:summary_plot

shap.summary_plot(shap_interaction_values,X_test)

        结果如图5-16所示:

【SHAP解释运用】基于python的树模型特征选择+随机森林回归预测+SHAP解释预测

图5-16

具体的每种解释图的含义可以搜寻以下参考文章:

代码借鉴:http://t.csdnimg.cn/6JWrj

理论借鉴   

http://t.csdnimg.cn/6JWrj

http://t.csdnimg.cn/H9X0B

http://t.csdnimg.cn/zvtA8

http://t.csdnimg.cn/nygl6

http://t.csdnimg.cn/zyHy0

http://t.csdnimg.cn/rTPw2

 

 

 

 

 

 

 

 

 

 

VPS购买请点击我

文章版权声明:除非注明,否则均为主机测评原创文章,转载或复制请以超链接形式并注明出处。

目录[+]