Shap解释Transformer回归模型并且基于shap库对Transformer模型(pytorch搭建)进行解释,绘制变量重要性汇总图、自变量重要性、瀑布图、热图等等
因为是回归模型,和分类模型没什么区别,只是需要修改一下loss的计算方式,所以只用到了Transformer的Encoder模块,使用了4层encoder和1层全连接网络的结果,没有用embedding,因为自变量本身就有15个维度,而且全是数值,相当于自带embedding
代码架构说明:
第一步:数据处理
数据是从nhanes数据库中下载的,自变量有15个,因变量1个,每个样本看成维度为15的单词即可,建模前进行了归一化处理
第二步:构建transformer模型,包括4层encoder层和1层全连接层
第三步:评估模型,计算测试集的recall、f1、kappa、pre等
第四步:shap解释,用kernel解释器(适用于任意机器学习模型)对transformer模型进行解释,并且分别绘制自变量重要性汇总图、自变量重要性柱状图、单个变量的依赖图、单个变量的力图、单个样本的决策图、多个样本的决策图、热图、单个样本的解释图等8类图片
代码注释详细,逻辑简单,有python基础就可以看懂,包括原始数据、源代码、详细的说明文档和运行结果图,下载后先看说明文档,可一键运行出图,可以替换为自己的数据,可以进行简单的
ID:33150
详询客服 微信shujuqudong1 或shujuqudong6 或 qq68823886 或 27699885
图文详情请查看: http://matup.cn/867597021700.html