我们首先介绍一下一个比较简单的机器学习模型,其在设计之初就已经有了比较好的可 解释性,这个模型就是决策树模型。决策树相较于线性的模型,它是更强大的模型。而决策树 的另外一个好处,相较于深度学习它具有良好的可解释性。比如从决策树的结构,我们就可以 知道模型是凭借着什么样的规则来做出最终的判断。所以我们希望从决策树模型进行可解释 性的研究,再扩展到其他机器学习模型,甚至深度模型。

        我们首先简单介绍一下决策树,它有很多的节点,那每一个节点都会问一个问题,让你决 定向左还是向右。最终当你走到节点的末尾,即叶子节点的时候,就可以做出最终的决定。因 为在每一个节点都有一个问题,我们看那些问题以及答案就可以知道现在整个模型凭借着什 么样的特征如何做出最终的决断。所以从这个角度看来,决策树它既强大又有良好的可解释 性。那我们是不是就可以用决策树来解决所有的问题呢?其实不是的,它是一个树状的结构, 那我们可以想像一下,如果特征非常地多,得到决策树就会非常地复杂,就很难去解释它了。 因为其节点太多而且很难分析得到整个模型的规则。所以复杂的决策树也有可能是一个黑盒 子,它也有可能是一个非常地复杂的模型,所以我们也不能够一味地去使用决策树。

        另外一方面,我们是怎么实际使用决策树这个技术的呢?很多同学都会说,这个打Kaggle 比赛的时候,深度学习不是最好用的,决策树才是最好用的,决策树才是Kaggle比赛的常胜 将军。但是其实当你在使用决策树的时候,并不是只用一棵决策树,你真正用的技术叫做随 机森林。真正用的技术其实是好多棵决策树共同决定的结果。一棵决策树可以凭借着每一个 节点的问题和答案知道它是怎么做出最终的判断的,但当你有一片森林的时候,你就很难知 道说这一片森林是怎么做出最终的判断的。所以决策树也不是最终的答案,并不是有决策树, 我们就解决了可解释性机器学习的问题。

点赞(0) 打赏

评论列表 共有 0 条评论

暂无评论

微信公众账号

微信扫一扫加关注

发表
评论
返回
顶部