李宏毅ML+DL:explainable ML
explainable ML 主要是用来告诉你NN为什么会给出这样的结果,可分为两种: ①.local explanation:why does the NN think this image is a cat? ②.global explanation:what does the NN think a cat look like? 一.local explanation local explanation的主要思想就是把input看成由许多components组成,然后从原来的x中remove or modify一个component变成x’,把x’放到已经训练好的NN中,如果此时NN的结果与原来的结果(input为x时的结果)相差很大,那么就说明这个component对于NN进行判断有很大影响。 如上图所示,用一块灰色把照片某些部分遮住,如果被遮住之后的结果与之前差别很大,那么说明被遮住的这块很重要。 limitation: ①.灰色块的大小很关键,不能太大也不能太小 ②.颜色也很重要,可能换一种颜色结果就不一样了 x 1 …x N 表示每个component(它们不一定就是原始数据的每一个维度)。 y k 对x n 的偏导就表明了这个component的重要性,偏导越大,一般来说就越重要,在saliency map中就越白。 limitation: 比如说走到红色这个点的时候