吴恩达第二课第二周编程实例
吴恩达第2课第2周编程习题 目标:使用mini―batch来加快学习速度;比较梯度下降,momentum,adam的效果 核心:指数加权平均值得计算及其意义,它是momentum,RMSProp,Adam算法的基石 不足:本例程没有使用学习率衰减的步骤,同时本例程只适于3层的二分法的神经网络 常记点: 1. 偏差修正时是除以 ,此处是-,t从1开始; 2. L=len(parameters) //2 ,这个L不等于网络层数,range(1,L+1)=range(1,len(layers_dims)) 3. Adam算法求s时,需要平方(np.square),便于后面分母除根号(np.sqrt) 4. np.random.permutation(m),把range(m)重排列,用于把样本打乱,每一代都要打乱一次 5. arr[:,:]:逗号前面表示行的选取,后面表示列的选取 ‘‘ ‘‘‘ 1. 2.mini-batch 3.momentum 4.Adam ‘‘‘ import import import import import import import import plt.rcParams[ ‘figure.figsize‘ plt.rcParams[ ‘image.interpolation‘ ]= ‘nearest‘ plt.rcParams[ ‘image.cmap‘