xpy

生成163邮箱

让人想犯罪 __ 提交于 2020-12-26 01:15:36
file.txt: 1GmSluQ owhMb7k QD8wStm o1ASe8x muPoYv9 7vUqAIX 26OEwAz imSVgHR p08TrGf dIL9Xpy JfM49gr CXgny8Q GaRPvXS blNvmrp zrID2Wh zWmfP1c bPw6yYU PnDTMac idlDgHC lLO6Bev egl7Hnx G1bacTQ xi7GOlt fgeqYbP WATwhPG dbQM9uV HJqZeh4 nU6Q3bk et6Odij xZ93fv7 6Xkn4iv Fjhdszu q4oZcWn o58MZB6 1DvVOc8 2Inx0lc XYROn5W e7nKGgp BcrGSJR ET9uAdz IxcSKZ8 3VcdoJ9 VBYNhKt 1DkAnaG w6WarX1 82Vgt0m eMrQhUA uxNwTZm Im2KefJ aVkexK2 7LPOphv eLF93DE 9VG7IXy Xq5mURw rO7R526 dcOt9uo fMsaDyW 5epdhwA ARKnFWc Re3V9qd hK9pXto TWwzyta c4umDOo n27Khmz GCQuW5w KWPcNdC xv9Tz2L l6ou8y7 KItcVba xqFVz9H 5CS1R0s 9XyaPQ0 uzsXafg

CS231n课程笔记翻译:反向传播笔记

江枫思渺然 提交于 2020-04-09 09:52:12
译者注:本文 智能单元首发 ,译自斯坦福CS231n课程笔记Backprop Note,课程教师Andrej Karpathy授权翻译。本篇教程由杜客翻译完成,堃堃和巩子嘉进行校对修改。译文含公式和代码,建议PC端阅读。 原文连接 https://zhuanlan.zhihu.com/p/21407711?refer=intelligentunit 原文如下: 简介 目标 :本节将帮助读者对反向传播形成直观而专业的理解。反向传播是利用链式法则递归计算表达式的梯度的方法。理解反向传播过程及其精妙之处,对于理解、实现、设计和调试神经网络非常关键。 问题陈述 :这节的核心问题是:给定函数f(x) ,其中x是输入数据的向量,需要计算函数f关于x的梯度,也就是▽f(x)。 目标 :之所以关注上述问题,是因为在神经网络中f对应的是损失函数(L),输入x里面包含训练数据和神经网络的权重。举个例子,损失函数可以是SVM的损失函数,输入则包含了训练数据(x_i,y_i),i=1…N、权重W和偏差b。注意训练集是给定的(在机器学习中通常都是这样),而权重是可以控制的变量。因此,即使能用反向传播计算输入数据x_i 上的梯度,但在实践为了进行参数更新,通常也只计算参数(比如W,b)的梯度。然而x_i 的梯度有时仍然是有用的:比如将神经网络所做的事情可视化便于直观理解的时候,就能用上。