吴恩达

学吴恩达深度学习视频作业资料集锦

♀尐吖头ヾ 提交于 2020-04-05 14:57:06
吴恩达深度学习视频: https://www.bilibili.com/video/BV1gb411j7Bs?p=15 github课后作业: https://github.com/Kulbear/deep-learning-coursera 代码路径: Neural Networks and Deep Learning/Logistic Regression with a Neural Network mindset.ipynb https://github.com/Kulbear/deep-learning-coursera/blob/master/Neural%20Networks%20and%20Deep%20Learning/Logistic%20Regression%20with%20a%20Neural%20Network%20mindset.ipynb python库——h5py入门讲解 https://blog.csdn.net/csdn15698845876/article/details/73278120 Scipy教程 https://www.yiibai.com/scipy/ 来源: https://www.cnblogs.com/Leeny/p/12635912.html

图灵奖得主亲授!深度学习视频课程精选

為{幸葍}努か 提交于 2020-03-07 03:15:12
Read enough so you start developing intuitions and trust intuitions and go for it! 通过大量阅读来培养直觉,相信自己的直觉并大胆实践! —— Geoffrey Hinton 要说这两年最火的机器学习课程,当属吴恩达的《Machine Learning》。《Machine Learning》原本是吴恩达在斯坦福大学开授的课程,课程视频在网络上受到了学习者的广泛好评,后来还推出了专门的网课。 △Coursera平台上的Machine Learning课程 现在越来越多的人选择通过 观看视频课程 的方式来学习知识,一方面有了教师的引导会让艰涩的内容更容易理解,另一方面平时通勤、等待时的细碎时间也可以得到充分利用。 深度学习如此火热的今天,如果也能通过课程视频来学习,岂不是美哉!这可不是空想,已经有很多世界知名大学放出了学校授课的录像或讲座的视频,以造福全球对深度学习感兴趣的学习者们。今天要介绍的这个Github仓库 Deep Learning Drizzle (https://github.com/kmario23/deep-learning-drizzle)就是一个 深度学习相关课程/讲座视频的大合集 ,其中不乏 学界知名大牛的亲授课程 !目前该项目已经在Github收获了 6000+星 。

吴恩达深度学习第一课第四周作业编程题——follow实验并作出适当更正

徘徊边缘 提交于 2020-02-25 16:54:55
博主 【何宽】 分享的 【作业参考】 已经非常完善,但我直接复制完整代码在自己的虚拟机上跑还是有些小问题,针对这些问题我在此提出其中一些需要注意的地方。 <tr >标签 突然出现一部分带这种标签的代码,去查了一下发现是HTML的标签,出现在这是想说明什么我没太在意,直接跳到了下面的initialize_parameters_deep函数,结果没影响。 关于initialize_parameters_deep函数 其中在初始化W参数时有个“除以np.sqrt[layers_dims[l - 1]”的操作 (其中np.sqrt(B)函数是求B的开方) ,直接键入代码测试输出与博主的不一致。将其 改成*0.01 的操作后测试输出与博主一致。此外,还存在 缩进问题 ,即for循环中应有四行代码。综上,将该函数改为 L_model_forward函数 里面参数L=len(parameters)//2,注释里说parameters是initialize_parameters_deep()的输出,而因为该输出包含相同长度的W和b,也就是说它长度一定是2的整数倍,那为什么还要用//向下取整,而不是直接L=len(parameters)/2? 把代码中的//改成/之后,运行报错,提示: 意思是改成/之后,L就变成了浮点型,而不是整形。为了进一步验证,尝试以下输入: 按照这个道理,我把代码改成L

Coursera 吴恩达 Machine Learning 课程 week 8 quiz

蹲街弑〆低调 提交于 2020-02-21 17:47:31
完整编程作业代码 GitHub 地址: https://github.com/coco-1998-2/Andrew-NG-Machine-Learning-Coursera 100%本地运行通过,不要直接拷贝,debug有问题的时候参考下就好。若是感觉有用,别忘记Star哦~ K-means algorithm 内嵌试题: Optimization Objective: Choosing the number of K: Unsupervised Learning: 表示第i个样本属于的cluster,计算了下距离,离1最近. Motivation I: Data Compression 解析:数据数量不变,维度降低。 PCA Algorithm: How to choose K: PCA: 1.Consider the following 2D dataset: 来源: CSDN 作者: coco_1998_2 链接: https://blog.csdn.net/coco_1998_2/article/details/104373888

吴恩达深度学习第一课第二周作业编程题——follow实验并做出适当更正

▼魔方 西西 提交于 2020-02-21 06:53:00
博主 【何宽】 分享的 【优质作业】 已经非常完善了,我直接复制完整之后在自己的虚拟机上跑完全没问题,结果相同。只是对他分步演示的部分,在此提出其中一些需要注意的地方。 - 图片无法显示 plt.imshow()并不能让图片显示出来,还需要在后面加上plt.show()才会加载出那个index=25的猫的图片 - 错误提示: propagate函数中存在缩进不一致问题,将propagate函数修改成以下形式即可 def propagate(w, b, X, Y): """ 实现前向和后向传播的成本函数及其梯度。 参数: w - 权重,大小不等的数组(num_px * num_px * 3,1) b - 偏差,一个标量 X - 矩阵类型为(num_px * num_px * 3,训练数量) Y - 真正的“标签”矢量(如果非猫则为0,如果是猫则为1),矩阵维度为(1,训练数据数量) 返回: cost- 逻辑回归的负对数似然成本 dw - 相对于w的损失梯度,因此与w相同的形状 db - 相对于b的损失梯度,因此与b的形状相同 """ m = X.shape[1] #正向传播 A = sigmoid(np.dot(w.T,X) + b) #计算激活值,请参考公式2。 cost = (- 1 / m) * np.sum(Y * np.log(A) + (1 - Y) * (np.log

吴恩达机器学习-SVM-为什么theta与边界boundary垂直

╄→尐↘猪︶ㄣ 提交于 2020-02-18 14:56:20
吴恩达教授的机器学习课程,第十三章支持向量机,大间隔分类器的数学原理中,没有解释为什么theta与边界boundary垂直,当时学的时候一头雾水,在查阅一些资料之后终于该清楚了,下面的推导过程。 来源: CSDN 作者: wangyunjeff2 链接: https://blog.csdn.net/wangyunjeff2/article/details/104372542

吴恩达机器学习笔记2--回归、分类问题(未看完)

北战南征 提交于 2020-02-12 18:45:38
1、监督学习(supervised learning)又叫做回归问题 2、其实分类和回归的本质是一样的,都是对输入做出预测,其区别在于输出的类型。 分类问题:分类问题的输出是离散型变量(如: +1、-1),是一种定性输出。(预测明天天气是阴、晴还是雨) 回归问题:回归问题的输出是连续型变量,是一种定量输出。(预测明天的温度是多少度)。 来源: https://www.cnblogs.com/h694879357/p/12283714.html

吴恩达深度学习课程笔记-11

淺唱寂寞╮ 提交于 2020-02-03 00:21:48
04. 卷积神经网络 第三周 目标检测 3.1 & 3.2 分类定位和特征点检测 目标检测(detection)其实是一个非常困难的问题,一幅待检测图片中可能包含许多目标,这些目标的类别多种多样,同一类别的目标数目可能也不唯一。 可以从一个简化的问题去入手,那就是分类定位(classification with location)。这个问题只在图像分类任务上更进一步,不仅要分类,还要框出主要目标,且一张图片只有一个目标。 解决上面这个问题最直接的思路就是设定神经网络同时输出类别和位置的多个实数(\( b_x, b_y, b_h, b_w \))。 比如目标的类别有四种:行人、汽车、摩托车和背景。可以这样设置网络的输出和样本的标签:\( \begin{bmatrix} P_c \\ b_x \\ b_y \\ b_h \\ b_w \\ c_1 \\ c_2 \\ c_3 \end{bmatrix} \) \( P_c \)表示是否存在物体,如果为0后面的值都没用了;\( c_1, c_2, c_3 \) 表示类别。 有了上面的经验,可以继续想,我们想要的神经网络输出的也可以是别的东西,比如特征点(landmark)。对于人脸来说,可以是眼角或者脸颊上的一些关键点: 比如要确定64个特征点,可以这么设置网络的输出:\( \begin{bmatrix} face \\ l_{1x} \

吴恩达深度学习课程笔记-9

久未见 提交于 2020-02-01 16:26:24
04. 卷积神经网络 第一周 卷积神经网络 1.1 计算机视觉 计算机视觉方向算是深度学习领域发展最快的方向之一,出现了大量富有创造性的工作。 而面对图片处理,首先出现的问题就是数据量巨大,一个1000×1000的RGB图片直接输入神经网络将有1百万的特征,网络的参数也将非常庞大,对于训练、设备内存都是巨大的挑战,所以不能这么干,卷积网络应运而生。 1.2 & 1.3 边缘检测 边缘检测是计算机视觉里一个基本问题,传统的做法是依靠各种手工设计的边缘检测算子,通过与图片进行卷积来检测边缘。 有各种各样的边缘检测算子,哪一种最合适其实众说纷纭。深度学习的观点是,这些卷积核的参数不要再手工设计了,而是当作参数让网络去学习。 1.4 & 1.5 & 1.6 卷积 机器学习中的卷积其实和数学或信号处理中的卷积定义不同,这里的卷积其实应该算是互相关。 卷积之后的图像大小计算公式: \( \lfloor \frac{n + 2p - f}{s} + 1 \rfloor \times \lfloor \frac{n + 2p - f}{s} + 1 \rfloor \) 其中卷积核大小(kernel size)或者滤波器(filter)大小 \( f \) 一般为奇数,填充大小(padding)\( p \) 取决于选择的卷积类型: Valid 卷积:不加填充。卷积之后图像越来越小。 Same

吴恩达深度学习课程笔记-8

﹥>﹥吖頭↗ 提交于 2020-02-01 00:11:10
03. 结构化机器学习项目 第二周 机器学习策略(二) 2.1 误差分析 前面提到,对于模型错误率高于人类错误率的,可以采取误差分析等方法改进。比如,将分类模型分类错误的样本拎出来看看,找找主要原因,找找提升空间更大的改进方向,而不是自己瞎猜盲干。 吴恩达老师给出的方法:抽取一部分模型出错的样本,比如100个,挨个查看分析原因,列一个表格统计不同原因下的样本数。 图像 原因1 原因2 ... 备注 1 √ ... 2 √ 3 √ √ ... 百分比 可以在逐个查看的过程中添加新的原因。显然,那些占百分比更高的原因有着更大的提升空间。 2.2 数据标注错误 在上面误差分析的过程中可能会发现一些标签错误的样本,如何处理? 深度学习方法对于训练集中的随机错误标签具有非常高的鲁棒性,尤其在训练样本很多的时候,这部分错误标签产生的影响微乎其微;而系统错误,比如所有的白狗都被标记为猫,产生的影响不可忽略; 对于验证集中的错误标签,可以在前面那个表格中增加一列进行统计,判断错误标签是否对模型准确率产生了较大的影响,如果是,那就要花时间纠正这些错误,否则没必要; 注意,验证集和测试集要采取同样的处理方法,确保有相同的分布; 2.3 快速搭建一个系统 如果是从头开始一个项目,不要先考虑太多问题,不要先考虑太多改进措施,先快速搭建一个系统,开始迭代,根据结果再采取误差分析