neuron

大白话5分钟带你走进人工智能-第39节神经网络之DNN网络的layer功能实现

∥☆過路亽.° 提交于 2020-08-05 00:17:17
目录 一、背景前言 二、DNN概述 三、手写DNN实现逻辑 四、调用Tensorflow代码构建DNN 五、模型保存和使用 六、提升准确率方案 七、引申和总结--零初始化,梯度消失和反向传播 一、背景前言 我们先看下SoftMax的代码: #!/usr/bin/python # -*- coding: UTF-8 -*- # 文件名: 12_Softmax_regression.py from examples.tutorials.mnist import input_data import tensorflow as tf # mn.SOURCE_URL = "http://yann.lecun.com/exdb/mnist/" my_mnist = input_data.read_data_sets("MNIST_data/", one_hot=True)#从本地路径加载进来 # The MNIST data is split into three parts: # 55,000 data points of training data (mnist.train)#训练集图片 # 10,000 points of test data (mnist.test), and#测试集图片 # 5,000 points of validation data (mnist

类脑丨我们如何控制自己的身体?

白昼怎懂夜的黑 提交于 2020-08-04 18:07:28
撰文丨米·戈(中国科学院大学博士研究生) 编辑丨qingning 排版丨夏獭 作者语 大脑这个结构精妙又交错纵横的器官一直以来是研究者们关心的研究对象,通过研究让我们的大脑来理解大脑,这一旅程想必十分有趣。而随着神经科学研究的不断深入,与之并行的是类脑科学的日新月异,除了想办法理解脑,研究者们还致力于如何模拟脑。为了向读者介绍如何从类脑科学的角度出发来理解大脑的工作机制,笔者计划通过“类脑”专栏和读者一起感受大脑的“机械”之美。 封面:19世纪机械娃娃工艺品草图 得益于当时工匠的奇技淫巧,勒内·笛卡尔(René Descartes)在1662年出版的L’homme《论人》中描写了这样一段经历:他在青年时期曾在以机械雕像闻名的圣杰曼·昂·雷(Saint-Germain-en-Laye)皇家花园散步,在园中看到一个栩栩如生的机器人跟他打招呼。仔细追问之下,工匠给他展示了机器人的内部结构。这个机器人由液压控制,打开对应的阀门,就会有水注入,让机器人做出相应的动作。 机械剧场 由亚历山大的Hero发明,该图片收录在其编写的Hero's Pneumatics的意大利译本中。 这个事件启发了 笛卡尔 ,他认为“通过物质过程来解释生命是有可能的”。基于这个观点,他提出了动物精气理论,认为动物没有心灵,其行为用机器原理就可以解释。动物体内能产生一种叫做“动物精气”(Animal

FM脑科学新闻 | 脑水肿与脑脊液流入有关;活细胞来当工程师,自制衣服变属性

纵然是瞬间 提交于 2020-07-27 23:05:19
音频链接请戳下面的链接~ FM脑科学新闻丨运动学习新框架;发育中的噪声也会造成个体差异 ​ mp.weixin.qq.com 导读:胡巴,皮皮佳,lhx,啊哈 责编:Effie Liu 主播:Soma 背景音乐:good mornin-ameba 排版:小箱子 Science / 脑水肿与脑脊液流入有关 每年都有数以万计的人因为脑卒中(中风)而丧生,而中风后脑水肿的变化能够预测最终中风损伤的严重程度,然而现在对于脑水肿如何形成及缓解认识尚不全面导致临床干预手段也十分有限。脑水肿,顾名思义即脑中由于液体流入导致的肿胀,经典的观点认为该肿胀罪魁祸首要数血液,然而Mestre等人却发现这个锅也可以让脑脊液来背。在脑卒中刚刚发生之后,缺血导致的扩散式去极化(spreading depolarization,也称“大脑风暴”,一种不可逆的电化学能量散失)引起血管收缩,腾出空间进而导致大量脑脊液反常地涌入大脑形成肿胀,压迫周围组织神经加速病情恶化。该工作提示靶向脑脊液内流相关分子也可能是脑卒中治疗的备选方案。看来脑脊液流动不仅能够参与神经退行性病变与睡眠过程中垃圾清除保护大脑,也能够参与引起脑水肿损伤大脑。(导读:胡巴) 原文链接: https:// science.sciencemag.org/ content/367/6483/eaax717 图片来源: https:// science

[综述]Deep Compression/Acceleration深度压缩/加速/量化

筅森魡賤 提交于 2020-05-06 01:34:04
Survey Recent Advances in Efficient Computation of Deep Convolutional Neural Networks , [arxiv '18] A Survey of Model Compression and Acceleration for Deep Neural Networks [arXiv '17] Quantization The ZipML Framework for Training Models with End-to-End Low Precision: The Cans, the Cannots, and a Little Bit of Deep Learning [ICML'17] Compressing Deep Convolutional Networks using Vector Quantization [arXiv'14] Quantized Convolutional Neural Networks for Mobile Devices [CVPR '16] Fixed-Point Performance Analysis of Recurrent Neural Networks [ICASSP'16] Quantized Neural Networks: Training Neural

机器学习基础---神经网络(属于逻辑回归)(构建假设函数)

爷,独闯天下 提交于 2020-05-03 14:51:47
一:为什么需要神经网络 (一)案例 为了很好的拟合数据,我们需要保留较多的相关参数,虽然可以使用正则化进行优化。但是 无论是线性回归还是逻辑回归都有这样一个缺点,即:当特征太多时,计算的负荷会非常大。 之前我们已经看到过,使用非线性的多项式项,能够帮助我们建立更好的分类模型。假设我们有非常多的特征,例如大于 100 个变量。 我们希望用这 100 个特征来构建一个非线性的多项式模型,结果将是数量非常惊人的特征组合,即便我们只采用两两特征的组合: 我们也会有接近 5000 个组合而成的特征。 这对于一般的逻辑回归来说需要计算的特征太多了。所以,当特征个数n很大时(许多实际的机器学习问题特征都是很大的),将这些高阶多项式项数包含到特征里面,会导致特征空间急剧膨胀。 (二)案例二:计算机视觉 假设我们希望训练一个模型来识别视觉对象(例如识别一张图片上是否是一辆汽车),我们怎样才能这么做呢? 假设使用机器学习算法, 来训练一个分类器,使它检测一个图像,来判断图像是否为一辆汽车。 我们取出这幅图片中的一小部分,将其放大: 当人眼看到一辆汽车时,计算机实际上看到的却是这个: 一个数据矩阵,表示了像素强度值 因此,对于计算机视觉来说问题就变成了:根据这个像素点亮度矩阵,来告诉我们,这些数值代表一个汽车门把手。 具体而言,当用机器学习算法构造一个汽车识别器时, 我们要做的就是提供一个带标签的样本集

发家致富靠AI:使用keras预测NBA比赛赚钱,回报率136%

六月ゝ 毕业季﹏ 提交于 2020-05-02 16:00:20
投注者和博彩者没有太多共同点——人们可以把他们的关系描述为一场竞争、决斗、战争。但在梦中,他们却为同样的幻想而垂涎三尺:一个完美的预测模型,使用它能够精确地预测出未来游戏的结果。通过深入学习,这或许是可能的——或者至少比以前的数据科学技术更容易。 基本假设是NBA市场效率低下(价格或投注线并不能反映出所有可用信息),而且可能比大多数市场效率更低,因为铁杆球迷倾向于只赌他们最喜欢的球队。如果你能对市场的低效率下赌注,你就能赚钱。我们识别低效率的方法之一是通过数据分析。 尽管许多尝试这一挑战的模型都是准确的,但大多数模型离盈利还差得很远。原因很简单:博彩公司也非常准确。即使你能达到博彩公司的准确性,你也会因为5%的投注费而失败。 图表是365net的预测线与实际的赢取百分比。一个成功的模型必须能够通过完美的回归分析预测博彩公司的微小波动。 我的模型是用带有Tensorflow的Python构建的,它分析了过去11个NBA赛季,并且在很多方面与其他的深度学习模型相似(后者经常被试图用于解决这个问题)。但是我们的模型有一个关键的区别——它使用了一个自定义的损失函数来剔除与博彩公司的相关性。我们正在挑选博彩公司错误预测获胜百分比的游戏。 去相关损失公式-这很重要!!!!!!! 源码 模型结构 我用 nba_api Python库 抓取了得分记录。数据存储在MongoDB集合中

“反向传播算法”过程及公式推导

﹥>﹥吖頭↗ 提交于 2020-04-24 06:24:41
转载自 : 《 “反向传播算法”过程及公式推导(超直观好懂的Backpropagation)》 前言 入门机器学习,阅读很多文章,都强调对于基础概念都需要好好了解。 想起当时自己刚入门深度学习的时候,当时对神经网络的“反向传播”机制不是很理解(这对理解以后的很多概念来说,很重要!!一定要搞懂!!),当时查了很多资料,花费了很多时间,感谢当时所查阅的很多资料的作者,本篇博客就网络上很多优秀的资料和我个人的理解,争取生动、简单地讲解一下 BP算法 ,希望能够帮助到大家。 定义 首先来一个 反向传播算法 的定义(转自维基百科): 反向传播 (英语: Backpropagation ,缩写为 BP )是“ 误差反向传播 ”的简称,是一种与最优化方法(如梯度下降法)结合使用的,用来训练人工神经网络的常见方法。 该方法对网络中所有权重计算损失函数的梯度。 这个梯度会反馈给最优化方法,用来更新权值以最小化损失函数。( 误差 的反向传播) 算法讲解(耐心看) 如果去问一下了解BP算法的人“ BP算法怎推导? ”,大概率得到的回答是“不就是 链式求导法则 嘛”,我觉得这种答案对于提问题的人来说没有任何帮助。BP的推导需要 链式求导 不错,但提问者往往想得到的是直观的回答,毕竟理解才是王道。直观的答案,非 图解 莫属了。 注:下图的确是反向传播算法,但不是深度学习中的backprop

Why is a bias neuron necessary for a backpropagating neural network that recognizes the XOR operator?

匿名 (未验证) 提交于 2019-12-03 02:20:02
可以将文章内容翻译成中文,广告屏蔽插件可能会导致该功能失效(如失效,请关闭广告屏蔽插件后再试): 问题: I posted a question yesterday regarding issues that I was having with my backpropagating neural network for the XOR operator. I did a little more work and realized that it may have to do with not having a bias neuron. My question is, what is the role of the bias neuron in general, and what is its role in a backpropagating neural network that recognizes the XOR operator? Is it possible to create one without a bias neuron? 回答1: It's possible to create a neural network without a bias neuron... it would work just fine, but for more information I

What is the difference between supervised learning and unsupervised learning?

匿名 (未验证) 提交于 2019-12-03 02:12:02
可以将文章内容翻译成中文,广告屏蔽插件可能会导致该功能失效(如失效,请关闭广告屏蔽插件后再试): 问题: In terms of artificial intelligence and machine learning. Can you provide a basic, easy explanation with an example? 回答1: Since you ask this very basic question, it looks like it's worth specifying what Machine Learning itself is. Machine Learning is a class of algorithms which is data-driven, i.e. unlike "normal" algorithms it is the data that "tells" what the "good answer" is. Example: a hypothetical non-machine learning algorithm for face detection in images would try to define what a face is (round skin-like-colored disk, with dark area

Neural Network Always Produces Same/Similar Outputs for Any Input

匿名 (未验证) 提交于 2019-12-03 01:27:01
可以将文章内容翻译成中文,广告屏蔽插件可能会导致该功能失效(如失效,请关闭广告屏蔽插件后再试): 问题: I have a problem where I am trying to create a neural network for Tic-Tac-Toe. However, for some reason, training the neural network causes it to produce nearly the same output for any given input. I did take a look at Artificial neural networks benchmark , but my network implementation is built for neurons with the same activation function for each neuron, i.e. no constant neurons. To make sure the problem wasn't just due to my choice of training set (1218 board states and moves generated by a genetic algorithm), I tried to train the