神经网络

四两拨千斤!深度主动学习综述2020

只愿长相守 提交于 2021-01-20 11:25:04
点击上方 “ 机器学习与生成对抗网络 ”,关注"星标" 获取有趣、好玩的前沿干货! 推荐阅读: 弱水三千,只取你标!AL(主动学习)结合GAN如何? 本文转载自知乎,为最近新出的论文 A Survey of Deep Active Learning 中文版介绍,原文作者调研了189 篇文献综述了深度主动学习的进展。文章较长,建议先收藏再阅读。 https://zhuanlan.zhihu.com/p/218011458 论文地址: https://arxiv.org/pdf/2009.00236.pdf A bstract 主动学习试图通过标记最少量的样本使得模型的性能收益最大化。而深度学习则对数据比较贪婪,需要大量的数据供给来优化海量的参数,从而使得模型学会如何提取高质量的特征。近年来,由于互联网技术的快速发展,使得我们处在一个信息洪流的时代,我们拥有海量的未标记数据。 借此,深度学习引起了研究人员的强烈兴趣,并且得到了快速的发展。和深度学习相比,研究人员对于主动学习的研究兴趣相对较低。这主要是由于在深度学习兴起之前,传统的机器学习所需要的标注样本相对较少。因此,早期的主动学习很难体现出应有的价值。尽管深度学习已经在各个领域取得了突破性进展,但是这绝大部分的成功都要归功于现有的大量标注数据集的公开。 然而,大量高质量的标注数据集的获取需要消耗大量的人力

2021斯坦福图机器学习课程CS224W开课了,Jure Leskovec主讲

て烟熏妆下的殇ゞ 提交于 2021-01-19 12:59:50
2021 年第一个月刚刚过半,有些学校的新学期就已经开始了。 机器之心报道,作者:小舟、魔王。 图是一种强大的数据结构,可以用于建模许多真实世界的场景,图能够对样本之间的关系信息进行建模。但是真实图的数据量庞大,动辄上亿节点、而且内部拓扑结构复杂,很难将传统的图分析方法如最短路径、DFS、BFS、PageRank 等算法应用到这些任务上。因此有研究者提出将机器学习方法和图数据结合起来,即图机器学习,这逐渐成为近年来机器学习中的一股热潮,特别是图神经网络(GNN)。 此前,斯坦福大学计算机学院副教授 Jure Leskovec 等人开了一门课程——CS224W,主题是图机器学习。最近,CS224W 2021 冬季课程开课了。 课程主页: http:// web.stanford.edu/class/ cs224w/ 这门课程主要聚焦分析大量图时所面对的计算、算法和建模挑战。通过研究底层图结构及其特征,学习者可以了解机器学习技术和数据挖掘工具,从而在多种网络中有所发现。 这门课程涉及的主题包括:表征学习和图神经网络;万维网算法;基于知识图谱的推理;影响力最大化;疾病爆发检测;社交网络分析。 预备知识 学习者需要具备以下背景知识: 基础计算机科学原理知识,能够写出不错的计算机程序;熟悉基础概率论知识;熟悉基础线性代数知识。 课程会在开始的几周内概述这些背景知识。 此外

击败酷睿i9之后,有人又拿苹果M1去挑战英伟达V100了

你。 提交于 2021-01-19 12:59:37
有工程师用 M1 版 Mac Mini 训练小架构深度学习模型,结果好像还可以。 选自vanpelt,作者:Chris Van Pelt,机器之心编译,机器之心编辑部。 众所周知,大多数 Mac 产品都是生产力工具,你甚至可以用它们训练神经网络。去年 11 月推出的,搭载 M1 芯片的 Mac 更是将这种生产力水平提到了一个新的高度。 那么,如果拎出来和专业的比一下,M1 版的 Mac 在训练模型方面是个什么水平?为了解答这个疑问,最近有人将 M1 版的 Mac Mini 与 Nvidia V100 放到一起比了一下。 M1 版 Mac Mini 的售价最低是 5000 元左右。此前,国外知名硬件评测网站 anandtech 发布了对这款产品的 详细测试 ,结果显示,在 CPU 性能测试中,M1 版 Mac Mini 的单线程和多线程都很优秀。在 GPU 性能测试中,它在多个基准测试中超越了之前的 Mac 系列产品,在某些情况下还能超越独显产品。 Nvidia V100 则是专业的 AI 训练卡,单精度浮点性能达到 15 TFLOPS,双精度浮点 7.5 TFLOPS,显存带宽 900GB/s,售价高达五位数。当然,你可以选择在 Colab 上租用。 评测者是「Weights and Biases」公司的联合创始人 Chris Van Pelt。Weights and Biases

前向传播算法

穿精又带淫゛_ 提交于 2021-01-19 01:10:52
一个神经元有多个输入和一个输出,每个神经元的输入既可以是其他神经元的输出也可以是整个神经网络的输入。所谓神经网络的结构就是指的是不同的神经元之间的连接结构。 如下图所示,一个最简单的神经元结构的输出就是所有输入的加权和,而不同的输入的权重就是神经元的参数。神经网络的优化过程就是优化神经元中参数的取值的过程。 不同的神经网络结构前向传播的方式也不一样,本节介绍最简单的全链接神经网络结构的前向传播算法。之所以称之为全链接神经网络是因为相邻两层之间任意两个节点都有连接,如下图所示: 计算神经网络的前向传播结果需要三部分信息: 第一个部分是神经网络的输入,这个输入就是从实体中提取的特征向量。比如在上图中有两个输入x 1 和x 2 第二个部分为神经网络的连接结构。神经网络是由神经元构成的,神经网络的结构给出不同神经元之间输入输出的连接关系。神经网络中的神经元也可以称之为节点,通常我们使用节点来指代神经网络中的神经元。 在上图中,节点有两个输入,他们分别是x 1 和x 2 的输出。而的输出则是节点 y的输入。 最后一个部分是每个神经元中的参数。在上图中用W来表示神经元中的参数。W的上标表明了神经网络的层数,比如W(1)表示第一层节点的参数,而W (2) 表示第二层节点的参数。W的下标表明了连接节点编号, 比如W 1,2 (1) 表示连接x 1 和a 12 节点的边上的权重。如何优化每一

终极版AlphaGo,DeepMind新算法MuZero作者解读

拜拜、爱过 提交于 2021-01-18 19:38:12
MuZero是令人振奋的一大步,该算法摆脱了对游戏规则或环境动力学的知识依赖,可以自行学习环境模型并进行规划。即使如此,MuZero仍能够实现AlphaZero的全部功能——这显示出其在许多实际问题的应用可能性! 所有一切不过是统计 MuZero是一种机器学习算法,因此自然要先了解它是如何使用神经网络的。简单来说,该算法使用了AlphaGo和AlphaZero的策略网络和值网络: 策略和值的直观含义如下: 策略p(s,a)表示在状态s时所有可能的动作a分布,据此可以估计最优的动作。类比人类玩家,该策略相当于快速浏览游戏时拟采取的可能动作。 值v(s)估计在当前状态s下获胜的可能性,即通过对所有的未来可能性进行加权平均,确定当前玩家的获胜概率。 这两个网络任何一个都非常强大:只根据策略网络,能够轻易预测每一步的动作,最终得到良好结果;只依赖值网络,始终选择值最高的动作。但是,将这两个估计结合起来可以得到更好的结果。 取胜之路 与AlphaGo和AlphaZero相似,MuZero也使用蒙特卡洛树搜索方法(MCTS)汇总神经网络预测并选择适合当前环境的动作。 MCTS是一种迭代的,最佳优先的树搜索过程。最佳优先意味着搜索树的扩展依赖于搜索树的值估计。与经典方法(如广度优先或深度优先)相比,最佳优先搜索利用启发式估计(如神经网络),这使其在很大的搜索空间中也可以找到有效的解决方案。

我,大学没毕业,在OpenAI搞AI,想教教你如何提升“研究品味”

Deadly 提交于 2021-01-18 09:39:28
作者 | 蒋宝尚 编辑 | 陈大鑫 原文链接: 我,大学没毕业,在OpenAI搞AI,想教教你如何提升“研究品味” ​ mp.weixin.qq.com 在AI圈里有这么一个人,虽然大学没有毕业,但却做过谷歌大脑研究员,担任过OpenAI团队的领导人。他被人称作“怪胎”,也被人称作神童。 他的名字叫做Chris Olah。在众人眼里,他的成长树在一开始似乎长“歪”:18岁那一年,进入多伦多大学读本科,随后辍学开始研究计算机。他运气不错,在刚刚开始进行AI研究的时候,他就得到了知名学者、量子物理学家 Michael Nielsen 的指导。 2013 年,图灵奖得主 Yoshua Bengio 曾邀请他去做自己的研究生,但Chris居然拒绝了Bengio的邀请,去谷歌大脑团队做了实习生,跟随Jeff Dean研究卷积神经网络、交互媒体相关的内容。 仍然是运气不错。2015年,在 Greg Corrado 的帮助下,他转为了谷歌的正式员工。在谷歌的那段日子,发过多篇论文,带过博士生,并和贾扬清、Ian Goodfellow等顶尖研究员一起合作过。 根据谷歌学术,其h指数甚至达到了19,总引用数达到了32616,远超拥有博士学位的研究者。其中,最高引用的一篇文章,TensorFlow: Large-scale machine learning on heterogeneous

NLP中的对抗样本

我与影子孤独终老i 提交于 2021-01-17 20:50:55
自然语言处理方面的研究在近几年取得了惊人的进步,深度神经网络模型已经取代了许多传统的方法。但是,当前提出的许多自然语言处理模型并不能够反映文本的多样特征。因此,许多研究者认为应该开辟新的研究方法,特别是利用近几年较为流行的对抗样本生成和防御的相关研究方法。 使用对抗样本生成和防御的自然语言处理研究可以基本概括为以下三种:1. 用未察觉的扰动迷惑模型,并评价模型在这种情况下的表现;2. 有意的改变深度神经网络的输出;3. 检测深度神经网络是否过于敏感或过于稳定,并寻找防御攻击的方法。 Jia 和 Liang 首先考虑在深度神经网络中采用对抗样本生成(或者「对抗攻击」,两者皆可)方法完成文本处理相关任务。他们的研究在自然语言处理社区很快获得了研究方面的关注。 然而,由于图片和文本数据内在的不同,用于图像的对抗攻击方法无法直接应用与文本数据上。首先, 图像数据(例如像素值)是连续的,但文本数据是离散的 。其次, 仅仅对像素值进行微小的改变就可以造成图像数据的扰动,而且这种扰动是很难被人眼察觉的 。但是 对于文本的对抗攻击中,小的扰动很容易被察觉,但人类同样能「猜出」本来表达的意义 。因此 NLP 模型需要对可辨识的特征鲁棒,而不像视觉只需要对「不太重要」的特征鲁棒。 DeepWordBug 的深度网络攻击示例。选自 arXiv:1902.07285 与图像领域一样,有进攻就会有防御

ICLR 2021 | 美团、上交大等:鲁棒的可微分神经网络搜索DARTS-

旧街凉风 提交于 2021-01-17 14:56:53
©PaperWeekly 原创 · 作者|陆顺 学校|中科院计算所硕士 研究方向|神经网络架构搜索 注:该工作由作者在美团实习期间由初祥祥(美团 Mentor,前小米 AutoML 负责人)指导参与。 论文标题: DARTS-: Robustly Stepping out of Performance Collapse Without Indicators 论文作者: 初祥祥、王晓星、张勃、陆顺、魏晓林、严骏驰 论文链接: https://openreview.net/forum?id=KLH36ELmwIB 彩蛋: 团队正在招聘实习生,详情见 : 美团视觉智能中心实习生招聘 简介 可微分方法(DARTS)是神经网络架构搜索(NAS)中最流行的方法。现有不少方法都致力于解决性能崩塌的问题,从而提升其稳定性。RobustDARTS [1] 提出了用超网的特征根作为判别是否进入崩塌的标志,而我们在本篇工作发现了反例,即在特征根不断增大的情形下,搜索出的模型性能仍在提升。我们受 FairDARTS [2] 中跳跃连接存在不公平竞争优势的启发,使用了一个额外的跳跃链接(auxiliary skip),简单有效地提升了 DARTS 的鲁棒性,且不使用额外的超参数和指示标志。 研究动机 可微分神经网络搜索(DARTS)存在普遍的性能崩塌,现有提升方法使用了先验知识或用指示信号来判别崩塌是否发生

RL101

若如初见. 提交于 2021-01-17 10:57:32
DQN[1, 2] 是 Q-Learning 的一个扩展,可以归类为改进价值函数的参数化表示(使用神经网络来建模,而非简单的线性非线性表达),此外也更适用于“大”(或无穷)状态空间--相比与基于表格型方法,此外也简化了输入的表达形式(以 Atari game 为例)--使用连续 N 帧的 raw pixels 而非 handcrafted features(这里其实就是典型的深度学习套路了,宛如 CNN 在 ImagNet 上的屠榜)。 DQN 最早出现在 2013 年 [1],也是我手写梯度传播的年份。 DQN[2] 使用如下方法更新模型参数: 这里分为两类模型参数 Target 和 Online ,下标 i 处理的不是很合理,因为它们是独立不同步更新的,准确的来说 Online 就是标准的深度学习梯度更新,而 Target 只做周期性的拷贝 的“更新”,这也是 Q-Learning 作为 off-policy 类方法的特点。 这里以 google/dopamine 里的 DQN CartPole-v0 为例,解释其核心代码,CartPole-v0 是一个平衡类的游戏,智能体需要根据环境的 Observation 作出对应的 Action,环境给予 Reward 和新的 Observation: 截图自 https://github.com/openai/gym/wiki

微软Cortana全面升级神经网络语音,效果堪比真人发音

十年热恋 提交于 2021-01-16 23:57:38
近日,微软在全球范围内对Cortana进行了神经网络语音全面升级,升级后的Cortana更加自然流畅,语音效果堪比真人发音。 以下是Cortana不同国家、不同语言升级前后语音效果对比: Cortana音频 此次升级利用了深度神经网络技术,打破重读和语调的传统语音合成限制。 韵律预测和语音合成以同步方式执行,使输出听起来更流畅且自然。该项技术能够更流畅地将数字文本(如电子书)转换为有声读物,也可以使得与聊天机器人和语音助手的交流更加自然,且富有吸引力。 微软的神经网络语音已在全球部署,通过PC浏览器点击此处免费试用: https://speech.azure.cn/audiocontentcreation 来源: oschina 链接: https://my.oschina.net/u/4353003/blog/4906153