OpenAI

Robust Adversarial Examples_鲁棒的对抗样本

混江龙づ霸主 提交于 2020-12-29 17:16:48
https://blog.openai.com/robust-adversarial-inputs/?spm=a2c4e.11153940.blogcont149583.11.4ab360c0mXrtX7 原文中包含视频例子。 我们创建的图像可以在从不同的尺度和视角观察时可靠地欺骗神经网络分类器。 这挑战了上周声称自动驾驶汽车难以恶意欺骗,因为它们从多个尺度,角度,视角等捕获图像。 这张印刷在标准彩色打印机上的小猫照片让分类器误以为它是一台“显示器”或“台式电脑”,无论它是如何缩放或旋转的。 我们期望进一步的参数调整也会删除任何人类可见的伪像。 参照论文 1.Synthesizing Robust Adversarial Examples 开箱即用的对抗样本在图像转换下失败。 下面,我们展示了相同的猫图片,由ImageNet上训练的Inception v3错误地归类为台式计算机。 缩小至1.002会导致正确标签“tabby cat”虎斑猫的分类概率覆盖对抗性标签“desktop computer”台式计算机。 然而,我们怀疑积极的努力可以产生一个强大的对抗性的例子,因为已经证明对抗性的例子转移到物理世界。(参照论文 4.Adversarial examples in the physical world ) 尺度不变的对抗样本 可以使用称为 投影梯度下降(projected

脑机头条 第39期| MIT最新黑科技—3D打印柔软大脑植入物

╄→尐↘猪︶ㄣ 提交于 2020-12-10 06:30:27
点击上面"脑机接口社区"关注我们 更多脑机干货第一时间送达 2020年4月3日 脑机头条 第39期 最近麻省理工学院发布了一项黑科技--3D打印柔软大脑电极。 MIT赵选贺教授研究团队开发出一种3D打印神经探针和其他电子设备的方法,3D打印柔软大脑电极就像橡胶一样柔软灵活。研究成果已发表在Nature Communications上,题为“3D printing of conducting polymers”。 论文地址: https://www.nature.com/articles/s41467-020-15316-7 研究人员将这种类似于液体的导电聚合物溶液转化成一种更像粘性牙膏的物质,并将其放入3D打印机中,然后打印出稳定的导电图案。 图1 图2 研究人员将这些软电子设备植入小鼠的大脑中。当小鼠在一个可控的环境中自由移动时,研究人通过植入的神经探针能够捕捉到单个神经元的活动。 然后通过监测这种活动来获取更高分辨率的大脑活动图像,以此可以帮助制定治疗方案和长期大脑植入物,以应对各种神经系统疾病。 MIT博士生Hyunwoo Yuk表示:“我们希望通过演示,人们可以使用这种技术快速制造出不同的设备,可以更改设计、运行打印代码并在30分钟内生成新的设计。希望这将简化神经接口的开发,完全由软材料制成。” 导电聚合物是一种具有类似塑料的柔韧性和类似金属的电导率的材料

巨头们为什么要开源自己的技术?解析科技企业对软件开源的态度

假如想象 提交于 2020-12-10 01:35:42
今年上半年 , Google 公开了用于Big Transfer(BiT)的预训练模型和微调代码——Big Transfer是一种深度学习的计算机视觉模型。根据 Google 的说法,Big Transfer 可使 任何人在相应的任务上达到最优表现,即使每个类只有少量的标签图片。BiT仅是这家科技巨头 众多 免费开放产品 中的一个 , 其实业界大佬 发布免费 且实用的 开源软件科技界 中并不罕见 , 那 大型科技公司 为什么要这样做,真的是“用爱发电”吗 ? 在 90年代后期, 那时 Open Source Initiative 才 出现 不久 , 人们普遍认为 将源代码公开的想法 很不理智 。 毕竟 专有软件是标准, 相关企业或者组织 会尽一切努力保护软件。 但 到 如今 2020年,开源的概念 早已经 发生了巨大的变化,现在 开源思维正一步步 成为主流。 世界上有如此之多的 开源技术 企业(组织) ,其中一些年 盈利 过亿美元 , 甚至 超过 10亿美元, 亿元俱乐部中不乏有像 红帽、MongoDB、Cloudera、MuleSoft、Hashicorp、Databricks(Spark)和Confluent(Kafka) 这样的大佬 。 除了上述高调收购和投资开源项目 的 科技公司外, 就连 谷歌和Facebook 这类传统科技巨擘 也 在推进开源战略 , 可见 开源对于

热门的模型跨界,Transformer、GPT做CV任务一文大盘点

那年仲夏 提交于 2020-11-26 13:45:09
作者|陈萍 来源|机器之心 可能大家心里都有一种错误认知,做自然语言处理任务的模型不能够用来进行计算机视觉任务。其实不然,现阶段已出现好多研究,它们通过算法的改进,将在 NLP 领域表现良好的模型,如 Transformer、GPT 等进行改进并应用于视觉任务,不仅实现了模型跨界,而且取得了不错的性能。 模型跨界效果如何呢? 人工智能的快速发展已经淋漓尽致地体现在我们的日常生活中,从人脸识别、语音识别到机器翻译等等,无不展示着 AI 带来的便利。已经落地的产品层出不穷,其后的算法模型你又了解多少呢?有些模型不仅在自己的领域表现出色,更能跨界出圈。 近几年,NLP 领域的算法势如破竹,不断取得新突破,CV 领域同样不断取得创新。新工具、新算法、新算力等不断迭代更新,在各自领域大放异彩。 如果说将 NLP 领域的模型应用到 CV 领域,或反之,那效果该如何呢?模型跨界是否可行? 答案是肯定的。下面我们来盘点一下模型的跨界、破界表现如何?本文介绍的内容包括: 《End-to-End Object Detection with Transformers》:Facebook 将 Transformer 应用于目标检测任务; 《Generative Pretraining from Pixels》:OpenAI 用 GPT-2 做图像分类的尝试; 《LAMBDANETWORKS:

【中文版 | 论文原文】BERT:语言理解的深度双向变换器预训练

大兔子大兔子 提交于 2020-11-22 04:32:12
BERT:Pre-training of Deep Bidirectional Transformers for Language Understanding 谷歌AI语言组论文 《 BERT :语言理解的深度双向变换器预训练》 ,介绍一种新的语言表征模型BERT——来自变换器的双向编码器表征量。异于最新语言表征模型,BERT基于所有层的左、右语境来预训练深度双向表征量。BERT是首个大批句子层面和词块层面任务中取得当前最优性能的表征模型,性能超越许多使用任务特定架构的系统,刷新 11 项 NLP 任务 当前最优性能记录,堪称最强NLP预训练模型!未来可能成为新行业基础。本文参考网上各大文章,整理翻译了 BERT 论文,在自己学习的同时也分享给大家,欢迎交流指教。 论文地址 : https://arxiv.org/pdf/1810.04805.pdf 摘要   本文介绍一种称之为 BERT 的新 语言表征模型 ,意为来自变换器的双向编码器表征量(BidirectionalEncoder Representations from Transformers)。不同于最近的 语言表征模型 (Peters等,2018; Radford等,2018) ,BERT旨在基于所有层的左、右语境来预训练 深度双向表征 。因此,预训练的BERT表征可以仅用一个额外的输出层进行微调,进而为很多任务(如

Jukebox从openai生成的音乐样本

别等时光非礼了梦想. 提交于 2020-11-18 04:52:00
Jukebox从openai生成的音乐样本 展开 //--> 本文分享自微信公众号 - 相约机器人(xiangyuejiqiren)。 如有侵权,请联系 support@oschina.cn 删除。 本文参与“ OSC源创计划 ”,欢迎正在阅读的你也加入,一起分享。 来源: oschina 链接: https://my.oschina.net/u/3267804/blog/4376306

重磅盘点:过去8年中深度学习最重要的想法

好久不见. 提交于 2020-11-06 19:19:25
原文: Deep Learning’s Most Important Ideas[1] 作者 :Denny Britz(ML 研究员,Google Brain 前成员) 译者:REN 深度学习是一个瞬息万变的领域,层出不穷的论文和新思路可能会令人不知所措。即使是经验丰富的研究人员,也很难准确将研究成果传达给公司的公关部门,继而传达给大众。 对于初学者来说,理解和实现这些技术有利于打下坚实的理论基础,是入门的最佳方法。 在深度学习领域,很多技术都可以跨域多个应用领域,包括计算机视觉,自然语言,语音识别和强化学习等等。在计算机视觉领域使用过深度学习的人,可能很快就能将类似的技术应用到自然语言研究中,即使特定的网络结构有所不同,但其概念,实现方法和代码基本一致。 必须强调的是,本文侧重于计算机视觉,自然语言,语音识别和强化学习领域,但不会详细解释每种深度学习技术,用寥寥数百字解释清楚一篇几十页的论文是不现实的。另外还有一些不容易重现的重要研究,比如 DeepMind 的 AlphaGo 或 OpenAI 的 OpenAI Five(Dota 2 模型),涉及到巨大的工程和运算挑战,因此也不是讨论的重点。 这篇文章的目的,是回顾在深度学习领域影响深远的成果,概述每种技术及其历史背景,尽量引导深度学习新人接触多个领域的基础技术。它们是这个领域最值得信赖的基石,每一个技术都经过了无数次的引用

基于飞凌嵌入式 NXP i.MX8MMini开发板试用体验-运行tengine

蓝咒 提交于 2020-10-30 16:18:17
Tengine 是 OPEN AI LAB 一款轻量级神经网络推理引擎,它针对 Arm 嵌入式 平台进行了专门优化,对 Android、 Linux 系统都提供了很好的支持。 而且更加难能可贵的是 Tengine 并不依赖于专用 AI 芯片 (即 Tengine 可以利用 GPU、NPU 这些具有专门 AI 加速功能的模块进行 AI 运算,也可以利用通用的 C PU 进行 AI 运算),很多 Arm 平台都可以通过 Tengine 框架对算力进行深度挖掘,从而高效的运行一些 AI 应用。 本文就是想描述如何在OKMX8MM-C这一 Arm64 平台上搭建 Tengine AI 推理框架,并运行 图像识别 相关应用。首先在OKMX8MM-C上面移植了基于 Armbian 的 Debian 10 系统,运行的 u-boot 和 linux kernel 都是mainline的。 编译 Tengine OPEN AI LAB 在 Github 上提供了开源的 Tengine 版本,并提供了比较详细的参考文档,所以可以直接下载源码,根据文档进行编译。 得益于 i.MX8MM ini 强大的性能,我们可以直接在 i.MX8 MMini 上下载代码,进行编译,免去交叉编译的诸多不便。 1. 下载源码 git clone --recurse-submodules https://github

11位科幻作家参与,首次AI人机共创写作实验启动

好久不见. 提交于 2020-10-28 07:42:25
人工智能会怎样影响人类文学创作?人类智慧与机器智慧如何相互激发创作灵感? 10月27日,由传茂文化和创新工场联手打造的华语科幻AI人机共创写作实验项目《共生纪》启动,人类作家与AI算法将围绕环保、人机关系、性别、文化多样性等主题,协同创作多篇科幻文学故事。 科幻作家陈楸帆现场演示AI写作程序 《共生纪》所使用的AI写作程序源于创新工场 DeeCamp 2020人工智能训练营中的大学生创新项目“AI科幻世界”,团队的大学生来自中科院计算技术研究所、中国科学院大学、华中科技大学、乔治梅森大学等国内外高校,他们自主设计研发了AI写作程序的主要逻辑,开发出了一款有趣的的智能写作工具。 经陈楸帆等科幻作家尝试,“AI科幻世界”已经可以输出语法上非常通顺,同时拥有一定文学表现能力的段落,这种人机共同写作的过程对人类思维有相当的启发意义。 创新工场AI工程院执行院长王咏刚认为,AI算法为我们提供了一面前所未有的,关乎科学逻辑、语言本质、文本规律的镜子。“人机共创这种全新的体验在前沿科技与文艺创作两个维度都具有重要的探索和实验价值。科技思维与文艺思维的碰撞,提供了一种探寻人类智慧与机器智慧之间的边界与交集,展望人类未来各种可能性的前沿视角。” 创新工场AI工程院执行院长王咏刚 据王咏刚介绍,AI人机共创写作实验模型是由创新工场AI工程院的科研团队自主研发的,基于预训练技术的超大规模中文生成模型

OpenAI 发布模型实现自动定理证明,妈妈再也不用担心我的数学?

不羁岁月 提交于 2020-10-24 20:45:11
作者 | 八宝粥 出品 | CSDN(ID:CSDNnews) OpenAI 大招频出,染指数学江湖 日前,OpenAI 研究者Stanislas Polu和Ilya Sutskever在社交媒体发布消息,宣布在预印本发布文章,展示了一个基于Transformer 的自动定理证明模型。文章表示,团队在 Metamath 库上取得了新的进展,通过将深度学习和形式系统相结合能带来更好的效果。 论文两位作者在社交网络分享发布新模型的喜悦 团队表示,GPT-f 可以自动证明 Metamath 当中23个定理。横向对比上,GPT-f 最佳模型实现 Metamath 56.22% 的保留测试集,而目前最先进的 MetaGen-IL 只有 21.16% 的证明能力。 文章还给出了数据集 set.mm 和证明助手的一个 demo: “自动定理证明”对于饱受数学困扰的同学来说简直就是大杀器,比拟“步步高点读机”,笔者不禁想到自己中学数学做题时自信地刷刷写下“证明”二字和面对高等数学挠头时候的“这也能证?”,“要是机器能帮我证明就好了”。 实际上,在数学界,确实有很多问题需要机器来帮忙。但是 GPT-f 真的是数学界的 AlphaGo 吗?数学家也要望机器兴叹了吗?似乎也并不是这样。 数学天才也需要机器 前段时间获得诺贝尔物理学奖的科学家罗杰·彭罗斯,他在数学方面有一个很有趣的贡献,就是彭罗斯密铺