OpenAI

AI算法效率每16月翻番,超越摩尔定律,OpenAI:长江后浪推前浪

人走茶凉 提交于 2020-05-08 02:19:19
人工智能算法也遵循着自己效率提升的「摩尔定律」。 在人工智能领域里,因为研究人员的努力,顶尖算法的效率提升速度超过了芯片中摩尔定律的速度。 著名人工智能研究机构 OpenAI 今天更新了有关业内顶尖机器学习模型算法需求的报告,并得出最新结论:自 2012 年以来,在著名数据集 ImageNet 上训练一个图像分类系统所需的算力每 16 个月减少一倍。 这一观点和 OpenAI 几个月前「最先进 AI 模型算力需求增长 30 万倍」的态度有了很大变化,其结论或许意味着人工智能在未来发展的过程中将不大可能受到算力瓶颈的掣肘。 除了关注模型的最优表现之外,OpenAI 本次研究发现的模型效率提升是最引人关注的地方。它还有着更深层次的意义:为 AI 的技术属性和社会影响提供依据。 「算法的改进是 AI 技术提升的核心。不过寻找衡量所有技术进步的标准非常困难,特别是它们在使用算力方面变化的趋势,」OpenAI 表示。「算法效率的提升使得研究人员可以在同样时间内进行更多实验,并减少资金花费。分析表明,政策制定者需要增加对于计算效率研究的投资,这不仅对于学术界有帮助,而且可以进一步帮助业界。」 此外,值得注意的是,OpenAI 并不是首个公开提出对 AI 模型的效率展开基准测试的机构。2019 年,艾伦人工智能研究所、卡内基梅隆大学以及华盛顿大学的科学家提议将效率作为 AI

击败谷歌AI拿下“最强”称号?Facebook AI开源聊天机器人Blender

試著忘記壹切 提交于 2020-05-03 18:20:32
  如今,我们对虚拟语音助手已经十分熟悉。无论是苹果 Siri、亚马逊 Alexa,还是百度小度,阿里巴巴天猫精灵,在提供帮助之余,还经常扮演着被无聊人类调戏的对象。   就在你来我往的博弈之间,语音助手们练就了一身反调戏的本领,甚至还会出其不意,给你惊喜。   但如果把苹果推出 Siri 视为消费级虚拟语音助手诞生元年,算下来迄今已经过了近九年,要说它们没什么长进,恐怕是冤枉了。只不过,跟它们对话似乎总是差点意思。   当然,如果只是指示语音助手设置闹钟,查询天气,它们在绝大多数情况下都能完美实现。然而一旦脱离具体任务,以聊天或咨询为主要目的,因为涉及到对话和交互能力,它们的表现就会一落千丈,经常会出现前言不搭后语的情况,令人沮丧。    为了改善这一问题,Facebook AI 近日就公布了一项最新研究成果:拥有 94 亿参数的开源 AI 聊天机器人 Blender。    Facebook 研究人员声称,Blender 是迄今为止“最先进的”聊天机器人,可以以有趣和连续互动的方式讨论几乎所有内容。 在人-人和 Blender-人的对话比较测试中,有 49% 的测试者把 Blender 的对话记录误认为是人和人的对话,67% 的测试者认为 Blender 和人的对话更像是人和人的对话。      视频|Blender 对话演示(来源:Facebook)   “对话有点像 AI

击败谷歌AI拿下“最强”称号?FacebookAI开源聊天机器人Blender

烂漫一生 提交于 2020-05-03 16:16:04
  如今,我们对虚拟语音助手已经十分熟悉。无论是苹果 Siri、亚马逊 Alexa,还是百度小度,阿里巴巴天猫精灵,在提供帮助之余,还经常扮演着被无聊人类调戏的对象。   就在你来我往的博弈之间,语音助手们练就了一身反调戏的本领,甚至还会出其不意,给你惊喜。   但如果把苹果推出 Siri 视为消费级虚拟语音助手诞生元年,算下来迄今已经过了近九年,要说它们没什么长进,恐怕是冤枉了。只不过,跟它们对话似乎总是差点意思。   当然,如果只是指示语音助手设置闹钟,查询天气,它们在绝大多数情况下都能完美实现。然而一旦脱离具体任务,以聊天或咨询为主要目的,因为涉及到对话和交互能力,它们的表现就会一落千丈,经常会出现前言不搭后语的情况,令人沮丧。    为了改善这一问题,Facebook AI 近日就公布了一项最新研究成果:拥有 94 亿参数的开源 AI 聊天机器人 Blender。    Facebook 研究人员声称,Blender 是迄今为止“最先进的”聊天机器人,可以以有趣和连续互动的方式讨论几乎所有内容。 在人-人和 Blender-人的对话比较测试中,有 49% 的测试者把 Blender 的对话记录误认为是人和人的对话,67% 的测试者认为 Blender 和人的对话更像是人和人的对话。      视频|Blender 对话演示(来源:Facebook)   “对话有点像 AI

华为云PaaS首席科学家:Cloud Native +AI,企业数字化转型的最佳拍档

喜欢而已 提交于 2020-05-02 11:59:52
近日,在2019华为全球分析师大会期间,华为云PaaS首席科学家熊英博士在+智能,见未来(华为云&大数据)的分论坛上,从云计算行业发展谈起,深入云原生发展趋势,对华为云智能应用平台做了深度解读。 熊英博士为大家分享了云原生技术和平台发展的新趋势,重点介绍了华为云智能应用平台。熊英博士提出云原生技术使能企业数字化转型的三个关键点:多云解决方案、泛在的容器和智能边缘。 IT投资投资趋势 数字化转型取代传统应用 云原生技术成为技术驱动力 根据市场调查和预测,企业近些年来在传统应用程序方面的投资正在下降,取而代之的是对云原生应用的投资。现阶段大部分企业已经开始新一轮的数字化转型,即由传统IT应用时代进入云原生应用时代。 开源社区洞悉 云原生技术惠及企业数字化转型 关注度骤升 云原生计算基金会(Cloud Native Computing Foudation,CNCF)2018年报数据显示: • 2018年,云原生技术在生产中的使用翻了一番; • 2018年,正评估及准备使用云原生的企业用户增长了3倍以上; • 从2016年到2018年,CNCF主办的云原生技术大会KubeCon + CloudNativeCon的出席人数,增长了近3倍。 熊英博士表示:在我20余年的IT从业经验中,以上这种增长无疑是少见的,由此可见云原生技术受企业的欢迎程度。 另一份来自CNCF的调查数据表明

OpenRes 0: 从头开始研究Deep Reasoning

帅比萌擦擦* 提交于 2020-04-16 15:49:45
【推荐阅读】微服务还能火多久?>>> 2020真的是不太平的一年,Covid-19全球肆虐,百年一遇,真希望2020能够重新开始。虽然如此,不能停止对通用人工智能AGI的探索呀! 2020年对于通用人工智能的研究来说也是很不一样的一年,需要改变。2019年Deep Reinforcement Learning进一步大爆发,Deepmind和OpenAI在星际,Dota,机器手上都展现了突破性的进展,然而DRL的通用性,泛化性上却仍然是一个很大的难题。 Yoshua Bengio和Yann Lecun在最近的Neurips和AAAI会议上为大家指出了Deep Learning新的研究方向,即从System 1到System 2: System 2 按Bengio的话来说有很多种,我们可以简化的讲就是 去解决人也需要思考一下的任务 。我比较喜欢Reasoning推理这个词,推理是一个非常宽泛的概念,但却是我们日常生活每时每刻都需要的。从某种意义上讲,图像识别也是一种推理过程,只是相对比较直接。这种直接的推理问题现在的Deep Learning已经基本解决了,所以接下来就是要啃硬骨头,去解决复杂的推理问题。并且,AI只有在具备真正的推理能力下,才能实现所谓的ood (out-of-distribution Generalization),也就是更强的泛化能力

那些我们对2019技术世界趋势的预测都说准了吗?

吃可爱长大的小学妹 提交于 2019-12-05 13:53:35
2018年对科技行业来说是伟大的一年。拥有多个摄像头的手机、无边框的概念机、无线耳机…这让我们对于2019年有着很多的期待。那些我们在2018年预测的关于2019的技术世界发展趋势,在这一年即将结束之际,是否都真的已经实现了呢? 1、可折叠显示屏 在2018年国际消费类电子产品展览会上,我们看到了可折叠显示屏的样子。当一家总部位于美国的中国科技公司罗伊尔(Royole)首次展示了一款他们称之为柔派(Flexpai)的可折叠手机原型时,我们明白了,这是真的。虽然它并不能称作完美,但它看起来确实还不错。亲眼目睹一部手机的显示屏在现实中折叠而不是被撕成两半,真是让人着迷。可折叠技术在2019年国际消费类电子产品展览会上获得了更多的关注。LG发布了世界上第一台可滚动的OLED电视,整个65英寸的屏幕在几秒钟内就像纸一样滚进了金属外壳。毫不夸张地说,可折叠技术将在2019年以不同的形式出现 2、5G 我坚信,我们不会看到5G成为商业产品,尽管我们比2020年更早地拥有了4G。但是,在2019年,它仍然会风靡一时。许多智能手机制造商已经承诺在2019年推出至少一款旗舰产品。5G将会很棒,它注定会很棒。这是一种创新,是新的事物,而且会变得更好。正如爱立信印度首席执行官尼廷•班萨尔(Nitin Bansal)在IMC 2018年大会上指出的那样,“我们不会说这是一场革命,我们说这是一场进化。” 3

强化学习笔记(一)基于openAI gym CartPole-V0实现

◇◆丶佛笑我妖孽 提交于 2019-12-04 19:24:06
强化学习笔记(一)基于openAI gym CartPole-V0实现 一、基础定义 一、基于openAI gym CartPole-V0实例学习 1、游戏背景 2、代码实现 2.1 测试CartPole环境中随机action的表现,作为baseline 2.2 构建策略网络 2.3 运行结果 2.4 总结 一、基础定义 强化学习是机器学习的一个分支,主要用来解决时序决策问题。他可以在复杂的、不确定的环境中学习如何实现我们设定的目标。一个强化学习模型主要包括四个部分, 环境状态(environment state), 智能体(agent),行动(action),奖励函数(reward)。 环境状态(environment state)集合可以是一个有限集合,状态是其中的特征,环境中除了包含状态信息,还需要定义智能体和环境交互所带来的环境的改变。 智能体(agent)是强化学习的载体,它负责执行模型给出的行动(action)。环境是agent无法控制的,但是环境可以被观察,然后根据观察的结果,给出进一步的行动。 行动(action)是agent的可行域,通常为连续或离散的有限集合(不知道这一理解对不对),行动由agent根据目标函数的优化给出,当行动给出后,一方面环境状态会发生改变,另一方面agent会得到由奖励函数给出的奖励。 奖励函数(reward):对应于一个特定的环境状态

openAI Gym NameError in Google Colaboratory

匿名 (未验证) 提交于 2019-12-03 01:18:02
可以将文章内容翻译成中文,广告屏蔽插件可能会导致该功能失效(如失效,请关闭广告屏蔽插件后再试): 问题: I've just installed openAI gym on Google Colab, but when I try to run 'CartPole-v0' environment as explained here . Code: import gym env = gym.make('CartPole-v0') for i_episode in range(20): observation = env.reset() for t in range(100): env.render() print(observation) action = env.action_space.sample() observation, reward, done, info = env.step(action) if done: print("Episode finished after {} timesteps".format(t+1)) break I get this: WARN: gym.spaces.Box autodetected dtype as <class 'numpy.float32'>. Please provide explicit dtype. --------

关于AI的零日威胁和OpenAI的GPT-2的一些思考

五迷三道 提交于 2019-12-01 22:12:08
过去几天中,有关 OpenAI的新语言模型 的讨论很多 。 OpenAI做出了一个不寻常的决定,即不发布其训练有素的模型(AI社区对于共享它们通常非常开放)。 总体而言,这种反应既令人惊讶又令人关注,并且已经在媒体上进行了广泛讨论,例如《 The Verge》中 这一 周到而透彻的报道 。 另一方面,学术NLP社区的反应在很大程度上(但不仅限于)是负面的,声称: 这不应该在媒体上报道,因为没什么特别的 OpenAI没有理由保留该模型,只是通过声称其模型如此特殊以至于必须对其保密,以试图引起媒体的炒作。 在(1)中,虽然确实没有进行真正的算法飞跃(该模型主要是同一团队几个月前发布的内容的较大版本),但学术界的“没什么可看的”反应忽略了这一点完全。 尽管学术出版(至少在该领域中)在很大程度上受到特定技术创新的推动,但更广泛的社区利益却受到社会影响,惊喜,叙述和其他非技术问题的推动。 我谈到这项新工作的每个外行都惊呆了。 而且,显然有一种工具可能对社会产生影响的讨论,该工具可能能够将虚假信息运动扩大几个数量级,尤其是在我们当前的环境中,即使没有此类工具,此类运动也会破坏民主。 另外,技术历史已经反复表明,困难的事情通常不是解决特定的工程问题,而是 表明可以解决问题 。 因此,表明可行的方法也许是技术开发中最重要的一步。 一段时间以来,我一直在警告可能会滥用预先训练的语言模型

强化学习的平衡车游戏

帅比萌擦擦* 提交于 2019-11-29 01:33:05
openAi开源了一个叫gym的游戏库,这个库里有好多小游戏可以用来做强化学习试验,比如Cart Pole平衡车小游戏。 gym的Cart Pole环境 Cart Pole在OpenAI的gym模拟器里面,是相对比较简单的一个游戏。游戏里面有一个小车,上有竖着一根杆子。小车需要左右移动来保持杆子竖直。如果杆子倾斜的角度大于15°,那么游戏结束。小车也不能移动出一个范围(中间到两边各2.4个单位长度)。如下图所示: 在gym的Cart Pole环境(env)里面,左移或者右移小车的action之后,env都会返回一个+1的reward。到达200个reward之后,游戏也会结束。 强化学习的目的就是训练神经网络来自动玩这个游戏,使得最终结果是连续移动200个action而平衡车不倒,一直到游戏正常结束。 那么问题来了,神经网络是通过什么机制来学会自动玩这个游戏呢?这就是深度学习里一个鼎鼎大名的领域叫“强化学习”。著名的围棋智能机器人阿法狗就是强化学习的一个典型应用。 那么强化学习是怎么实现的呢?它的工作原理是什么? 笔者不打算太多介绍理论方面的知识,更多的从实践出发,教给大家怎么编写自己的强化学习模型。强化学习模型大概有DQN,策略网络,DDPG等几种常见的神经网络结构,具体的模型实践会在后续章节详细介绍,这里首先给出一点大概的印象。 首先看下怎么使用gym吧: 先安装 openai