能力模型

我如何在计算机视觉顶级会议CVPR上发表论文?[转]

点点圈 提交于 2020-02-11 17:09:10
Scalers 点评: 两个月前,成长会的Ramon(S290)收到了计算机视觉顶级会议CVPR论文录取的通知,而且是口头报告。CVPR在计算机视觉领域属于三大顶级会议之一,具有较高的影响力,对于一名在校博士生,能在这个会议上能发表论文,是很不错的一件事情。于是我请Ramon特意撰文,分享了这篇论文从想法到获得成果的一路历程。这篇文章比较长,但是却让我感慨良多。一方面让我想到自己在读研究生期间的经历,科研的生活仿佛历历在目;另外一方面,里面那段关于熬夜赶论文,不到截止不停工的精神,自己也是感同身受。正是因为在科研领域许许多多研究人员夜以继日的持续投入,才能有我们信息领域的科技发展。 另外还要说的一点是,Ramon也是成长会 机器学习 小组组长。我们机器学习小组最近完成了Stanford的在线机器学习课程,下一步即将启动 深度学习 的任务,如果你对这一领域有兴趣,欢迎来参加。详细情况参见 ScalersTalk 成长会深度学习研习计划招募启动 以往机器学习小组日志参见 ScalersTalk 成长会机器学习小组第10~11周学习笔记 ScalersTalk成长会机器学习小组第9周学习笔记 首先做一个自我介绍,我是Ramon(公众号RamonsVoice),中山大学在读博士生(直博第五年),2013年到2014年间在香港理工大学计算学系交流访问。主要的研究方向为计算机视觉

AI中台,你该知道的

非 Y 不嫁゛ 提交于 2020-02-01 23:08:51
**导读:**随着“数据中台”的提出和成功实践,各企业纷纷在“大中台,小前台”的共识下启动了自己的中台化进程,以数据中台、技术中台、业务中台为代表的一系列技术,极大增强了业务的敏捷性,提高了组织效能。同时随着智能技术的发展,AI应用在业务研发中的占比逐渐升高,但AI模型训练的复杂性导致其开发慢、效率低,严重影响了业务的灵活性。 针对这种情况,能否基于中台化思想对业务中AI研发工作进行专门支持,提供对智能需求的迅速实现和灵活试错功能,从而提升企业智能创新能力?AI中台的构建和实施又该如何进行? 文章大纲: AI 中台的提出 AI 中台的目标和定义 AI 中台的实施路线 实例分析 - 智能投顾机器人为例 总结 Q&A 以下内容为分享实录。 1 AI中台的提出 1.1 中台战略的兴起 自从中台战略被提出并得到成功实施后,业界反响强烈,国内各家企业纷纷启动了自己的中台化进程。尤其是对于在战略中处于核心地位的数据中台建设,各方都有自己的解读和心得。 但总体来看,业界形成了对中台战略的一些共识,即主张“大中台、小前台”,通过构建中台,沉淀共享服务,提高服务重用率,打破“烟囱式”、“项目制”系统之间的集成和协作壁垒,降低前台业务的试错成本,赋予业务快速创新能力,最终提升企业的组织效能。 无论是在金融、在线交易、资讯、医疗还是教育行业,业界对中台战略的研讨包括企业日常活动中的各个环节,例如业务中台

做题经验谈

丶灬走出姿态 提交于 2020-01-16 12:03:44
为什么讲如何做题? 浪费时间刷几千道水题毫无意义。 做真正有用的题目。 在一道坑爹题上浪费大量的时间是十分没有性价比的。 真正有效的训练在一年内就能成为很强的选手,而一味的磨蹭和颓废4,5年也就那样。 成功的路并不拥挤,因为大部分人都在颓☺ 做题的目的 做题的目的是学到新的东西以及锻炼代码能力,而不是盲目刷OJ的rank,那没有任何意义。 提高算法能力(想出做法的能力,分析问题的方法等等) 提高代码能力(写出正确的代码的能力) 提高调试能力(将错误的代码改对的能力) 我对于OI比赛的题目的看法 对于省选到NOI来说 大部分由于做过类似的,不用想就能解决。 之后的大部分顺着题目进行一些简单的分析,就也能转化成做过的问题。 套模型。 学习更多的解题模型,可能具体也可能抽象,要多加思考。 在训练过程中如何做题 选择一个好的OJ/TC/CF <-优秀的题目来源 适度而不过量的思考<-节约时间 如果做不出来,在看了题解之后,总结自己做不出来的原因是什么,以完善自己今后的做题方法。 做题方法是一个很抽象的概念,需要经验的积累(和一定的智商?) 一些建议:提高代码能力 代码能力很大程度上取决于经验,你可能觉得这种可能需要大量的练习,但是其实也是有捷径的,那就是参考别人的代码。 最佳的方法是找一些可能比较难写的题目(APIO 2010 寻路, APIO 2011 kunai,CTSC 2011

深度强化学习泡沫及路在何方?

泄露秘密 提交于 2020-01-10 15:52:00
一、深度强化学习的泡沫 2015年,DeepMind的Volodymyr Mnih等研究员在《自然》杂志上发表论文Human-level control through deep reinforcement learning[1],该论文提出了一个结合深度学习(DL)技术和强化学习(RL)思想的模型Deep Q-Network(DQN),在Atari游戏平台上展示出超越人类水平的表现。自此以后,结合DL与RL的深度强化学习(Deep Reinforcement Learning, DRL)迅速成为人工智能界的焦点。 过去三年间,DRL算法在不同领域大显神通:在视频游戏[1]、棋类游戏上打败人类顶尖高手[2,3];控制复杂的机械进行操作[4];调配网络资源[5];为数据中心大幅节能[6];甚至对机器学习算法自动调参[7]。各大高校和企业纷纷参与其中,提出了眼花缭乱的DRL算法和应用。可以说,过去三年是DRL的爆红期。DeepMind负责AlphaGo项目的研究员David Silver喊出“AI = RL + DL”,认为结合了DL的表示能力与RL的推理能力的DRL将会是人工智能的终极答案。 RL论文数量迅速增长[8] 1.1 DRL的可复现性危机 然而,研究人员在最近半年开始了对DRL的反思。由于发表的文献中往往不提供重要参数设置和工程解决方案的细节,很多算法都难以复现

Kubernetes多租户集群实践

浪子不回头ぞ 提交于 2020-01-07 15:44:38
【推荐】2019 Java 开发者跳槽指南.pdf(吐血整理) >>> 如何解决多租户集群的安全隔离问题是企业上云的一个关键问题,本文主要介绍kubernetes多租户集群的基本概念和常见应用形态,以及在企业内部共享集群的业务场景下,基于kubernetes原生和ACK集群现有安全管理能力快速实现多租户集群的相关方案。 什么是多租户集群? 这里首先介绍一下"租户",租户的概念不止局限于集群的用户,它可以包含为一组计算,网络,存储等资源组成的工作负载集合。而在多租户集群中,需要在一个集群范围内(未来可能会是多集群)对不同的租户提供尽可能的安全隔离,以最大程度的避免恶意租户对其他租户的攻击,同时需要保证租户之间公平地分配共享集群资源。 在隔离的安全程度上,我们可以将其分为软隔离(Soft Multi-tenancy)和硬隔离(Hard Multi-tenancy)两种。其中软隔离更多的是面向企业内部的多租需求,该形态下默认不存在恶意租户,隔离的目的是为了内部团队间的业务保护和对可能的安全攻击进行防护;而硬隔离面向的更多是对外提供服务的服务供应商,由于该业务形态下无法保证不同租户中业务使用者的安全背景,我们默认认为租户之间以及租户与k8s系统之间是存在互相攻击的可能,因此这里也需要更严格的隔离作为安全保障。关于多租户的不同应用场景,在下节会有更细致的介绍。 多租户应用场景

Kubernetes多租户集群实践

梦想与她 提交于 2020-01-07 15:25:36
如何解决多租户集群的安全隔离问题是企业上云的一个关键问题,本文主要介绍kubernetes多租户集群的基本概念和常见应用形态,以及在企业内部共享集群的业务场景下,基于kubernetes原生和ACK集群现有安全管理能力快速实现多租户集群的相关方案。 什么是多租户集群? 这里首先介绍一下"租户",租户的概念不止局限于集群的用户,它可以包含为一组计算,网络,存储等资源组成的工作负载集合。而在多租户集群中,需要在一个集群范围内(未来可能会是多集群)对不同的租户提供尽可能的安全隔离,以最大程度的避免恶意租户对其他租户的攻击,同时需要保证租户之间公平地分配共享集群资源。 在隔离的安全程度上,我们可以将其分为软隔离(Soft Multi-tenancy)和硬隔离(Hard Multi-tenancy)两种。其中软隔离更多的是面向企业内部的多租需求,该形态下默认不存在恶意租户,隔离的目的是为了内部团队间的业务保护和对可能的安全攻击进行防护;而硬隔离面向的更多是对外提供服务的服务供应商,由于该业务形态下无法保证不同租户中业务使用者的安全背景,我们默认认为租户之间以及租户与k8s系统之间是存在互相攻击的可能,因此这里也需要更严格的隔离作为安全保障。关于多租户的不同应用场景,在下节会有更细致的介绍。 多租户应用场景 下面介绍一下典型的两种企业多租户应用场景和不同的隔离需求: 1

Generalization and Equilibrium in Generative Adversarial Nets

会有一股神秘感。 提交于 2020-01-02 08:10:48
Paper link: https://arxiv.org/abs/1703.00573 Blog link: http://www.offconvex.org/2017/03/30/GANs2/ Github: https://github.com/PrincetonML/MIX-plus-GANs 作者指出原先的工作都假设Discriminator有无限的表示能力,但是其实当Discriminator表示能力有限的时候,Generator只需要拟合一部分训练数据就能把损失函数降到比较小的值。这说明扩大训练样本对于训练GAN没有太大的作用,而且Generator的diversity也受到了限制。作者提出了MIX+GAN的模型,一个是增强了Discriminator的能力,一个是让其训练能够收敛到一个波动范围内的均衡点。作者在算法中加入熵正则项,防止混合模型坍缩为单个模型。理论分析很多,但个人感觉实验效果也不是很明显。 来源: https://www.cnblogs.com/huangshiyu13/p/7743280.html

深度学习基础知识题库大全

百般思念 提交于 2019-12-28 16:34:26
1、 梯度下降算法 的正确步骤是什么? a.计算预测值和真实值之间的误差 b.重复迭代,直至得到网络权重的最佳值 c.把输入传入网络,得到输出值 d.用随机值初始化权重和偏差 e.对每一个产生误差的神经元,调整相应的(权重)值以减小误差 A.abcde B.edcba C.cbaed D.dcaeb 解析:正确答案 D ,考查知识点-深度学习。 2、已知: - 大脑是有很多个叫做神经元的东西构成,神经网络是对大脑的简单的数学表达。 - 每一个神经元都有输入、处理函数和输出。 - 神经元组合起来形成了网络,可以拟合任何函数。 - 为了得到最佳的神经网络,我们用梯度下降方法不断更新模型 给定上述关于神经网络的描述,什么情况下 神经网络模型 被称为深度学习模型? A.加入更多层,使神经网络的深度增加 B.有维度更高的数据 C.当这是一个图形识别的问题时 D.以上都不正确 解析:正确答案 A ,更多层意味着网络更深。没有严格的定义多少层的模型才叫深度模型,目前如果有超过2层的隐层,那么也可以及叫做深度模型。 3、训练 CNN 时,可以对输入进行旋转、平移、缩放(增强数据)等预处理提高模型泛化能力。这么说是对,还是不对? A.对 B.不对 解析: 对 。如寒sir所说,训练CNN时,可以进行这些操作。当然也不一定是必须的,只是data augmentation扩充数据后,模型有更多数据训练

架构师能力模型

♀尐吖头ヾ 提交于 2019-12-18 20:19:40
https://github.com/elithnever/paperreading/blob/master/%E6%9E%B6%E6%9E%84%E5%B8%88.md#架构师能力模型 架构师能力模型 架构师在很多人眼中是一个非常高大上的职业, 就像武侠小说中的绝世高手一样, 关键时刻可以起到扭转乾坤的作用, 是团队中的灵魂人物. 回想我自己做一线架构师的过程中, 也没有经历过比较系统的培训, 都是摸着石头过河. 近期在培养架构师的过程中, 促使我一直在思考, 一个合格的架构师到底应该具备哪些能力? 对希望成长为架构师的同学, 或者在承担架构师职责的同学, 需要提供哪些方面的指导和帮助, 才能让他逐步成长为合格的架构师呢? 下面我结合自己的经验, 总结了我认为对架构师来说非常重要的十项能力, 希望给那些努力成长为架构师的同学提供一点点帮助. 研发流程的持续改进 架构师不是单兵作战, 凭借个人英雄主义是无法做成大事的. 架构师一定是指挥一个团队来共同完成既定目标, 或者一个复杂项目. 在软件研发领域, 决定团队研发效率的核心在于研发流程的优化. 现阶段互联网公司大多采用敏捷研发流程, 这其中主要包括: 需求卡片的状态流转. 尽可能依靠工具实现状态的自动化流转, 减少人为操作的情况. 开发工具的选择. 比如web ide, 代码审查工具, 项目管理工具等. 代码的开发和审查

深度强化学习泡沫及路在何方?

一笑奈何 提交于 2019-12-17 02:24:48
一、深度强化学习的泡沫 2015年,DeepMind的Volodymyr Mnih等研究员在《自然》杂志上发表论文Human-level control through deep reinforcement learning[1],该论文提出了一个结合深度学习(DL)技术和强化学习(RL)思想的模型Deep Q-Network(DQN),在Atari游戏平台上展示出超越人类水平的表现。自此以后,结合DL与RL的深度强化学习(Deep Reinforcement Learning, DRL)迅速成为人工智能界的焦点。 过去三年间,DRL算法在不同领域大显神通:在视频游戏[1]、棋类游戏上打败人类顶尖高手[2,3];控制复杂的机械进行操作[4];调配网络资源[5];为数据中心大幅节能[6];甚至对机器学习算法自动调参[7]。各大高校和企业纷纷参与其中,提出了眼花缭乱的DRL算法和应用。可以说,过去三年是DRL的爆红期。DeepMind负责AlphaGo项目的研究员David Silver喊出“AI = RL + DL”,认为结合了DL的表示能力与RL的推理能力的DRL将会是人工智能的终极答案。 RL论文数量迅速增长[8] 1.1 DRL的可复现性危机 然而,研究人员在最近半年开始了对DRL的反思。由于发表的文献中往往不提供重要参数设置和工程解决方案的细节,很多算法都难以复现