wise

1024,阿里云惊喜 “加油包” 让你 “猿” 力觉醒!

无人久伴 提交于 2020-10-24 00:33:33
1024程序员节是广大程序员共同的节日,程序员就像是一个个1024以最核心、踏实、低调的功能模块,搭建起科技世界。 现如今,技术更新迭代越来越快,人类生活愈发便捷化、智能化。这背后自然离不开一批批程序员的默默耕耘与辛苦付出。他们起早贪黑、兢兢业业,认真地编写程序、修改BUG,开发了数不清的软件。不得不说,正是因为有他们的存在,我们的生活才更加方便。 今年,阿里云在1024程序员节将免费发放价值4500元的“1024专属加油包”,助力广大程序员跑赢焦虑的2020。 1024专属加油包明细如下: 如何参与? 第一步,点击活动页面“分享好友”发起活动 第二步,复制链接邀请好友助力 第三步,好友登陆账户完成“点击助力” 第四步,完成5人助力,即可获得加油包奖励 活动规则: 一、 活动对象 1、阿里云官网注册用户均可以参加,同一用户仅有1次参与分享和助力的机会,不可重复参与活动。 2、完成活动任务要求即可通过登录阿里云APP领取奖品,登录APP手机号与阿里云账号绑定号码一致,且同一手机号仅支持1次奖品领取 二、 活动时间 2020年10月22日至2020年11月11日。 三、 活动规则 1、分享助力活动 a.活动期间,完成阿里云账号登录的用户即可发起助力活动,每个阿里云用户只有一次获得加油包机会。 b.参与活动的用户需邀请5位好友在活动期间内完成助力

全屋智能只要6999便能实现?如影智能新品发布

二次信任 提交于 2020-10-12 18:53:25
9月15日,北京。如影智能品牌暨新品发布会今日在京举办,唐沐携团队一次奉上18款智能家居产品,讲述过去一年的创业心得,为智能家居行业带来生机的全屋智能体验。 如影智能创始人兼CEO 唐沐 19年的从业经验,近千款软硬件设计,让唐沐成为更理解用户体验的人。2019年9月,唐沐离开了供职7年的小米,以创业者的身份投身智能家居行业,组件团队,打造新公司、新品牌。如影智能由唐沐创办,专注Al+loT领域,研发前沿的、高调性的全屋智能产品及服务,应用于智慧家庭空间系统。 如影的品牌,来源于成语“如影随行”,意味着不打扰的陪伴。英文名Know,则为品牌主张的缩写,即知性(Knowledge)、自然(Natural)、开放(Open)和智慧(Wise)。如影的全线产品,设计理念都秉持了这四重主张。 在此次发布会上,唐沐详细阐释了自己创业的初衷、如影智能产品的思考,以及对于未来的布局和规划。 信赖极致用户体验,服务也是产品体验中重要一环 多年的用户体验设计和大厂产品经验,让唐沐认识到,在智能家居领域,一切都是围绕用户体验展开的。好的智能,不会让用户费心选择、费心学习、费心安装,相信用户对居住空间有着真实的智能需求,相信全屋智能会带给用户更美好的生活体验。 所以,如影智能把“信仰极致用户体验”做为价值观,首次打通了智能硬件与家居设计之间的沟堑,通过“科技美学产品+省心装维服务”的集成产品

How Python Handles Big Files

久未见 提交于 2020-10-06 06:50:13
The Python programming language has become more and more popular in handling data analysis and processing because of its certain unique advantages. It’s easy to read and maintain. pandas, with a rich library of functions and methods packaged in it, is a fast, flexible and easy to use data analysis and manipulation tool built on top of Python. It is one of the big boosters to make Python an efficient and powerful data analysis environment.   pandas is memory-based. It does a great job when the to-be-manipulated data can fit into the memory. It is inconvenient, even unable, to deal with big data

区别于传统低效标注,两种基于自然语言解释的数据增强方法

本秂侑毒 提交于 2020-10-01 23:16:45
本文内容整理自 PaperWeekly 和 biendata 在 B 站组织的直播回顾,点击文末 阅读原文 即可跳转至 B 站收看本次分享完整视频录像,如需嘉宾课件,请在 PaperWeekly 公众号回复关键词 课件下载 获取下载链接。 作者简介: 秦禹嘉,清华大学电子工程系本科生,大二开始在清华大学自然语言处理实验室学习。导师刘知远副教授。主要研究方向为义原知识体系的完善与应用。 尽管深度学习模型已经在许多自然语言处理任务上取得了非常好的效果,它们通常依赖于大量的训练数据;然而在实际应用场景下,标注能力、训练数据并不充足的情况经常出现,因此如何让标注者高效率地标注是一个十分有意义的问题。 传统给出标签的标注方式在一定程度上限制了标注者能够提供的信息量,很多情况下我们不仅关注标注者打出的标签,更加关注于其打出该标签的理由。因此一种更加高效的做法是让标注者在给出标签的同时给出相应的自然语言解释来解释其做出该决定的原因。 本文将分享应用自然语言解释的一些挑战,并介绍目前应对这些挑战做出的探索和最新工作。 自然语言解释的概念与背景 如开篇所讲,深度学习的技术已经在许多自然语言处理的任务上取得了很好的效果,但是仍然还有两个问题没有解决。第一个是模型通常需要大量的数据。第二个是模型缺乏可解释性。 先看 data hungry 的问题,很多情况下我们并没有那么多的数据能够喂给模型

深2.5至4倍,参数和计算量却更少,DeLighT Transformer是怎么做到的?

微笑、不失礼 提交于 2020-09-30 13:16:37
Google 团队提出的 NLP 经典之作 Transformer 由 Ashish Vaswani 等人在 2017 年发表的论文《Attention Is All You Need》 中提出。但由于模型参数量过大,该模型训练困难、部署不方便,研究人员一直在探究如何优化 Transformer。近日,来自华盛顿大学和 FAIR 的 Sachin Mehta 等人提出了一个网络结构较深但轻量级的 Transformer——DeLighT。 论文链接: https:// arxiv.org/abs/2008.0062 3 代码链接: https:// github.com/sacmehta/del ight 论文简介 在这篇文章中,作者提出了一个网络较深但轻量级的 Transformer——DeLighT,与之前基于 transformer 的模型相比,它的参数更少,但性能相当甚至更好。 DeLighT 能够更高效地分配参数,主要表现在:1)每个 Transformer 块使用结构较深但参数较少的 DExTra;2)在所有块上使用逐块缩放(block-wise scaling),使靠近输入的 DeLighT 块比较浅且窄,靠近输出的 DeLighT 块比较宽且深。总的来说,DeLighT 的网络深度是标准 transformer 模型的 2.5 到 4 倍,但参数量和计算量都更少。

【论文阅读】NMS系列 结合代码学习 solov2 Matrix NMS

[亡魂溺海] 提交于 2020-08-20 06:18:45
NMS系列 NMS Soft NMS Matrix NMS decay factor f ( i o u i , j ) f(iou_{i,j}) f ( i o u i , j ​ ) decremented functions 代码解读 solov2提出了Matrix NMS,这一篇就想把NMS系列总结一下。 Non-Maximum Suppression的翻译是非“极大值”抑制,而不是非“最大值”抑制。这就说明了这个算法的用处:找到局部极大值,并筛除(抑制)邻域内其余的值。 NMS 参考:https://zhuanlan.zhihu.com/p/78504109 在目标检测中,我们需要NMS从堆叠的类别一样的边框中挑出最好的那个。 主要实现的方法就是对于相同类别的,把置信度比自己低,和自己的重叠度即iou大于某一阈值的剔除(把置信度置位0) 算法流程: 将所有的框按类别划分,并剔除背景类,因为无需NMS。 对每个物体类中的边界框(B_BOX),按照分类置信度降序排列。 在某一类中,选择置信度最高的边界框B_BOX1,将B_BOX1从输入列表中去除,并加入输出列表。 逐个计算B_BOX1与其余B_BOX2的交并比IoU,若IoU(B_BOX1,B_BOX2) > 阈值TH,则在输入去除B_BOX2。 重复步骤3~4,直到输入列表为空,完成一个物体类的遍历。 重复2~5

Position-wise Feed-Forward Networks (transformer)

假装没事ソ 提交于 2020-08-19 18:56:09
In addition to attention sub-layers, each of the layers in our encoder and decoder contains a fully connected feed-forward network, which is applied to each position separately and identically. This consists of two linear transformations with a ReLU activation in between. While the linear transformations are the same across different positions, they use different parameters from layer to layer. Another way of describing this is as two convolutions with kernel size 1. The dimensionality of input and output is dmodel=512, and the inner-layer has dimensionality dff = 2048. import torch import

py-rfcn中遇到的错误

半世苍凉 提交于 2020-08-17 15:22:23
eltwise_layer.cpp:34 check failed: bottom[i]->shape() == bottom[0]->shape(). error) 训练py-R-FCN或faster rcnn过程中报错 这个错误是在执行element-wise(concat或sum)时产生的,此使只需要根据日志,查找到相加的两个元素,对其维度调整,基本就可以解决问题。 训练py-R-FCNwithFPN过程中报错 在py-rfcn中加入FPN网络结构,产生如下错误:(错误链接: link .) 错误原因 :FPN网络模型中的下采样操作使得特征图分辨减少为原来的1/2,向下取整,而反卷积操作使得特征图分辨率成为原来的两倍,如果图片或特征图的分辨率不是2的整数倍,在FPN网络特征融合的过程中就会产生问题。比如:特征图大小11 11,下采样后为5 5,再将其上采样后为10*10,此时做element-wise(sum)会产生如上错误。 解决办法 : FPN 在congfig.py 中设置了下采样倍数参数:__C.TRAIN.IMAGE_STRIDE=64。同样在congfig.py中添加自己网络中下采样倍数。 // config . py # Max pixel size of the longest side of a scaled input image __C . TRAIN

PostgreSQL 12.2 公开课及视频及PGCE认证(第9期)(CUUG)(2020年)

心已入冬 提交于 2020-08-17 06:24:54
九、PostgreSQL 12.2 并行查询调优 1、PG并行概述 2、TPC-H测试环境搭建 3、Parallel Aggregation描述 4、分配多少workers最佳? 5、PG并行工作机制? 6、为什么没有使用并行查询? 7、Nested loop joins、Hash Join、Merge Join并行处理方式 8、Partition-wise join并行处理案例 9、Parallel Append操作机制 10、相关重要参数 从9.5开始PG就开始支持并行查询,并且在新的版本中不断在增强,本次技术公开课着重给大家阐述并行实现的原理,以及在不同运行阶段的并行特点,同时还展示了不同状态下的性能对比。Oracle也只到了11g以后对并行进行了全面的支持,而PG从很早开始就支持并行查询,真是可喜可贺。 时间:2020-05-09 20:00-21:00 地址: 视频: 注:PostgresSQL 12.2 企业级课程系列公开课,是由北京CUUG的陈老师制作讲解,内容涉及到企业中常用到的一些技术,比如备份恢复、PITR、流复制、双机热备、单表查询成本估算、可见性验证、Autovacuum调优、事务隔离级别、并行查询调优、等一系列内容,免费公开课,欢迎大家参与学习。 关于PGCA和PGCE认证,这是PostgreSQL数据库的初级和中级认证,CUUG是指定的培训及考试中心

IJCAI2020|基于内部-环境注意力网络的推荐多队列冷启动召回

与世无争的帅哥 提交于 2020-08-16 09:38:07
     本文介绍的是 IJCAI-2020论文《Internaland Contextual Attention Network for Cold-start Multi-channel Matching inRecommendation》,论文作者是来自腾讯微信的谢若冰、丘志杰、饶君、刘毅、张博和林乐宇研究员。    作 者 | 谢若冰    编辑 | 丛 末    1    导语   真实世界中的综合推荐系统(例如微信看一看)通常需要从上百万异质物品中进行推荐。直接在百万候选集上使用复杂的推荐算法,往往会引入难以承受的时间成本。因此,工业级综合推荐系统一般由召回(matching)和排序(ranking)两个模块组成。召回模块负责快速从百万级数据中检索出百级别物品候选,排序模块负责准确对这些召回来的物品候选排序,得到最后的推荐结果。由于推荐物品来源多种多样,特征也不尽相同,同时也为了兼顾多样性,召回部分通常会使用多队列召回(multi-channel matching)策略。   然而,在现实系统中,综合推荐系统经常会引入新的数据源,这部分冷启动的召回通道在行为稀疏时往往表现较差。   为了解决这些问题,作者提出一种Internal and contextual attention network (ICAN)模型,通过加强多队列之间特征域(feature field