adaptive

2020 IJCAI 接受论文 list 分类排列(一)

风格不统一 提交于 2020-10-02 06:52:26
2020 IJCAI 接受论文 list 分类排列(一) 2020 IJCAI 接受论文 list 分类排列(二) 2020 IJCAI 接受论文 list 分类排列(三) 目录 Main track (Agent-based and Multi-agent Systems) Main track (AI Ethics) Main track (Computer Vision) Main track (Constraints and SAT) Main track (Data Mining) Main track (Heuristic Search and Game Playing) Main track (Humans and AI) Main track (Agent-based and Multi-agent Systems) A Deep Reinforcement Learning Approach to Concurrent Bilateral Negotiation Pallavi Bagga, Nicola Paoletti, Bedour Alrayes, Kostas Stathis A Multi-Objective Approach to Mitigate Negative Side Effects Sandhya Saisubramanian, Ece

Black reID : A New Problem for Person Re-ID

梦想与她 提交于 2020-10-02 05:15:06
Towards Black Re-Id: A New Challenge For Person Re-Identification, with Head-Shoulder Information Boqiang Xu Lingxiao He Xingyu Liao Wu Liu Zhenan Sun Tao Mei paper: http:// arxiv.org/abs/2008.0852 8 (Accepted By ACM MM 2020) code: https:// github.com/xbq1994/HAA 背景 行人重识别作为现在计算机视觉的一个主流任务,在实际场景中有许多应用,比如安防、智能超市等。行人重识别旨在给定一个监控行人图像 (query),跨设备检索多个摄像头下 (gallery) 该行人的所有图像。近几年,由于深度学习的发展,行人重识别取得了巨大进步,在三大公开数据库 Market-1501 [1], DukeMTMC-reID [2], CUHK03 [3] 中都已经取得了较高的分数。 但是现在大部分reID的方法主要都是针对光线充足、人们衣着亮丽区分度大的传统环境,reID模型也主要是依靠人物衣着来提取特征。在实际业务场景中我们发现,到了冬天,reID系统的性能会突然大大下降,而通过监控我们发现导致这个问题的原因是很多人(尤其是男士

HEVC标准介绍+论文阅读笔记

最后都变了- 提交于 2020-10-01 11:37:27
脱离视频编解码、投入计算机视觉一年,这个博客也歇业一年,最近偷些时间回顾一下编解码,毕竟花费了整个研一的时间(虽然这一年基本上在上课)。 之前写过几篇H.264标准的几篇介绍文章,详见: http://www.cnblogs.com/DwyaneTalk/category/615769.html 后来转入HEVC,相关知识就记录在某某云笔记了,最近整理出来重新看看,所以打算把与HEVC相关的、觉得有价值的放在这个博客里,希望对新人有所帮助。 这里只是一个目录,主要包括HEVC标准介绍、HEVC帧间预测论文笔记两部分 一、HEVC标准介绍 参考:《High Efficiency Video Coding (HEVC)》,这本书某东1K+大洋,虽然我一直支持正版,但是对于没有收入的学生来数还是挺贵的。所以如果想要这本书电子版(非扫描版)的学生,可以给我留言,对于有经济能力的工作人士,建议还是购买书籍和电子版。 1、 【HEVC简介】CTU、CU、PU、TU结构 2、 【HEVC简介】High Level Syntax 3、 【HEVC简介】Inter Prediction Tools 4、 【HEVC简介】SAO-Sample Adaptive Offset, 样本自适应偏移量 5、 【HEVC简介】ALF-Adative Loop Filter 6、 【HEVC简介】DB

DM 一次SQL优化经历

筅森魡賤 提交于 2020-09-30 13:29:07
工作中遇到一个SQL查询慢的问题 查询语句是: SELECT * FROM db_msg.t_xxpt_xx_cocall xx WHERE dt_fssj >=‘2020-06-03 00:00:00’ AND dt_fssj <= ‘2020-06-10 23:59:59’ order by dt_fssj desc limit 20; 筛选字段为30w左右数据,返回结果集20,首次执行时会执行有7,8秒的时间 为了优化这个SQL我首先查看这个SQL执行计划: 1 #NSET2: [6696, 20, 764] 2 #PRJT2: [6696, 20, 764]; exp_num(26), is_atom(FALSE) 3 #SORT3: [6696, 20, 764]; key_num(1), is_distinct(FALSE), top_flag(1), is_adaptive(0) 4 #BLKUP2: [418, 198120, 764]; I_XXPT_XX_COCALL_FSSJ(XX) 5 #SSEK2: [418, 198120, 764]; scan_type(ASC), I_XXPT_XX_COCALL_FSSJ(T_XXPT_XX_COCALL as XX), scan_range[exp_cast(‘2020-06-03 00:00:00’),exp

主动降噪(Active Noise Control)

五迷三道 提交于 2020-09-28 06:50:49
智能耳机 人机交互 智能声学终端 智能耳机 智能音箱 智能听力器 喇叭单体 动圈喇叭 新材料 DLC 石墨烯 陶瓷单位 吸音材料 智能芯片 阵列式麦克风 声纹传感器 演算法 降噪算法 智能听力保护 ANC ANC   降低噪音通常所采用的三种降噪措施,即在声源处降噪、在传播过程中降噪及在人耳处降噪,都是被动的。为了主动地消除噪声,人们发明了“有源消声”这一技术。ANC(Active Noise Control)又称为主动噪声控制,常应用在耳机降噪中, 原理 :通过降噪系统产生与外界噪音相等的 反向声波 ,将噪声中和,从而实现降噪的效果,   所有的声音都由一定的频谱组成,如果可找到一种声音,其 频率 、 振幅 与所要消除的噪声完全一样,只是 相位刚好相反 (相差$ 180^o$)就可以将这噪声完全抵消。 频率:一秒钟语音信号震动的次数 振幅:声音大小 相位:某一时刻声波处于一个周期内的位置,如果我们规定空气被压缩的最厉害的地方是相位的零点,那么半个周期之后,空气变得最为稀疏的地方,相位就变成 180°。等到空气再次被压缩得最密集时,就经过了一整个周期,相位变化了 360°又重新变为 0°。 办法:先采集噪声,所以处理器会根据噪声进行预测,预测出下一时刻噪声的情况,并产生相位相反的噪声,来抵消原噪声。   为了保证降噪质量,还需要一个反馈麦克风用来检测所合成后的噪声是否真的变小了

2019年-中国计算机学会推荐国际学术会议和期刊目录(一)

五迷三道 提交于 2020-08-16 05:59:00
1.中国计算机学会推荐国际【 学术期刊 】 计算机体系结构 / 并行与分布计算 / 存储系统 (1)A类 序号 刊物简称 刊物全称 出版社 网址 1 TOCS ACM Transactions on Computer Systems ACM http://dblp.uni-trier.de/db/journals/tocs/ 2 TOS ACM Transactions on Storage ACM http://dblp.uni-trier.de/db/journals/tos/ 3 TCAD IEEE Transactions on Computer-Aided Design of Integrated Circuits And System IEEE http://dblp.uni-trier.de/db/journals/tcad/ 4 TC IEEE Transactions on Computers IEEE http://dblp.uni-trier.de/db/journals/tc/index.html 5 TPDS IEEE Transactions on Parallel and Distributed Systems IEEE http://dblp.uni-trier.de/db/journals/tpds/ (2)B类 序号 刊物简称 刊物全称 出版社

换脸新潮流:BIGO风靡全球的人脸风格迁移技术

三世轮回 提交于 2020-08-16 01:48:50
云栖号资讯:【 点击查看更多行业资讯 】 在这里您可以找到不同行业的第一手的上云资讯,还在等什么,快来! 引 1974年,我国的考古学家在陕西省西安市发掘出了兵马俑,并被其神态各异惟妙惟肖的面部表情所震撼。同年,一篇名为《A Parametric Model for Human Faces》论文迈出了人脸属性编辑这一领域的第一步。而半个世纪后的今天,BIGO自主研发的FaceMagic的换脸技术让你随心所欲地化身为兵马俑,世界名画,或者电影里的超级英雄, 产品一推出即风靡全球。 BIGO为了把这项创新技术带给全球用户,研发人员克服了各种挑战。技术挑战主要来源于三个方面:第一是人脸特征迁移技术,我们创新性地尝试把风格迁移的思路用于人脸特征迁移中,克服了当时主流的deep fake、 3D方案等技术的不足。 第二是全球化问题,因为BIGO用户来源于全球各地,为了解决不同人种的肤色、五官结构的差异问题,我们构建了千万量级的全球化的人脸数据集,极大地涵盖肤色、性别、年龄等差异性,力求把全球每一位用户的效果做到最佳 。第三是多属性,多场景的效果优化,我们在不断优化网络结构的同时尝试人脸属性、人脸姿态等约束,并大力提升大规模数据的训练效率,充分挖掘数据的多样性特征,把换脸效果做到更加鲁棒、真实、自然。FaceMagic仍在吸引越来越多人的参与,自上线以来,全球生产总量接近1亿。功能推出后

Spark 3.0.0正式版发布,开发近两年新增了哪些特性?

喜夏-厌秋 提交于 2020-08-15 07:34:37
原计划在2019年年底发布的 Apache Spark 3.0.0 赶在下周二举办的 Spark Summit AI 会议之前正式发布了! Apache Spark 3.0.0 自2018年10月02日开发到目前已经经历了近21个月! 这个版本的发布经历了两个预览版以及三次投票: 2019年11月06日第一次预览版,参见Preview release of Spark 3.0; 2019年12月23日第二次预览版,参见Preview release of Spark 3.0; 2020年03月21日 [VOTE] Apache Spark 3.0.0 RC1; 2020年05月18日 [VOTE] Apache Spark 3.0 RC2; 2020年06月06日 [vote] Apache Spark 3.0 RC3。 Apache Spark 3.0 增加了很多令人兴奋的新特性,包括: 动态分区修剪(Dynamic Partition Pruning); 自适应查询执行(Adaptive Query Execution); 加速器感知调度(Accelerator-aware Scheduling); 支持 Catalog 的数据源API(Data Source API with Catalog Supports); SparkR 中的向量化(Vectorization in

(一)OpenCV-Python学习—基础知识

主宰稳场 提交于 2020-08-15 01:44:49
  opencv是一个强大的图像处理和计算机视觉库,实现了很多实用算法,值得学习和深究下。 1.opencv包安装 ·  这里直接安装opencv-python包(非官方): pip install opencv-python    官方文档:https://opencv-python-tutroals.readthedocs.io/en/latest/ 2. opencv简单图像处理    2.1 图像像素存储形式     首先得了解下图像在计算机中存储形式:(为了方便画图,每列像素值都写一样了)     对于只有黑白颜色的灰度图,为单通道,一个像素块对应矩阵中一个数字,数值为0到255, 其中0表示最暗(黑色) ,255表示最亮(白色)          对于采用RGB模式的彩色图片,为三通道图,Red、Green、Blue三原色,按不同比例相加,一个像素块对应矩阵中的一个向量, 如[24,180, 50],分别表示三种颜色的比列, 即对应深度上的数字,如下图所示:          需要注意的是,由于历史遗留问题,opencv采用BGR模式,而不是RGB    2.2 图像读取和写入     cv2.imread() imread(img_path,flag) 读取图片,返回图片对象 img_path: 图片的路径,即使路径错误也不会报错,但打印返回的图片对象为None

Spark 3.0 新特性 之 自适应查询与分区动态裁剪

我的梦境 提交于 2020-08-14 22:39:47
Spark憋了一年半的大招后,发布了3.0版本,新特性主要与Spark SQL和Python相关。这也恰恰说明了大数据方向的两大核心:BI与AI。下面是本次发布的主要特性,包括性能、API、生态升级、数据源、SQL兼容、监控和调试等方面的升级。 本次主要整理了性能方面的优化,包括了自适应查询与动态分区裁剪。 1 自适应查询 AQE,Adaptive Query Execution,说的简单点就是让Spark在运行中根据搜集到的信息灵活采取优化手段,提升性能。 说起这个可以先回想下Spark的发展历史,在1.x时代Spark通过RDD的编程形成DAG图,这个阶段可以说没啥优化完全是按照规则来执行;在2.x时代,引入了代价计算,Spark会通过提前进行代价计算,选择代价最小的查询计划(跟大部分的数据库类似,代价计算依赖于数据本身的统计,如数据量、文件大小、分区数等,由于Spark是存储与计算分离的模式,因此这些统计信息有时候会缺失或者不准确,那么得到的查询代价自然也就不准确了);在3.x时代,引入自适应查询,即在运行的过程中可以根据得到的缓存数据信息动态调整分区策略、join策略等。这样就保证了刚开始表的统计信息不准,可能查询计划不是最高效的,但是随着查询的执行,可以动态优化整个查询计划。 那么到底自适应都可以做什么呢? 1.1 动态分区合并 在Spark的经典优化策略里