Spatial

京东城市时空数据引擎JUST亮相中国数据库技术大会

点点圈 提交于 2020-12-30 16:59:04
受疫情影响,第十一届中国数据库技术大会(DTCC 2020)从原定的5月份,推迟到了8月份,再推迟到了12月份。尽管如此,依然没有减退国人对数据库技术的热情。2020年12月21日-12月23日,北京国际会议中心人头攒动,各大厂商争奇斗艳。在NoSQL技术专场,京东智能城市研究院的李瑞远博士给大家带来了《京东城市时空数据引擎JUST的架构设计与应用实践》的主题报告,受到了大家的广泛关注。 李瑞远博士的个人简介:李瑞远,博士,京东城市时空数据组负责人,京东智能城市研究院研究员,京东智能城市事业部数据科学家,负责时空数据平台架构设计、时空索引与分布式相结合研究、时空数据产品的研发、以及时空数据挖掘在城市场景的落地等工作。加入京东之前,在微软亚洲研究院城市计算组实习/工作4年。研究兴趣包括:时空数据管理与挖掘、分布式计算和城市计算。在国内外高水平期刊和国际会议上发表论文20余篇,包括:KDD、Artificial Intelligence、ICDE、AAAI、TKDE、WWW、UbiComp、软件学报等。申请专利20余项。现为中国计算机学会(CCF)会员、CCF数据库专委会通讯委员、IEEE会员。先后担任多个国内外顶级会议或期刊的论文审稿人。 JUST简介:时空数据蕴含着丰富的信息,能够应用于各种城市应用。但时空数据更新频率高、数据体量大、结构复杂,难以被高效存储、管理和分析

CVPR 2020 论文大盘点-抠图Matting篇

拥有回忆 提交于 2020-12-29 12:50:57
抠图 (Image Matting)是一个非常有趣的领域,它的任务是对图像前景像素的不透明度(alpha 通道)进行计算,方便后续的图像合成编辑。 传统的Matting方法需要输入三色图(Trimap),如下: 该 图来自 :http://wangchuan.github.io/archive/projects/robust-matting/ 上图中第一行是原图,第二行是Trimap,Trimap用三个数值标识了三类区域:肯定是背景、肯定是前景和不确定,即图中黑、白、灰。 但近来Matting领域一大特征是越来越多的算法尝试无需输入Trimap的抠图,并有了非常惊艳的表现,这大大提高了Matting的易用性,CVPR 2020 三篇 Matting相关论文均如此。 在短视频应用持续爆发的当下,基于此类技术抠图再图像合成, 无需绿幕 即可实现 大片特效 的需求肯定会越来越多。 大家可以在: http://openaccess.thecvf.com/CVPR2020.py 按照题目下载这些论文。 如果想要下载所有CVPR 2020论文,请点击这里: CVPR 2020 论文全面开放下载,含主会和workshop [1].Background Matting: The World Is Your Green Screen 作者 | Soumyadip Sengupta, Vivek

aspp

喜你入骨 提交于 2020-12-18 14:05:34
用法:pc上20ms aspp = ASPP(320, [3, 6, 9]) input = torch.randn(2, 320, 10, 10) # torch.onnx.export(pelee_net, input, "pelee_net.onnx", verbose=True) for i in range(10): start=time.time() # x, *shortcuts = net(input) # print(time.time()-start,x.shape) start = time.time() x=aspp(input) print(2,time.time() - start, x.shape) from torch.nn import functional as F class ASPPPooling(nn.Sequential): def __init__(self, in_channels, out_channels): super(ASPPPooling, self).__init__( nn.AdaptiveAvgPool2d(1), nn.Conv2d(in_channels, out_channels, 1, bias=False), nn.BatchNorm2d(out_channels), nn.ReLU()) def

保边滤波之Mean shift filter

﹥>﹥吖頭↗ 提交于 2020-12-08 16:29:00
Mean shift filter 目录 Mean shift filter 一、算法原理 二、练手实现的算法代码如下: 三、实现结果 一、算法原理 在OpenCV中,meanshift filter函数为 pyrMeanShiftFiltering, 它的函数调用格式如下: C++: void pyrMeanShiftFiltering(InputArray src , OutputArray dst , double sp , double sr , int maxLevel =1, TermCriteria termcrit =TermCriteria( TermCriteria::MAX_ITER+TermCriteria::EPS,5,1) ) Parameters: src – The source 8-bit, 3-channel image. //三通道的输入图像 dst – The destination image of the same format and the same size as the source. //相同尺寸格式输出图像 sp – The spatial window radius. //空间域半径 sr – The color window radius. //颜色域半径 maxLevel – Maximum level of the

paper reading----Xception: Deep Learning with Depthwise Separable Convolutions

两盒软妹~` 提交于 2020-12-05 03:27:03
背景以及问题描述: Inception-style models的基本单元是Inception module。Inception model是Inception module堆砌而成,这与VGG-style network这种由简单的conv layer堆砌而成的网络不一样。虽然Inception modules在概念上还是卷积,用于卷积特征的提取,能够利用更少的参数来学习更加richer的表达。那么他们到底是怎么做到的呢?他们与regular convolution有什么不同呢?Inception之后应该跟那些strategies呢? Inception Hypothesis: 卷积层学习的是3D空间中的filters,两个spatial dimension,一个channel dimension。single filter kernel既要mapping cross-channel correlations,又要mapping spatial correlation。Inception背后的想法是将这个过程简化,使之更有效,采取的策略是,对cross-channel correlation mapping和spatial correlation mapping进行分离,首先通过1*1的conv探索cross-channel correlation

5G NR

血红的双手。 提交于 2020-11-26 10:49:04
Overview: //38.300-5.2.4(文字颜色与图中不同信号/信道对应) The S ynchronization S ignal and P B CH block (SSB) consists of primary and secondary synchronization signals ( PSS , SSS ), each occupying 1 symbol and 127 subcarriers , and PBCH spanning across 3 OFDM symbols and 240 subcarriers , but on one symbol leaving an unused part in the middle for SSS as show in Figure 5.2.4-1. The possible time l ocations of SSBs within a half-frame are determined by sub-carrier spacing and the periodicity of the half-frames where SSBs are transmitted is configured by the network. During a half-frame, different SSBs may be

论文笔记及代码复现:STGCN-基于图卷积时空神经网络在交通速度中的预测

独自空忆成欢 提交于 2020-11-14 08:01:21
1:论文信息 来自IJCAI 2018的一篇论文:《Spatio-Temporal Graph Convolutional Networks: A Deep Learning Framework for Traffic Forecasting 》 原始论文地址链接 Pytorch代码实现 1.1: 论文思路 使用Kipf & Welling 2017的近似谱图卷积得到的图卷积作为空间上的卷积操作,时间上使用一维卷积TCN对所有顶点进行卷积,两者交替进行,组成了时空卷积块,在加州PeMS和北京市的两个数据集上做了验证。论文中图的构建方法并不是基于实际路网,而是通过数学方法构建了一个基于距离关系的网络。 1.2: 摘要和引言总结 在交通研究中,交通流的基本变量,也就是速度、流量和密度( 实际中,还有排队长度,时间占有率,空间占有率,车头时距等多个变量 ),这些变量通常作为监控当前交通状态以及未来预测的指示指标。根据预测的长度,主要是指预测时间窗口的大小,交通预测大体分为两个尺度:短期(5~30min),中和长期预测(超过30min)。大多数流行的统计方法(比如,线性回归)可以在短期预测上表现的很好。然而,由于交通流的不确定性和复杂性,这些方法在相对长期的预测上不是很有效。 中长期交通预测上的研究可以分为两类:动态建模和数据驱动的方法 。 动态建模方法 :使用了数学工具(比如微分方程

【论文笔记】Strip Pooling: Rethinking Spatial Pooling for Scene Parsing

馋奶兔 提交于 2020-11-11 12:15:18
【论文笔记】Strip Pooling: Rethinking Spatial Pooling for Scene Parsing 模块代码 class StripPooling ( nn . Module ) : """ Reference: """ def __init__ ( self , in_channels , pool_size , norm_layer , up_kwargs ) : super ( StripPooling , self ) . __init__ ( ) self . pool1 = nn . AdaptiveAvgPool2d ( pool_size [ 0 ] ) self . pool2 = nn . AdaptiveAvgPool2d ( pool_size [ 1 ] ) self . pool3 = nn . AdaptiveAvgPool2d ( ( 1 , None ) ) self . pool4 = nn . AdaptiveAvgPool2d ( ( None , 1 ) ) inter_channels = int ( in_channels / 4 ) self . conv1_1 = nn . Sequential ( nn . Conv2d ( in_channels , inter_channels , 1 ,

【深度学习】视觉注意力机制 | 视觉注意力机制用于分类:SENet、CBAM、SKNet

Deadly 提交于 2020-11-08 14:18:17
前面的话 上次文章中,我们主要关注了 视觉应用中的Self-attention机制及其应用——Non-local网络模块 ,从最开始的了解什么是视觉注意力机制到对自注意力机制的细节把握,再到Non-local模块的学习。这次的文章我主要来关注 视觉注意力机制在分类网络中的应用 —— SENet、SKNet、CBAM。 我们通常将软注意力机制中的模型结构分为三大注意力域来分析: 空间域、通道域、混合域 。 (1) 空间域 —— 将图片中的的空间域信息做对应的 空间变换 ,从而能将关键的信息提取出来。对空间进行掩码的生成,进行打分,代表是Spatial Attention Module。 (2) 通道域 ——类似于 给每个通道上的信号都增加一个权重,来代表该 通道与关键信息的相关度 的话,这个权重越大,则表示相关度越高。对通道生成掩码mask,进行打分,代表是senet, Channel Attention Module。 (3) 混合域 —— 空间域的注意力是 忽略了通道域中的信息,将每个通道中的图片特征同等处理, 这种做法会将空间域变换方法局限在原始图片特征提取阶段,应用在神经网络层其他层的 可解释性不强 。 而通道域的注意力是 对一个通道内的信息直接全局平均池化,而忽略每一个通道内的局部信息 ,这种做法其实也是比较暴力的行为。所以结合两种思路,就可以设计出混合域的注意力机制模型。