车牌识别

基于图像的三维物体重建:在深度学习时代的最新技术和趋势综述之三维曲面解码...

微笑、不失礼 提交于 2020-10-12 04:03:07
点击上方“ 3D视觉工坊 ”,选择“星标” 干货第一时间送达 1. 三维曲面解码 基于体积表示的方法在计算上非常浪费,因为信息只在三维形状的表面或其附近丰富。直接处理曲面时的主要挑战是,网格或点云等常见表示没有规则的结构,因此,它们不容易适应深度学习体系结构,特别是使用CNN的体系结构。本节介绍用于解决此问题的技术,将最新技术分为三大类:基于参数化、基于模板变形和基于点的方法。 1.1 基于参数化的三维重建 与直接使用三角形网格不同,我们可以将三维形状X的表面表示为映射ζ:D→R 3 ,其中D是正则参数化域。然后,3D重建过程的目标是从输入I中恢复形状函数ζ。当D是3D域时,这类方法属于第4节中描述的体积技术。 这里,重点讨论D是正则2D域的情况,它可以是二维平面的子集,例如D=[0,1] 2 ,或者是单位球面,即D=S 2 。在第一种情况下,可以使用标准的2D卷积操作来实现编码器-解码器架构。在后一种情况下,必须使用球面卷积,因为域是球面的。 球面参数化和几何图像是最常用的参数化。然而,它们只适用于0属和盘状表面。任意拓扑的曲面需要切割成圆盘状的曲面片,然后展开成规则的二维区域。找到给定曲面的最佳切割,更重要的是,在同一类别的形状之间找到一致的切割是一项挑战。事实上,单纯地为形状类别创建独立的几何图像并将其输入深层神经网络将无法生成连贯的三维形状曲面。

通俗易懂的Harris 角点检测

半腔热情 提交于 2020-10-12 01:45:54
点击上方“3D视觉工坊”,选择“星标” 干货第一时间送达 Harris 角点检测 认为 特征点具有局部差异性 。 如何描述“特征点具有局部差异性”: 以每一个点为中心,取一个窗口,窗口大小为5*5或7*7像素大小。 这个 窗口描述了这个特征点周围的环境 。 如果这个特征点具有局部差异性,那么以这个特征点为中心,把窗口向360度任意一个方向移动,窗口的变化比较大,则这个特征点的周围环境变化比较大。 数学公式: (x,y):表示像素的位置。 :表示窗口内的每个像素。 w(x,y):表示 这个位置的权重。 若w=1,则说明窗口中所有的像素贡献是一样的。 若w设置为以这个特征点为中心的高斯, 高斯权重,说明距离这个特征点越近,权重越大;越往周围发散,权重越小。 I(x,y):表示(x,y)这个位置的像素值。如果是灰度图,I就是灰度值,如果是彩色图,I就是RGB值。 u和v表示窗口移动的方向。 I(x+u,y+v) - I(x,y):表示对应像素的灰度差异。 :在整个窗口内,即在局部环境内求这个像素灰度差异的加权和。 对 I(x+u,y+v) - I(x,y)进行一阶泰勒展开,得到 在(x,y)处的灰度值,再加上u方向和v方向的偏导数。 整理后,结果为: u和v表示窗口移动的方向, H表示Harris矩阵,主要由图像梯度表示。 对Harris矩阵进行特征分解: 得到两个特征值

视频中的车牌特征识别

我只是一个虾纸丫 提交于 2020-10-09 00:16:09
这里,没有直接采用之前的方案,是因为在设计的时候,发现直接采用颜色等直接特征提取然后进行二值化处理的方法,如果视频中出现颜色类似的区域,则很有可能错误的定位,例如在公交车中车牌区域范围和前窗以及部分的背景比较相似,直接采用这种方法会出错。 这里,定位的算法,我们使用的是HOG特征提取和Adaboost的算法进行定位。对应的程序为: 具体的原理如下所示: adaboost : http://www.doc88.com/p-211656392146.html http://www.doc88.com/p-908977169291.html hog : http://www.doc88.com/p-938477812496.html 上面的几个论文,是我们参考的几个比较好的资料。定位的仿真效果如下所示: 通过上面的步骤,我们能够对车牌整体范围进行定位,采用这种方法的缺点就是需要大量的样本进行训练才能够获得精度较大的训练结果。样本越多,精度越高。 步骤二:训练识别 之前给你的方案是使用SVM进行训练识别,后来考虑了一下,这里稍微变了下,采用BP神经网络进行训练识别,因为采用SVM只针对2分类识别,所以效果不佳,所以采用BP神经网络进行训练识别。 运行 得到如下结果: 步骤三:整体的车牌识别 通过上面的分析,我们所这里的整个算法流程如下所示: 最后仿真结果如下所示: 来源: oschina

杂乱场景中的尺度层次三维目标识别

久未见 提交于 2020-10-06 09:38:07
点击上方“3D视觉工坊”,选择“星标” 干货第一时间送达 论文标题 :Scale-Hierarchical 3D Object Recognition in Cluttered Scenes 作者: Prabin Bariya,Ko Nishino 论文地址: 在公众号「 3D 视觉工坊 」,后台回复「 三维目标识别 」,即可直接下载。 摘要 :三维目标识别在遮挡和杂乱场景中的是一项艰巨的任务。在本文中,引入一种利用几何尺度的可变性的方法来解决这一任务,其关键在于利用局部几何结构的尺度变化所提供的丰富判别信息来约束模型与场景点之间潜在对应的大量搜索空间,尤其是可以利用几何尺度的变异性来计算每个内在几何尺度的形式特征,还有由内在几何尺度集合后诱导的层次结构和局部尺度相关的三维形状描述符的辨别力,该方法以一种由粗到细的分层方式来利用增加的信息,从而有效地筛选所有潜在通信的空间。本文在大量的真实场景上实验评估了该方法的准确性与不同数量的部分遮挡,识别率较先进方法高,此外,尽管存在着全局尺度变化,本文也系统地演示了该方法能够准确定位目标。 一 、简介 三维目标识别旨在正确识别三维场景中的对象,通常要获得目标的深度图像,并估计其位置和每个对象的方向。三维场景是杂乱无章的,场景中的物体也存在相互遮挡,传统的三维物体识别方法一般包括两个阶段:特征提取和匹配。在特征提取阶段

实时的激光雷达点云压缩

…衆ロ難τιáo~ 提交于 2020-10-06 06:10:17
点击上方“ 3D视觉工坊 ”,选择“星标” 干货第一时间送达 论文阅读模块将分享点云处理,SLAM,三维视觉,高精地图相关的文章。 ● 论文摘要 实时压缩大量的激光雷达点云对于自动驾驶汽车等自动化机器至关重要。虽然目前大多数的工作都集中在压缩单个点云帧上,但是本文提出了一个新的系统,可以有效地压缩一系列点云。利用点云帧序列中的空间和时间冗余的思想。首先在点云序列中识别关键帧,然后通过迭代平面拟合对关键帧进行空间编码。然后我们利用连续点云在物理空间中有大量重叠的事实,因此空间编码的数据可以(重新)用于对时间流进行编码。利用空间编码数据进行时间编码,不仅提高了压缩率,而且避免了冗余计算,大大提高了压缩速度。实验表明,我们的压缩系统达到了40×90的压缩率,明显高于MPEG的LiDAR点云压缩标准,同时保持了较高的端到端应用精度。同时,我们的压缩系统的压缩速度与目前激光雷达的点云生成速率相匹配,并优于现有的压缩系统,实现了实时点云传输。 代码开源(有兴趣的可以测试后与我交流和分享): https://github.com/horizon-research/Real-Time-Spatio-Temporal-LiDAR-Point-Cloud-Compression ● 内容介绍 本文的压缩系统的思想是利用点云(空间)和点云(时间)之间的冗余。在空间上,现实世界中的许多曲面都是平面

最新:2021年度U.S.News美国大学排名发布,哈佛不是第一!

假如想象 提交于 2020-10-04 04:32:45
点击上方“3D视觉工坊”,选择“星标” 干货第一时间送达 9月14日,享誉全球的USNews2021美国大学排名正式出炉。今年发生了哪些变化? 主要变化 TOP10变化不大,除了一些名次上的微调外, 最大的改变就是加州理工和杜克大学的一进一出 。以加州理工大学的申请难度来看,即便不在前十,仍然让人望而却步,这次进入前十,也是顺理成章。 TOP20的变化实际也不多,康奈尔从17降到了18,但相信依然是无数学生的梦校。TOP30的变化较多,其中最大的亮点是 UCSB的回归以及佛罗里达大学的挺 进 。UCSB两年前来到前30后,去年降到34,今年归来,生命力顽强!不得不说的是大型公立学校UF,这几年排名稳步上升,为公立学校争光。 可惜的是 佐治亚理工从去年的29掉落到了35 ,不过大家千万不要认为申请难度也会随之降低。同样 跌出TOP30 的还有罗切斯特大学 ,看来想要坐稳前三十,还要继续努力,争取像UCSB一样知耻而后勇。 TOP40的排名变化明显,杜兰、BU、布兰迪斯、凯斯西楚大学都下降了1-2名,而降幅最大的要属今年排名49东北大学,再降就跌出前五十了,要加油! TOP50的学校中,几个公立学校有小幅度提升,包括UTA,UWM,UGA和UIUC。而迈阿密大学的回归,也让人欣慰,毕竟UM除了去年外,几乎都是TOP50的学校。 RPI持续性下跌,让人遗憾,希望随着下跌

建议给予导师决定硕博士能否毕业的自主权?教育部:将充分采纳!

半腔热情 提交于 2020-10-03 03:44:18
点击上方“3D视觉工坊”,选择“星标” 干货第一时间送达 来源 | 青塔 近日,教育部官网公布了《对十三届全国人大三次会议第9546号建议的答复》。针对人大代表提出的 关于完善高校研究生科研成果评价标准 的建议,教育部作出回应,并透露了对加强研究生教育质量管理、改革评价机制的相关举措及日后工作方向。 教育部表示,研究生教育是国民教育的顶端,博士、硕士学位代表着一定的学术水平,应有高要求和科学的评价标准。 导师是研究生培养第一责任人 ,是研究生培养质量的关键,要对研究生开展学术研究、写作发表论文、撰写学位论文进行严格把关,把学位论文的实质性创新作为评价学位论文质量的关键要素。 针对人大代表在提案中提出的“改革我国对博士生、硕士生毕业考核体制, 给予导师决定博士生、硕士生能否毕业的自主权 ,释放研发能量”的建议,教育部则表示, 该项建议具有十分重要的现实意义,对完善高校研究生科研成果评价标准具有很大启发 。下一步, 教育部将充分采纳此条建议 ,并进一步开展工作。 同时,教育部还透露,今年下半年将印发《研究生导师指导行为准则》,其中将明确规定研究生 导师要正确履行指导职责 、 合理指导研究生 学习、科研与实习实践活动,并综合开题、中期考核等关键节点考核情况, 提出研究生分流退出建议 。 原文如下: 对十三届全国人大三次会议第9546号建议的答复 教研建议〔2020〕14号 您提出的“

重磅!上海出落户新政:双一流应届硕士可直接落户!

末鹿安然 提交于 2020-10-03 03:41:06
点击上方“3D视觉工坊”,选择“星标” 干货第一时间送达 编辑丨科研大匠 9月23日,据上海学生就业创业服务网,上海市高校招生和就业工作联席会议制定的 《2020年非上海生源应届普通高校毕业生进沪就业申请本市户籍评分办法》 (以下简称《办法》)正式发布。《办法》提到, 博士、研究生符合基本申报条件既可落户。 “世界一流大学建设高校” 应届硕士毕业生、“世界一流学科建设高校”建设学科应届硕士毕业生,符合基本申报条件即可落户。 而中科院在沪各研究所、上海科技大学、上海纽约大学应届硕士毕业生参照“世界一流大学建设高校”执行。 此外,《办法》还明确提出,将之前“以 北京大学、清华大学 为试点,探索建立对本科阶段为国内高水平大学的应届毕业生,符合基本申报条件可直接落户”的政策,范 围扩大至在沪“世界一流大学建设高校”。 在沪“世界一流大学建设高校”包括 上海交通大学、复旦大学、同济大学、华东师范大学 ,因此 四校应届本科毕业生符合基本申报条件即可落户 。 这也意味着: 博士,双一流硕士,清华、北大、复旦、交大、同济、华东师大等六校的本科应届生 ,将都可以直接落户上海。 据办法透露,2020年标准分为72分,评分选项包括毕业生要素分,包括学历、毕业学校、学习成绩、外语水平、计算机水平等;以及导向要素,包括荣誉称号、学术、文体竞赛获奖、科研创新、国家就业项目服务期满等,还有用人单位要素分

人工智能的尽头是人工?

天大地大妈咪最大 提交于 2020-10-02 16:04:31
来源:CAA混合智能专委会 上个月出门,发现十字路口的交警和辅警人数明显增加了。我不禁有些诧异,近十年来,人工智能最成功和最有效的落地成果不就是安防和交通相关应用吗,而十字路口往往都是视频监控最密集的地方?既然如此,为什么还需要那么多警力呢? 除了定期上街执勤需要外,一个深层次的原因是,人工智能并不能百分之百包打天下。更极端情况下,人工智能的尽头可能是人工。 何出此言呢?其一原因是人工智能算法的评价准则。这里谈论两个指标,漏检率和误报率。第一个指标,漏检率是指本应发现却未被算法发现的问题,俗称假阴性。 以交通违章为例, 假阴性或漏检率意味着并非所有违章现象都能被有效发现 。在监控探头日益普及的今天,多数违章都已经能通过人工智能算法检测到。如早期研发的闯红灯、高速公路超速、占用高速应急车道等,中期研发的基于云台监控摄像机的三分钟路边违停、车牌遮挡等,和近年来的实线变道、市内禁鸣区域鸣笛等。然而,随着驾驶员的交通安全意识的提高,这些易于监控的违章现象正变得越来越少。以至于可以推测,在未来针对这类违章的监控可能会较难被触发,甚至 形同虚设 。那么,交管部门和相关研发的公司就必须深化监控系统的研究,将重心推向识别更为复杂的交通违章行为。比如恶劣天气或低照度情况下的低分辨车牌识别、非机动车的违章行为。然而,这些复杂的交通违章并不见得能通过人工智能算法获得很低的漏检率

一文详解手眼标定之九点法

风格不统一 提交于 2020-10-02 03:10:50
点击上方“ 3D视觉工坊 ”,选择“星标” 干货第一时间送达 来源: 新机器视觉 所谓 手眼系统 ,就是人眼镜看到一个东西的时候要让手去抓取,就需要大脑知道眼镜和手的坐标关系。如果把大脑比作B,把眼睛比作A,把手比作C,如果A和B的关系知道,B和C的关系知道,那么C和A的关系就知道了,也就是手和眼的坐标关系也就知道了。 相机知道的是像素坐标,机械手是空间坐标系,所以手眼标定就是得到像素坐标系和空间机械手坐标系的坐标转化关系。 在实际控制中,相机检测到目标在图像中的像素位置后,通过标定好的坐标转换矩阵将相机的像素坐标变换到机械手的空间坐标系中,然后根据机械手坐标系计算出各个电机该如何运动,从而控制机械手到达指定位置。这个过程中涉及到了图像标定,图像处理,运动学正逆解,手眼标定等。 常用的标定方法有:九点标定 九点标定: 九点标定直接建立相机和机械手之间的坐标变换关系。 让机械手的末端去走这就9个点得到在机器人坐标系中的坐标,同时还要用相机识别9个点得到像素坐标。这样就得到了9组对应的坐标。 由下面的式子可知至少需要3个点才能求出标定的矩阵。 (1)、标定,Halcon中进行9点标定的算子 (2)、求解 一些特殊情况的解释: 有些情况中我们看到相机固定在一个地方,然后拍照找到目标,控制机械手去抓取,这种就很好理解。我们也叫做eye-to-hand 还有一种情况是相机固定在机械手上面