相机

光场成像简介

风流意气都作罢 提交于 2020-03-09 04:57:41
创世纪之初,上帝说,要有光,于是,就有了光 我们所处的世界,其实就是一个充满光的世界,光线是这个世界最普通,最常见,最神奇的东西,无处不在,却又摸不着,物理学告诉我们,光是一种电磁波,而电磁波有电磁场,所以光,其实也有光场。 光场(Light Field)是空间中光线集合的完备表示,采集并显示光场就能在视觉上重现真实世界。全光函数(Plenoptic Function)包含7个维度,是表示光场的数学模型。全光函数可以表示为: L ( x , y , z , ϕ , θ , λ , t ) L(x,y,z,\phi,\theta,\lambda,t) L ( x , y , z , ϕ , θ , λ , t ) 其中, x , y , z x, y, z x , y , z 表示空间位置, ϕ , θ \phi, \theta ϕ , θ 表示方向, λ \lambda λ 表示波长, t t t 表示时间,我们最常见的摄影或者显示,主要利用了光线的位置和波长 L ( x , y , z , λ ) L(x,y,z,\lambda) L ( x , y , z , λ ) ,很少会用到光线的方向信息,要想完全捕获环境中所有光线的信息,这个数据量是非常庞杂的,斯坦福大学的 M.levory和P.Hanraham 将全光函数进行了简化,变成了的一种四维信号: L ( u , v , s

Entangle 2.0 “Sodium”正式发布

隐身守侯 提交于 2020-03-08 05:30:02
导读 Entangle是一款自由而开源的软件,可让您从 Linux 控制DSLR相机。 使用各种尼康和佳能数码单反相机,可以查看实时预览,自动下载图像,并通过USB连接将照片拍摄到相机。 自上次听到Entangle以来已经有一段时间,但今天标志着Entangle 2.0 “Sodium”发布。 Entangle 2.0将其GTK3工具包要求提升至GTK+ 3.22,对其Wayland支持进行了一些更新,提供了各种图像处理改进,以及从解决内存泄漏到处理其他代码问题的一些低级改进。 此版本中的更改包括: 需要gobject introspection >= 1.54 要求GTK3 >= 3.22 修复对libraw的依赖 修复photobox插件中的变量名称 记录一些缺少的键盘快捷键 修复直方图中的上限以显示剪切的像素 刷新翻译 选项以红色突出显示曝光的像素 禁用噪声编译器警告 删除使用已弃用的应用程序菜单概念 更改某些设置时修复图像重绘 更新appdaat中的邮件列表地址 向appdata内容添加更多字段 在窗口关闭期间修复引用计数 使用正确的API破坏顶级窗口 修复使用较新的gvfs URI命名方案卸载摄像头的问题 避免超出读取属性值的范围 修复了许多内存泄漏问题 组合框的解决方法不在Wayland上显示 修复构建枚举中的竞争条件 修复启动期间gschema目录的设置

相机的传感器

无人久伴 提交于 2020-03-06 16:37:15
提到数码相机,不得不说到就是数码相机的心脏—— 感光元件 。与传统相机相比,传统相机使用“胶卷”作为其记录信息的载体,而数码相机的“胶卷”就是其成像 感光元件 ,而且是与相机一体的,是数码相机的心脏。感光器是数码相机的核心,也是最关键的技术。数码相机的发展道路,可以说就是感光器的发展道路。目前数码相机的核心成像部件有两种:一种是广泛使用的CCD(电荷藕合)元件;另一种是CMOS(互补金属氧化物导体)器件。    感光元件 工作原理   电荷藕合器件图像传感器CCD(Charge Coupled Device),它使用一种高感光度的 半导体材料 制成,能把光线转变成电荷,通过 模数转换器 芯片转换成数字信号,数字信号经过压缩以后由相机内部的 闪速存储器 或内置硬盘卡保存,因而可以轻而易举地把数据传输给计算机,并借助于计算机的处理手段,根据需要和想像来修改图像。CCD由许多感光单位组成,通常以百万像素为单位。当CCD表面受到光线照射时,每个感光单位会将电荷反映在组件上,所有的感光单位所产生的信号加在一起,就构成了一幅完整的画面。   CCD和传统底片相比,CCD 更接近于人眼对视觉的工作方式。只不过,人眼的视网膜是由负责光强度感应的杆细胞和色彩感应的锥细胞,分工合作组成视觉感应。 CCD经过长达35年的发展,大致的形状和运作方式都已经定型。CCD 的组成主要是由一个类似马赛克的网格、

相机成像原理与数学模型

别说谁变了你拦得住时间么 提交于 2020-03-04 12:23:35
相机的成像结果可以抽象为一个小孔和一个平面,用小孔成像模型描述。 三维世界的光线经过小孔即光心到达成像平面,形成二维投影。以相机的光心O为原点, X c X_c X c ​ 、 Y c Y_c Y c ​ 、 Z c Z_c Z c ​ 为坐标轴组成相机坐标系;以成像平面的中心 O ′ O' O ′ 为原点, x ′ x' x ′ 、 y ′ y' y ′ 为坐标轴组成图像坐标系。成像过程即为相机坐标系下的三维点变换为图像坐标系下的二维点的过程。 假设P为三维空间中一点。在相机坐标系下,其坐标为 P = [ X , Y , Z ] T P = [ X,Y,Z]^T P = [ X , Y , Z ] T ;在图像坐标系下为点 p p p ,其坐标为 p = [ x , y ] T p = [x,y]^T p = [ x , y ] T 。 连接O 、O ’ 与光轴重合,且与成像平面垂直,则p在相机坐标系下 p = [ x , y , z ] T p = [x,y,z]^T p = [ x , y , z ] T ,其中 z = f z = f z = f , f f f 表示相机的焦距。仅考虑水平和光轴方向,模型抽象为一组相似三角形。 由几何关系: Z f = X x = Y y \frac{Z}{f} = \frac{X}{x} = \frac{Y}{y} f Z ​ = x X

如何选择一款好的智能车牌识别相机

喜欢而已 提交于 2020-03-03 17:06:14
在门店出入口安装易泊车牌识别相机,在车辆来到入口的时候可以通过识别到的车牌,上传给门店管理系统,第一步先传输到前台系统,让前台员工第一时间获取动向。如果有会员信息的话,还可以调取客户的资料,了解到之前应用的情况。 车牌识别、VIN码识别、行驶证驾驶证识别贯穿全过程针对汽车4S店,通过集成汽车VIN码识别,与汽车保险对接,方便保险信息录入。 一款好的车牌识别相机具备哪些与众不同的特点呢 1、丰富识别模式:文通车牌识别相机除了常见的地感识别、视频识别模式,还具有视频+地感识别模式,这种方式是前两种模式的升级版,视频+地感识别模式是通过视频识别方式进行识别,然后再通过地感触发方式进行上传。相比较地感线圈识别和视频识别模式,视频+地感识别模式能够提供更快的识别速度和更高的识别率; 2、可通过软件划定识别区域和输出区域,根据安装现场环境,自由设置车牌输出的位置,可以解决跟车被识别,火过早输出的问题。当无牌车行驶到输出区域,轻松记录无牌车信息; 3、车牌识别相机镜头自动调焦功能,通过演示DEMO,只需轻轻一点,便可自动聚焦,避免手动调焦的繁琐步骤和调焦不准带来的识别率下降; 4、车牌识别相机补光灯亮度调节功能:通过演示DEMO,可以随意调节补光灯亮度,适合各种光线条件下的环境,分为两种模式: a)闪光调节:地感识别模式下使用,共10个档位; b)低亮调节:视频识别模式下使用,共5个档位; 5

深度相机技术之三:原理揭秘之-双目立体视觉

元气小坏坏 提交于 2020-03-03 01:24:17
为什么非得用双目相机才能得到深度? 双目立体视觉深度相机的工作流程 双目立体视觉深度相机详细工作原理 理想双目相机成像模型 极线约束 图像矫正技术 基于滑动窗口的图像匹配 基于能量优化的图像匹配 双目立体视觉深度相机的优缺点 --------------------------------------------------- 基于双目立体视觉的深度相机类似人类的双眼,和基于TOF、结构光原理的深度相机不同,它不对外主动投射光源,完全依靠拍摄的两张图片(彩色RGB或者灰度图)来计算深度,因此有时候也被称为被动双目深度相机。比较知名的产品有STEROLABS 推出的 ZED 2K Stereo Camera和Point Grey 公司推出的 BumbleBee。 ZED 2K Stereo Camera 为什么非得用双目相机才能得到深度? 说到这里,有些读者会问啦:为什么非得用双目相机才能得到深度?我闭上一只眼只用一只眼来观察,也能知道哪个物体离我近哪个离我远啊!是不是说明单目相机也可以获得深度? 在此解答一下:首先,确实人通过一只眼也可以获得一定的深度信息,不过这背后其实有一些容易忽略的因素在起作用:一是因为人本身对所处的世界是非常了解的(先验知识),因而对日常物品的大小是有一个基本预判的(从小到大多年的视觉训练),根据近大远小的常识确实可以推断出图像中什么离我们远什么离我们近

相机里的内存卡无法访问?可能是这些原因导致的

北慕城南 提交于 2020-03-02 11:38:25
很多人都有属于自己的相机,在使用操作发生的相机内存卡无法访问情况该怎么处理呢?导致内存卡无法访问的原因有哪些?这篇文章都会告诉你! 想要从单反相机里导出图片,直接“剪切”?内存不够用,直接“格式化”?这些方式你是不是也在经常用?但是想要告诉大家的是,经常这样操作就容易无法访问内存卡。 内存卡显示无法访问的原因? 1.内存卡没有正确安装或没有安装,取出内存卡,重新安装。 2、内存卡金属触点氧化,取出清洁后,重新安装测试。 3、内存卡质量有问题,更换新的内存卡。 正确的操作方式有哪些? 1.在转移存储卡里的资料时,一些用户喜欢用“剪切”而不是“复制”操作,因为这样能节省一步“拷贝完成后删除原文件”的操作。出于保险起见,还是分成复制-粘贴再删除原文件的两步来操作,顺便再检查一下拷过去的文件和原文件大小是不是一样。 2.不少相机支持“机内后期”,对图片进行裁剪、调色等处理,但这其实是个反复写入、删除数据的过程,对延长存储卡寿命没好处。 3.在换卡过程中,部分群众喜欢在不关机的情况下直接拔卡。这种行为无论对相机还是卡,都是一种伤害。 4.存储卡对存放环境也有一定的要求。尽量避免高温、高磁、高湿度的环境,也不要将存储卡乱塞,否则容易变形,甚至折断。 内存卡显示无法访问的快捷解决方法? 1.利用数据线将相机与电脑连接读取,有些相机可能需要安装驱动程序; 取下内存卡放入电脑的读卡器直接读取

机器视觉

只谈情不闲聊 提交于 2020-03-01 03:13:36
相机标定---初识相机标定 标定的含义,意义 https://blog.csdn.net/KillMeHealMe/article/details/81192685 (可用ROS 中提供的相机标定包对相机进行标定) 基于目标检测的实时单目测距 https://zhuanlan.zhihu.com/p/42085600 最详细的目标检测SSD算法讲解 https://blog.csdn.net/u010712012/article/details/86555814 Pascal voc 2012 数据集简介 https://blog.csdn.net/qq_36685744/article/details/85704371 来源: CSDN 作者: 被窝里的奶油卷 链接: https://blog.csdn.net/weixin_41769570/article/details/104577477

从5个经典工作开始看语义SLAM

a 夏天 提交于 2020-03-01 02:37:48
本文试图概括Semantic SLAM的主要思路和近年工作,⻓期更新。但因水平有限,若有错漏,感谢指正。 (更好的公式显示效果,可关注文章底部的公众号) Semantic SLAM 简介 至今为止,主流的 SLAM 方案 [1] 基于处于像素层级的 特征点 ,更具体地,它们往往只能用 角点或边缘 来提取路标。人类 是通过物体 在图像中的运动来推测相机的运动,而 非特定像素点 。 Semantic SLAM 是研究者试图利用物体信息的方案,其在Deep Learning的推动下有了较大的发展,成为了相对独立的分支,就方法(非设备)而言,其在整个SLAM领域所处位置如下图: 目前而言,所谓 Semantic 是将基于神经网络的 语义分割、目标检测、实例分割等技术 用于 SLAM 中,多用于特征点选取、相机位姿估计,更广泛地说,端到端的图像到位姿、从分割结果建标记点云、场景识别、提特征、做回环检测等 使用了神经网络的方法 都可称为 Semantic SLAM [2] 。 语义和 SLAM 的结合的体现有以下两点 [3] : SLAM 帮助语义。 检测和分割任务都需要大量的训练数据,在 SLAM 中,由于我们可以估计相机的运动,那么各个物体在图像中位置的变化也可以被预测出来, 产生大量的新数据为语义任务提供更多优化条件 ,且节省人工标定的成本。 语义帮助 SLAM。 一方面

深度相机选取建议:

。_饼干妹妹 提交于 2020-02-27 08:41:50
之前在学校做的一个项目需要用到深度相机。 比较纠结的是TOF深度相机还是结构光相机的选取,(双目匹配的那种深度相机太慢了,不在考虑范围内) 从精确度来说TOF相机比结构光精确很多,至少目前来看是非常多。 上图可以很明显的看出两者的精度差距,TOF中的点云平面基本是一个平面,而结构光的凹凸不平,偏差很大。 从分辨率来看结构光的大一点。(但是不够精确) 来源: CSDN 作者: 溯夜流云 链接: https://blog.csdn.net/weixin_42067304/article/details/104526157