激光雷达

机器人ROS系统学习随笔->2 RPLIDAR激光雷达使用

匿名 (未验证) 提交于 2019-12-03 00:06:01
一、驱动的安装。 SLAMTEC官网下载激光雷达资料: http://www.slamtec.com/ 本人用的是RPLIDAR-A1的激光雷达 在下载界面下载相应的资料,sdk与固件及其他。 二、安装。 1、建立工作空间并编译(也可以使用现有的空间)。 mkdir - p ~ /turtlebot_ws/ src cd ~ /turtlebot_ws/ src git clone https : //github.com/ncnynl/rplidar_ros.git 2、编译(返回上层)。 cd .. catkin_make 3、添加环境变量(也可以直接在~/.bashrc中设置,在下次打开时就不用在设置了)。 echo “ source ~ /turtlebot_ws/ devel / setup . bash ” >> ~/. bashrc 4、端口配置。 检查端口权限 ls - l / dev | grep ttyUSB 赋予端口权限 sudo chmod a + rw / dev / ttyUSB0 三、运行。 1、打开roscore roscore 2、进入工作空间运行rplidar和rviz cd ~/ turtlebot_ws . devel / setup . bash roslaunch rplidar_ros view_rplidar . launch

【新品发布】智能驾驶实车测试系统-VDAS

纵饮孤独 提交于 2019-12-02 18:54:16
智能驾驶技术的迭代研发,需要多种传感器、海量数据、海量场景的支撑。而目前多种传感器Gbit/s级别的数据同步采集、海量数据的快速分析和评估、关键场景的切片和提取,是业界公认的棘手问题。 为了解决上述的棘手问题,经纬恒润推出了智能驾驶实车测试系统——VDAS。VDAS主要由数据采集设备、环境感知系统、数据分析软件VDA组成。 数据采集设备 数据采集设备由车载工控机、多种数据采集板卡、传感器、车载显示屏等组成。通过配套的数据采集软件,实现各类车载总线数据、感知数据的采集,适配CAN/CANFD、以太网、车载以太网、USB、串口等各类常用接口。 感知系统 通过激光雷达、高清网络摄像头、组合导航传感器,并结合先进的环境感知算法和传感器融合算法,可以精确地感知周围环境信息,包括周围交通参与者的类别、距离、速度、加速度、航向角等,以及周围交通标志的距离、类型、颜色等,对于车道线检测,还可以检测是否越线,以及统计压线次数等。 下面的动图为在城市快速路场景,激光雷达通过多目标跟踪、机器学习分类等算法输出的感知效果。 激光雷达感知 为了减少单个传感器的检测不确定度,系统采用激光雷达+摄像头的信息融合方案,结合激光雷达高精度与摄像头信息丰富的特点,最终融合效果如下图所示。 激光雷达+摄像头传感器融合 通过相机标定与图像特征提取,系统可以识别出车道线信息,具体包括车道线类型、与车道线距离

【笔记】apollo无人驾驶 - 百度技术学院

给你一囗甜甜゛ 提交于 2019-12-02 14:56:24
文章目录 【笔记】apollo无人驾驶 - 百度技术学院(只记录了高精地图+感知) 0. 视频链接: 1. 知识点 HD Map 高精地图(lidar 采集的) 定位 传感器 传感器融合 2. apollo 技术框架 3. 研发流程 4. 高精地图 5. 感知 【笔记】apollo无人驾驶 - 百度技术学院(只记录了高精地图+感知) 0. 视频链接: https://www.bilibili.com/video/av56529220/?p=43 1. 知识点 HD Map 高精地图(lidar 采集的) HD Map: 车道线级别,含红绿灯位置,交通标志位置类别信息。 Intensive Map: 含静态障碍物、电线杆、树。 定位 GPS: 全球定位系统,米级别; RTK:架基站一样的定位站,10cm 级别; IMU:惯性导航,提供加速度等信息; 几何定位:根据周围的环境信息类定位,如隧道场景中 传感器 lidar 激光雷达:波长是纳米级别的,发出的是激光束,基本沿实现传播,不能绕过雾霾,雨滴。感知和建地图都会用到激光雷达。 radar 雷达:全天候的, 摄像头: 毫米波雷达:波长毫米级别,检测距离不够远,倒车使用。 传感器融合 摄像头、激光雷达、毫米波雷达:不同传感器中的对同一个目标感知出的数据不同,最后融合做分割、分类、跟踪。 2. apollo 技术框架 框架分四层: 3.

机器人ROS系统学习随笔->2 RPLIDAR激光雷达使用

老子叫甜甜 提交于 2019-11-29 17:12:05
一、驱动的安装。 SLAMTEC官网下载激光雷达资料: http://www.slamtec.com/ 本人用的是RPLIDAR-A1的激光雷达 在下载界面下载相应的资料,sdk与固件及其他。 二、安装。 1、建立工作空间并编译(也可以使用现有的空间)。 mkdir -p ~/turtlebot_ws/src cd ~/turtlebot_ws/src git clone https://github.com/ncnynl/rplidar_ros.git 2、编译(返回上层)。 cd .. catkin_make 3、添加环境变量(也可以直接在~/.bashrc中设置,在下次打开时就不用在设置了)。 echo “source ~/turtlebot_ws/devel/setup.bash” >> ~/.bashrc 4、端口配置。 检查端口权限 ls -l /dev |grep ttyUSB 赋予端口权限 sudo chmod a+rw /dev/ttyUSB0 三、运行。 1、打开roscore roscore 2、进入工作空间运行rplidar和rviz cd ~/turtlebot_ws . devel/setup.bash roslaunch rplidar_ros view_rplidar.launch 这时就可以看到激光雷达工作的界面了。 来源: https://www

卡尔曼滤波器

♀尐吖头ヾ 提交于 2019-11-28 10:46:38
假设有个小车在道路上向右侧匀速运动,我们在左侧安装了一个测量小车距离和速度传感器,传感器每1秒测一次小车的位置s和速度v,如下图所示。 我们用向量xt来表示当前小车的状态,该向量也是最终的输出结果,被称作状态向量(state vector): 由于测量误差的存在,传感器无法直接获取小车位置的真值,只能获取在真值附近的一个近似值,可以假设测量值在真值附近服从高斯分布。 如下图所示,测量值分布在红色区域的左侧或右侧,真值则在红色区域的波峰处。 由于是第一次测量,没有小车的历史信息,我们认为小车在1秒时的状态x与测量值z相等,表示如下: 公式中的1表示第1秒。 预测是卡尔曼滤波器中很重要的一步,这一步相当于使用历史信息对未来的位置进行推测。 根据第1秒小车的位置和速度,我们可以推测第2秒时,小车所在的位置应该如下图所示。 会发现,图中红色区域的范围变大了,这是因为预测时加入了速度估计的噪声,是一个放大不确定性的过程。 根据小车第一秒的状态进行预测,得到预测的状态xpre: 其中,Pre是Prediction的简称;时间间隔为1秒,所以预测位置为距离+速度*1;由于小车做的是匀速运动,因此速度保持不变。 在第2秒时,传感器对小车的位置做了一次观测,我们认为小车在第2秒时观测值为z2,用向量表示第2秒时的观测结果为: 很显然,第二次观测的结果也是存在误差的

初始ROS之学习汇总

丶灬走出姿态 提交于 2019-11-28 08:15:06
准研一,暑假在北京一家公司实习,初步学习ROS,在公司里测试了许多机器人,在这里汇总分享一下,实习了俩月虽然学到了满多东西,但觉得自己也不算完全入门,只是对ROS有了初步的了解,实习到现在我掌握的最重要的一个技能应该就是自主学习能力了,Github ros.wiki等网站的学习以及资料查询能力;认识到自己最严重的不足是编程能力,ROS中大多使用c++和python,在初步入门之后尝试开发以及创新时编程能力成了我最大的障碍。 下面是一些自己接触的机器人,大都只是测试了其功能,基础中的基础… KINOVA 在公司里使用的是KINOVA JACO2系列的机械手臂,JACO系列总共有三种类型:按自由度分为4DOF, 6DOF, 7DOF三种;夹抓分为2指和3指;手腕有类型有球型和非球型等等。在功能包中的表示方式为:例j2n7s300表示JACO二代腕部非球型的7自由度3指机械臂。 KINOVA控制方式: 手柄控制 , GUI界面控制(与手柄相似) ROS功能包控制,MoveIt!(功能包地址 https://github.com/Kinovarobotics/kinova-ros)功能包内容较多,需要更加深入研究 机械臂通用:moveit_setup_assistant配置机械臂,控制真实机械臂时需要ros_control功能包(参考http://www.guyuehome.com/890