您好,欢迎访问三七文档
当前位置:首页 > 商业/管理/HR > 咨询培训 > 第2讲-初识SLAM
视觉SLAM十四讲从理论到实践高翔清华大学2016年冬第二讲初识SLAMChapter1:Introduction2第二讲初识SLAM理论部分3第二讲初识SLAM•本讲目标•理解一个视觉SLAM框架由哪几个模块组成,各模块的任务是什么。•搭建编程环境,为开发和实验做准备。•理解如何在Linux下编译并运行一个程序。如果它出了问题,我们又如何对它进行调试。•掌握cmake的基本使用方法。4第二讲初识SLAM•小萝卜的例子•对于移动机器人(Mobilerobots)•自主运动能力非常关键•轮子和电机•通讯•主要传感器:相机•为什么使用相机?•有眼睛、大脑和四肢的人类,能够在任意环境里轻松自在地行走、探索,我们(天真地)觉得机器人也能够完成这件事。5第二讲初识SLAM•Question自主运动两大基本问题•我在什么地方?——定位•周围长什么样子?——建图•机器人的“内外兼修”:定位侧重对自身的了解,建图侧重对外在的了解•相互耦合的两个问题•准确的定位需要精确的地图•精确的地图来自准确的定位6第二讲初识SLAM•HowtodoSLAM?——Sensors7两类传感器•安装于环境中的:•二维码Marker•GPS•导轨、磁条•携带于机器人本体上的•IMU•激光•相机第二讲初识SLAM•环境中的传感器限制了应用环境•需要环境允许使用GPS、允许贴marker•而SLAM强调未知环境•更重视携带式传感器8第二讲初识SLAM•相机•以一定速率采集图像,形成视频•分类•单目Monocular•双目Stereo•深度RGBD•其他鱼眼全景EventCamera,etc.9第二讲初识SLAM•相机的本质•以二维投影形式记录了三维世界的信息•此过程丢掉了一个维度:距离•各类相机主要区别:有没有深度信息•单目:没有深度,必须通过移动相机产生深度MovingViewStereo•双目:通过视差计算深度Stereo•RGBD:通过物理方法测量深度10第二讲初识SLAM11仅有一个图像时:•可能是很近但很小的物体•可能是很远但很大的物体它们成像相同必须在移动相机后才能得知相机的运动和场景的结构第二讲初识SLAM•当相机运动起来时•场景和成像有几何关系•近处物体的像运动快•远处物体的像运动慢•可以推断距离12第二讲初识SLAM•双目相机:左右眼的微小差异判断远近•同样,远处物体变化小,近处物体变化大——推算距离计算量非常大13第二讲初识SLAM•深度相机•物理手段测量深度•结构光ToF•主动测量,功耗大•深度值较准确•量程较小,易受干扰14第二讲初识SLAM•共同点•利用图像和场景的几何关系,计算相机运动和场景结构Motion&Structure•三维空间的运动和结构•图像来自连续的视频15第二讲初识SLAM•视觉SLAM框架•前端:VO•后端:Optimization•回环检测LoopClosing•建图Mapping16第二讲初识SLAM•视觉里程计VisualOdometry•相邻图像估计相机运动•基本形式:通过两张图像计算运动和结构•不可避免地有漂移•方法•特征点法第七讲•直接法第八讲17第二讲初识SLAM•后端优化•从带有噪声的数据中优化轨迹和地图状态估计问题•最大后验概率估计MAP•前期以EKF为代表,现在以图优化为代表第十、十一讲18第二讲初识SLAM•回环检测•检测机器人是否回到早先位置•识别到达过的场景•计算图像间的相似性•方法:词袋模型第十二讲19第二讲初识SLAM•建图第十三讲•用于导航、规划、通讯、可视化、交互等•度量地图vs拓扑地图•稀疏地图vs稠密地图20第二讲初识SLAM•SLAM问题的数学描述•离散时间:•小萝卜的位置:•小萝卜是从上一个时刻运动到下一个时刻的•运动方程:21𝑡=1,2,…,𝑘𝑥1,𝑥2,…,𝑥𝑘𝑥𝑘=𝑓𝑥𝑘−1,𝑢𝑘,𝑤𝑘输入噪声上一时刻•需要把它们都看成随机变量,服从概率分布第二讲初识SLAM•SLAM问题的数学描述•路标(三维空间点):•传感器在位置处,探测到了路标•观测方程:22𝑦1,𝑦2,…,𝑦𝑛𝑥𝑘𝑦𝑗𝑧𝑘,𝑗=ℎ𝑥𝑘,𝑦𝑗,𝑣𝑘,𝑗第二讲初识SLAM•两个基本方程:•Question:•位置是三维的,如何表述?——第三、四讲•观测是相机中的像素点,如何表述?——第五讲•已知u,z时,如何推断x,y?——第六讲23运动方程观测方程第二讲初识SLAM实践部分24第二讲初识SLAM实践部分•演示内容•安装Ubuntu•理解一个程序由哪些部分构成•HelloSLAM•头文件和库文件•使用IDE25
本文标题:第2讲-初识SLAM
链接地址:https://www.777doc.com/doc-4700391 .html