OpenSLAM http://openslam.org/ FALKOLib(2D LIDAR) GMapping,GridSLAM(To learn grid maps from laser range data) tinySLAM(Laser-SLAM algorithm in 200 lines of C code) Unscented FastSLAM(Laser data, Matlab) EKFmonocularSLAM(Matlab) Linear SLAM(Matlab or Visual Studio) ROBOMAP Studio 2011(Visual Studio, EA optimizers) People2D(Realtime people detection in 2D range data)
ORB-SLAM
ORB-SLAM(一)简介 http://www.cnblogs.com/luyb/p/5215168.html 系列解析文章
orbslam2-导航(1)—原理 http://blog.csdn.net/_/article/details/ orbslam2构建的map是稀疏地图,有人说稀疏地图怎么导航,不是只有稠密map,至少是半稠密map才能navigation吗?
是的,要想navigation必须要有一个好的地图例如2D栅格地图,3D的octomap。博主的导航是基于记忆轨迹的方式来navigation的。
使用ORB_SLAM2进行全场定位 http://blog.csdn.net/u0/article/details/ 本篇博客讲介绍如何搭建ORB_SLAM2的运行环境,构建地图,加载离线地图并进行全场定位。
泡泡机器人公开课—第三十六课:ORB-SLAM2源码详解 by 吴博 http://rosclub.cn/post-505.html
ORB-SLAM2 代码+详细注释 https://git.oschina.net/paopaoslam/ORB-SLAM2/tree/master 吴博
Ubuntu 14.04 运行 ORB-SLAM2 http://qiqitek.com/blog/?p=55@
对orb-slam的评价 https://www.zhihu.com/question/ 半闲居士:orbslam2提供单目、双目和RGBD接口
Ubuntu上运行ORB-SLAM2 http://www.voidcn.com/blog/zhjm07054115/article/p-6062405.html
使用ORB_SLAM2进行全场定位 http://blog.csdn.net/u0/article/details/ state-of-art的结果,运行速度很快,新版ORB_SLAM2程序更加简洁,并且增加了localization mode功能。
ORB-SLAM2实现 http://blog.csdn.net/bbzz2/article/details/ 只用单目
视觉SLAM实战(一):RGB-D SLAM V2 http://www.cnblogs.com/gaoxiang12/p/4462518.html
ORB-SLAM2 http://blog.csdn.net/bbzz2/article/details/ 论文翻译
ORB-SLAM(五)优化 http://blog.csdn.net/bbzz2/article/details/
一起做RGB-D SLAM (1) http://www.cnblogs.com/gaoxiang12/p/4633316.html 系列实现文章 by 半闲居士
深度图像 RGB-D
普通图像 orb-slam2
3D SLAM
一种基于点一面匹配的3D-SLAM方法 http://www.docin.com/p-1322922851.html
基于旋转激光雷达的3D SLAM 实现 http://www.docin.com/p-1303281859.html
基于激光测距仪和RGBD摄像机的3D+SLAM系统 http://www.doc88.com/p-6611186717863.html 2D+3D地图,基于ROS
基于深度信息的仿生视觉模型快速RGB-D ICP算法研究
LOAM
loam_velodyne http://wiki.ros.org/loam_velodyne 3D激光SLAM
loam_continuous http://docs.ros.org/hydro/api/loam_continuous/html/files.html
Ji Zhang http://www.frc.ri.cmu.edu/~jizhang03/index.htm
loam_velodyne论文与代码解析 https://blog.csdn.net/nksjc/article/details/
Loam_velodyne(一) https://blog.csdn.net/zetan/article/details/ 代码解析
Loam_velodyne(二) https://blog.csdn.net/zetan/article/details/ 代码解析
LOAM–3D激光里程计及环境建图的方法和实现 https://zhuanlan.zhihu.com/c_
如何在Loam上跑velodyne32数据 https://www.zhihu.com/question/
基于loam_velodyne的64线激光数据可视化 https://blog.csdn.net/weixin_/article/details/
运行loam_velodyne时的步骤和存在的问题 https://www.cnblogs.com/chenbokai/p/7299069.html
LOAM中的坐标转换与IMU融合 https://www.cnblogs.com/ReedLW/p/9005621.html
LeGO-LOAM https://blog.csdn.net/_/article/details/
视觉惯性导航
惯性传感器辅助的立体视觉SLAM实现 http://d.wanfangdata.com.cn/Thesis/Y
一种单目视觉ORB-SLAM/INS组合导航方法 http://www.cnki.com.cn/Article/CJFDTOTAL-ZGXJ201605013.htm 导航时间6min,定位误差为1.162m,且不随时间漂移
融合视觉与惯性导航的机器人自主定位 http://www.qianluntianxia.com/lunwen/487/1129205.html 相关文献List
马赓宇:基于视觉+惯性传感器的空间定位方法 http://www.leiphone.com/news/201610/taExbGMOaYfbnnMw.html 硬创公开课
斯坦福研究生深度解读Magic Leap和Hololens技术上的异同 http://www.ctex.cn/article/quanzi/xegd/201511/20151100008279.shtml 目前最牛逼的3大科技技术趋势:无人车、虚拟现实、无人机;光靠视觉做主动定位,处理速度不高,且容易被遮档,定位鲁棒性不高,因而将视觉和惯性传感器融合是最近几年非常流行的做法。举例:Google Tango做IMU和深度摄像头的融合;大疆的无人机Phantom3或Inspire1将光流单目相机和无人机内的惯性传感器融合,在无GPS的情况下就能达到非常惊人的稳定悬停;Hololens专门定制了一个芯片做SLAM,算法据说一脉相承了KinectFusion的核心,定位效果很赞(面对白色无特征的墙壁站和跳,回到场中心后定位还是很准确,一点都不飘);3D Mapping and Dense SLAM:仅仅是带着设备走了一圈,就还原了整个办公室的3D地图,书架上的书都能重建的不变形。
以下是某公司该方向的招聘要求,参考之。
岗位—视觉惯性组合导航算法的开发—任职要求:
1、有过Visual SLAM开发经验;
2、熟悉部分以下算法:ORBSLAM、OKVIS、LSDSLAM、RGBDSLAM、RTabmap
3、熟悉RGBD摄像头、Fisheye摄像头、IMU
Others
RTAB-Map http://t.cn/Rx7XaJu 有论文链接;代码规范;针对大型环境;IntroLab每年都发ICRA和IROS
RT-SLAM https://www.openrobots.org/wiki/rtslam/
DSO初探 http://dwz.cn/53xquN 基于单目;已开源,有ROS版
SLAM by fly http://www.leiphone.com/news/201612/0TCtaBOIcFOIBN69.html costmap + graph search + Timed-Elastic-Band
SLAM_turtlebot with hokuyo http://blog.csdn.net/zyh/article/details/ Turtlebot的Gmapping是利用Kinect的深度信息模拟激光数据进行二维地图的构建,本文将传感器节点换成hokuyo的节点,并配置好相应的参考系与传感信息发布数据的话题。