【无人驾驶笔记2.7-13】定位 Udacity无人驾驶 无人车
Udacity一个学期的课有三个分开的章节。前面分开记的笔记是关于追踪一个其他物体时候使用的Kalman滤波。后面两个章节分别讲的是汽车本身的定位问题和汽车的控制问题。因为每个session的干货都不多我打算定位和控制各记一份笔记。

无人车实际上有四个核心的内容。一是感知。普遍认为这是最难的部分。(举一个例子,如果感知完的抽象数据重新可视化给人类,人类能够正常开车不出事故,那么这个感知才到基本成功)然后是车辆定位。接着有路径规划。然后用控制尽量让汽车接近规划的路径。
后面第二个章节主要讲的是定位的内容。因为GPS不是很准。所以需要利用其他传感器将汽车的定位误差限制在10厘米。课里面说汽车的定位尤其重要,有好的定位汽车才不会掉下悬崖或者往奇怪的地方开。

汽车定位的时候,需要利用周边地图的很多feature point,比如树木石头或者屋子的角点。不过比较尴尬的是,在第一期的内容中并没有讲解这些feature point是怎么得到的。子煜之前说做VR动作捕捉的时候,三维关键点还是一个open的问题。不过我看这方面的文章也不多。不知道有没有人做

讲解这一章的是奔驰团队一个亚裔的妹子。根据我的观察长得有点像邵婧。

然后上次讲kalman滤波数学基础的stanford哥们又回来了。我才知道junior不是他名字而是他们车的名字。他们有两辆车分别参加了Darpa的第一个challenge和第二个城市的challenge。在城市challenge中定位有助于帮助他们能够让车成功走在车道线上

后面是他又去谷歌团队。

话说有时候路上会突然出现小动物

然后他又吐槽了一遍GPS定位不准。然后开始讲解一维的定位问题

因为一维粒子滤波在概率机器人那本书上讲的很清楚了。我打算抛弃公式的部分。仅解释这张图从上到下五行的内容。 第一行:假设一个走道上有一些门。第二行:一开始机器人在走道上瞎几把跑,所以他不知道自己在哪里,他以为自己的概率分布是均匀的。第三行:他跑着跑着看到一个门,因为只有在门附近会观测到门,一乘条件概率,有门地方的概率都增加了。第四行:机器人继续往前跑,概率的峰值部分会shift,并且每个mode的方差会增加一些。第五行:又看到一个门。那当前有门的那些peak会变得更高。我觉得这个问题其实写起来还挺简单的,可以考虑做明年校招笔试题。。

然后课程也花了很多时间来讲这个东西的离散模式,就是假设这个一维的通道被分成了离散隔点。
然后课程回到奔驰团地来讲解,奔驰团队的姐们又讲了一遍feature point的问题。然后说feature point很多看起来是一样的

然后又把一维的滤波讲了一遍。。

中间倒是提到了一个问题,如果持续采集LIDAR的数据,半天就可以有432G的数据,所以要用在线的滤波。不过其实不是很多啊。一天也就写一个硬盘。

中间有一个session叫motion model。发型和邵婧一样的姐们讲了一个自行车型的汽车模型

大致就是把前轮和后轮各自作为一个轱辘来考虑。

然后还讨论了一下里程计。

里程计在理想路面也是一种合适的测量汽车走了多少的传感器。不过在潮湿路面、以及过减速卡的时候,他的准确性要下降。会高估汽车走过的路程。

不过在五连发夹弯这种地方,里程计对于转弯的帮助很大。我觉得这个motion model的部分应该放在后面讲MPC的环节讲。因为后面又讲解了一遍一个更为复杂的模型,在下次笔记的时候记好勒。

另一方面这里讲到一个比较重要的问题,激光雷达会一次性得到很多个feature point。而地图上也有很多,这两者是怎么关联的,也就是我怎么知道一棵树是这棵树呢。这是个很复杂的问题。
激光雷达可能同时捕捉到非常多的目标。那么我们怎么拿这些目标来和地标做匹配呢。课程只讲了最近邻一种方法。但是最近邻实际上会有很多缺点。

比如雷达点多的时候associate的结果会很一般,最近邻的associate会忽视点对之间的逻辑。另一方面误差可能不是各项同性的。

(如果我们要自己解这些问题的话,第一点可能是给ladar结果做选择器,第三点其实是自然通过粒子滤波来缓解的,第五点可以考虑用复杂的度量。但是和第四点冲突,一般还是考虑选择器+kd tree最近邻搜索+粒子滤波吧)后面还稍微讲了一下激光雷达每个角度测量的误差不是各向同性的。

这个章节最后的作业似乎是写一个简单的二维定位。。