基于图像语义分割的低速无人驾驶车
关键字:语义分割;神经网络;多传感器融合;无人驾驶
一、目的:
对于低速无人驾驶车辆,可通行区域检测大多使用雷达,这种方案成本高、处理数据量大,而传统图像识别算法识别准确性较低。
基于神经网络的语义分割可以对RGB相机获取的彩色图像进行处理,获得可通行区域,在保证系统识别效果的同时,大幅降低系统成本。同时,使用多传感器融合进行路径导航,实现系统的运行。
二、方法:
低速无人驾驶车使用RGB相机获取环境信息,使用空洞卷积神经网络(DCN)对图像进行处理,检测地面,识别出可通行区域。将识别出的图像信息与多传感器数据融合处理,规划出实际路径。
![](https://img.haomeiwen.com/i1314054/0cb9870f0f751f24.png)
使用DCN进行图像语义分割,使用Cityscapes街景数据库对神经网络进行训练,识别出地面区域。考虑到无人车的高度和相机的视场角,只对图片下半部分进行处理,之后通过颜色提取,获得地面区域,通过形态学处理,去掉噪声,对地面区域遍历求解横轴中心坐标点,所得点的连线为通行方向。
![](https://img.haomeiwen.com/i1314054/fb928c74735ffcd0.png)
GPS导航使用当前GPS坐标与目的地GPS坐标,结合地图进行路径规划,获得行驶路线。由于道路的限制,车辆只能沿着道路行走,需要电子罗盘判断朝向。之后使用图像语义分割进行可通行区域检测,确定行驶路径,避免在行驶过程中碰到障碍物。
![](https://img.haomeiwen.com/i1314054/d0be36794492c1a1.png)
三、结果:
本文将语义分割与多传感器融合结合在一起,具有较好的可行性,在图像识别过程中,使用空洞卷积神经网络替代全卷积神经网络,提高系统识别的准确率。在多传感器融合过程中,使用GPS进行定位,使用陀螺仪对电子罗盘获得磁场数据进行补偿,获得精确方向,最终实现系统运行。
![](https://img.haomeiwen.com/i1314054/90512823694a0041.png)
四、结论:
本文研究了基于空洞卷积神经网络的图像语义分割,获得可通行区域,通过GPS、电子罗盘、陀螺仪等多传感器融合,实现了低速无人驾驶车的导航和路径规划,在保障系统安全性与可靠性的同时,降低了系统的成本。值得注意的是,虽然可以通过RBG相机获得通路信息,但整个系统还缺乏对整个环境变量的感知,存在较大的改进空间。