关于论文翻译的一切
[图片上传失败...(image-6f792c-1593862843865)]
论文标题:GAPNet: Graph Attention based Point Neural
Network for Exploiting Local Feature of Point Cloud(用于点云局部特征提取的图注意力神经网络)
论文来源:arxiv2019
论文链接:https://arxiv.org/abs/1905.08705
1、背景
由于点云在非欧几里得空间中具有不规则和稀疏的结构,利用点云的细粒度语义特征仍然具有挑战性。在已有的研究中,PointNet提供了一种在无序三维点云上直接学习形状特征的有效方法,取得了较好的效果。然而,有助于更好的上下文学习的本地特性没有被考虑。同时,注意机制通过对邻近节点的关注,可以有效地捕获基于图的数据上的节点表示。本文提出了一种新的点云神经网络GAPNet,通过在多层感知器(MLP)层中嵌入图注意机制来学习局部几何表示。首先,我们引入了一个GAPLayer,通过在邻域上突出不同的注意权重来学习每个点的注意特征。其次,为了挖掘足够的特征,采用了多头机制,允许GAPLayer聚合来自独立头的不同特征。第三,我们提出了在相邻网络上使用注意力池层来捕获本地签名,以增强网络的鲁棒性。最后,GAPNet应用多层MLP层来关注特征和局部特征,充分提取局部几何结构。
2、方法
为了更好地地底完成形状分类和部分分割任务,学习非结构化点云的表示,提出了一种GAPNet模型,主要由三个模块组成,为GAPLayer (multi-head graph attention based point network layer)、attention pooling layer和整体网络框架
2.1、GAPLayer
2.1.1、局部特征学习
考虑到样本数量的点云可以非常大的在真实的应用程序(如自主车辆),允许每一个点上所有其他点会导致高计算成本和梯度消失问题由于非常小的权重分配上其他点每点。对中心点利用K-NN查找中心点的k近邻点,中心点与邻近点作为图的顶点,中心点与邻近点的连线作为图中的边。以此完成点云构图,如下所示:[图片上传失败...(image-45be07-1593862843865)]
2.1.2、GAPLayer 结构
[图片上传失败...(image-fa8354-1593862843865)]
2.1.3****、单头****GAPLayer
为了对不同的邻域给予不同的注意,我们提出了自注意机制和邻域注意机制来获取每个点对其邻域的注意系数,如图1所示。自注意机制通过考虑每个点的自几何信息来学习自系数,而邻域注意机制通过考虑邻域来关注局部系数。
注意力的计算与普通的注意力并无差距,具体计算方式不再介绍。多头的GAPLayer等于是单头注意力的重复,没有特别的差异。
2.2、注意力池化层
为了提高网络的鲁棒性和性能,我们在多图特征的相邻通道上定义了一个注意力池层。我们使用最大合用作为我们的注意力合用操作,它识别头部之间最重要的特征,以捕获局部签名表示Yi定义为7。局部签名连接到中间层以获取全局特征。
[图片上传失败...(image-800bc7-1593862843865)]
3、GAPNet 网络结构
架构类似于PointNet,架构之间有三个主要的区别。首先,我们使用一个注意感知的空间变换网络使点云对特定的变换不变性。其次,我们不是只处理单个点,而是在多层MLP层之前利用一个GAPLayer的局部特征。第三,利用注意力池层获取连接到中间层的局部签名。
[图片上传失败...(image-dc61c6-1593862843865)]
4、实验与分析
Modelnet40数据集上的分类任务和shapnet数据集上的部分分割任务
[图片上传失败...(image-3ef2d7-1593862843865)]
[图片上传失败...(image-d2532f-1593862843865)]
4、小结
在本文中,提出了一种基于图注意的点神经网络——GAPNet,用于学习点云的形状表示。实验表明,在形状分类和语义部分分割任务的最新性能。该模型的成功也验证了图注意网络在图节点相似性计算和几何关系理解方面的有效性。