赛题详情(ASAPS)

对无人驾驶车而言,最重要的是能够理解周围环境并做出相应决策,保证行车安全。参赛者需要努力找到通过摄像头和 LIDAR 数据检测道路上的障碍物的最好方法。最终的系统应该能够识别行人、车辆和普通障碍物,对人类驾驶员和无人驾驶系统都有很大帮助。参赛者需要处理 LIDAR、RADAR及摄像头原始数据,输出障碍物位置、移除噪音和环境错误检测。参赛者可以利用已经较为完善的 Kitti 数据集,在现有技术的基础上,加入自己的新方法和手段,来让算法获得更好表现。
我们将使用 Udacity 的 Intersection over Union (IoU) 评估标准,参赛者在此标准下获得的分数越高越好。大赛组委会将设立挑战赛专用排行榜,我们还将使用标准对象检测开发包开评估参赛者的代码方案,就像在学术界和工业届所做的那样。

阶段内容

第一阶段 - 车辆
在第一阶段,我们将向参赛者提供在一辆行进中的汽车上通过多个传感器采集的原始数据。参赛者需要识别出车辆行进道路上的一个移动障碍物的位置。
第二阶段 - 车辆,行人
在第二阶段,除障碍物外,参赛者还需要识别出车辆行进道路上的行人,并得出障碍物和行人的大小和大致运动方向。

数据集/输入

训练数据将会镜像 Kitti 数据集。如下是摘自 Kitti 原数据网站关于可用数据的详细描述。请注意,虽然大赛组委会发布的数据集与 Kitti 数据集接近,但会有一些改动:仍会有 Radar 数据,图像数据由一个面向正前方的单眼摄像头拍摄。我们还会针对挑战赛的具体情况,对数据格式做一定修改。参赛者应当努力寻求挑战赛问题的最优解决方案,而不是过拟合 Kitti 数据集的已有解决方案。
数据集格式为 ROS 包文档,包括以下信息:
参赛者可使用此脚本来同步数据,令数据更加接近 Kitti 格式。这个脚本可以把障碍物和数据收集车辆的位置插入到摄像头图像帧中,最终得到 XML tracklet 文档。

第一阶段数据

以下是已发布的第一阶段数据集:

说明

由于在第一阶段,我们并不评估障碍物运动方向,因此我们使用一个圆球形边界框 IOU 来最小化方向的影响。也就是说,对所有参赛者而言,重叠不会很严重,且是统一的。
校准包可以在这里下载。参赛者可使用这个包校准不同传感器来源的数据。

第二阶段数据集

以下是已发布的第二阶段数据集:

说明

要求与条件

使用以上所提供的数据,参赛者需要满足以下要求:

提交,评估和评审标准

我们将使用在竞赛文档说明的 Intersection over Union (IoU) 评估标准,对参赛者提交的代码进行自动评估。查看 竞赛文档
要正式参与第一阶段和第二阶段的比赛和评审,你必须提交一个与图像帧同步后的 tracklet XML 文件,该文件代表了你对测试数据集的处理结果。第一阶段开放提交后,这个 XML 文件是用于量化方案优劣、决定团队排名的唯一指标。
要成功晋级第二阶段,参赛团队必须在第一阶段提交截止前,提交其预测代码和 ROS 节点。大赛组委会进行对其检查,不过,并不需要计算实时代码评估得分。
在 Udacity 山景城总部举行的决赛上,参赛团队需要提交一个 ROS 包/节点;它可以处理输入的摄像头图像,Radar 和 LIDAR 数据,得到的结果与你在排行榜上的结果相同。Python 和 C/C++ ROS 节点均被接受,但如官方规则所述,必须为实时的结果。
在这个 GitHub 代码库中,你可以找到开始构建你的算法方案所需的相关数据和代码。要从已经公布的数据集生成 XML tracklet 文档(标记数据),请查看  /tracklet 文件夹中的 Docker 代码。要了解传感器转换信息,请前往  /mkz-description 文件夹。
请注意,你需要对代码做些修改,才可以将其用于数据集 1 以生成 XML tracklet 文档。因为我们在数据收集车辆上新安装了 RTK GPS 接收器,以确定障碍物运动方向。我们会在4月4日前发布工具,用于数据集 2 及确定运动方向。

资源

起步指南
这些我们已经开源的项目可能对你会有帮助: