访问AI主站
仿真场景数据
仿真场景数据包括人工编辑以及真实采集的场景,覆盖多种路型、障碍物类型以及道路环境,同时开放云端仿真平台,支持算法模块在多场景中并发在线验证,加速算法迭代速度。
自动驾驶虚拟场景
本场景集来自于人工编辑,构造了红绿灯十字路口、直行车道等多种场景集合,丰富的人工编辑场景,有助于快速验证算法的基础能力,加速迭代效率。
场景数量:101
实际道路真实场景
本场景集来自于真实道路采集,覆盖了城市道路中红绿灯十字路口、直行车道等多种场景,可高效验证算法在复杂真实场景中的处理能力,加速迭代效率。
场景数量:100
标注数据
标注数据是为满足深度学习训练需求,经人工标注而生成的数据,目前我们开放了多种标注数据,同时在云端配套提供相应的计算能力,供开发者在云端训练算法,提升算法迭代效率。
激光点云障碍物检测分类
提供三维点云标注数据,标注四类障碍物:行人、机动车、非机动车及其他,可用于障碍物检测和分类算法的研发和评测。
样例数据:121MB
红绿灯检测
提供了常见竖式红绿灯的图像数据。采集时段为白天,采集天气覆盖晴天、阴天和雾天,分辨率为1080P。
样例数据:88.1MB
Road Hackers
本数据集有两种主要类型数据,街景图像和车辆运动状态。街景图像提供车前图像,车辆运动状态数据则包括车辆的当前速度和轨迹曲率。
样例数据:6.6GB
基于图像的障碍物检测分类
数据采集涵盖城市道路和高速场景,由人工标注出四大类障碍物:机动车、非机动车、行人及静态障碍物,可用于视觉障碍物检测识别算法的研发和评测。
样例数据:108MB
障碍物轨迹预测
采样数据来源于多源传感器的综合抽象特征,每组数据提供62维车辆和道路相关信息,可用于障碍物行为预测算法的研发和评测。
样例数据:27KB
场景解析
数据包括了上万帧的高分辨率RGB视频和与其对应的逐像素语义标注,同时,提供了具有语义分割测量级别的稠密点云、紧急情况的立体视频以及立体全景图像。
样例数据:109.7GB
演示数据
目前我们开放了多种演示数据,覆盖了车载系统演示数据、自定位、端到端数据等模块数据,旨在帮助开发者调试各模块代码,确保Apollo最新开放的代码模块能够在开发者本地环境运行成功,通过演示数据体验各模块的能力。
车载系统演示数据
提供真实场景下采集的传感器数据(激光雷达点云数据、车辆线控数据等各车载模块的输出),可以用于调试Apollo车上主要模块。
样例数据:12.1GB
标定演示数据
提供车端标定数据采集工具生成的标定服务演示数据。数据包括一段约3分钟的HDL-64ES3的原始数据、组合惯导的相对运动信息,以及对应的md5校验和文件。
样例数据:560MB
端到端数据
提供输入的传感器原始数据和输出的决策控制指令。本期Apollo输入传感器的原始数据以图像为主, 输出的控制决策指令如方向盘角度、加速、刹车。
样例数据:156GB
自定位模块演示数据
提供相对轨迹、连续视频帧、深度神经网络模型。开发者可以通过本数据集了解自定位模块功能。
样例数据:237MB
多传感器融合定位数据
本数据集提供了时长为3分钟,总里程为3km的正常城市道路场景下的传感器数据,以及多传感器融合定位模块依赖的其它基础性数据,可用于多传感器融合定位模块的调试。
样例数据:4.0GB