近年来,越来越多的公司和研究机构将其自动驾驶数据集向公众开放。然而,最好的数据集并不总是很容易找到,在互联网上搜索它们需要时间。 为了提供帮助,我们 SiaSearch 汇总了 15 个用于自动驾驶的开放数据集列表。下面的资源共同包含数百万个数据样本,其中许多已经注释。我们希望这份清单为您提供一个坚实的起点,让您了解该领域的更多信息,或开始您自己的自动驾驶项目。 自动驾驶项目的顶级开放数据集
奥迪自动驾驶数据集 (A2D2) 包含 41,000 多个标记为 38 个特征。总共大约 2.3 TB,A2D2 按注释类型(即语义分割、3D 边界框)进行拆分。
ApolloScape 是一个不断发展的研究项目,旨在促进自动驾驶各个方面的创新,从感知到导航和控制。通过他们的网站,用户可以探索各种模拟工具和超过 10 万个街景框架、8 万个激光雷达点云和 1000 公里的城市交通轨迹。
Argoverse 数据集包括 113 个场景的 3D 跟踪注释和超过 324,000 条用于运动预测的独特车辆轨迹。
DeepDrive 数据集也称为 BDD 100K,允许用户访问 100,000 个带注释的视频和 10 个任务,以评估自动驾驶的图像识别算法。该数据集代表了超过 1000 小时的驾驶体验,超过 1 亿帧,以及有关地理、环境和天气多样性的信息。
CityScapes 是一个大规模数据集,专注于对 50 个德国城市的城市街景进行语义理解。它具有语义、实例和密集像素注释,用于 30 个类别,分为 8 个类别。整个数据集包括 5,000 张带有精细标注的标注图像,以及另外 20,000 张带有粗标注的标注图像。
该数据集包括加利福尼亚州 280 号高速公路上记录的 33 小时通勤时间。每个 1 分钟的场景都是在圣何塞和旧金山之间 20 公里的高速公路路段上拍摄的。数据是使用逗号 EON 收集的,它具有面向道路的摄像头、手机 GPS、温度计和 9 轴 IMU。
Landmarks 数据集由 Google 于 2018 年发布,分为两组图像,用于评估人造和自然地标的识别和检索。原始数据集包含超过 200 万张图像,描绘了来自世界各地的 3 万个独特地标。 2019 年,Google 发布了 Landmarks-v2,这是一个更大的数据集,包含 500 万张图像和 20 万个地标。
Geiger 等人于 2012 年首次发布,KITTI 数据集的发布旨在通过一组新颖的真实世界计算机视觉基准来推进自动驾驶研究。作为有史以来最早的自动驾驶数据集之一,KITTI 拥有超过 4000 次学术引用和计数。
由流行的拼车应用 Lyft 发布的 Level5 数据集是自动驾驶数据的另一个重要来源。它包括超过 55,000 个人工标记的 3D 注释帧、表面图和底层高清空间语义图,由 7 个摄像头和多达 3 个可用于对数据进行上下文化的 LiDAR 传感器捕获。
由 Motional 开发的nuScenes 数据集是最大的自动驾驶开源数据集之一。该数据集使用完整的传感器套件(32 光束 LiDAR、6 个 360° 摄像头和雷达)在波士顿和新加坡录制,包含超过 144 万张摄像头图像,捕捉各种交通状况、驾驶机动和意外行为。 寻找更多数据集?在https://www./blog/best-open-source-autonomous-driving-datasets阅读整篇博文。 |
|