KITTI 데이터 셋은 다양한 computer vision 분야에서 사용되는 공인된 데이터 셋입니다. 다양한 Computer Vision Task에서 대표되는 데이터 셋이라 한번 정리할 필요가 있어 이렇게 글을 쓰게 됐습니다. (본인 공부 및 기록용)😁

KITTI 데이터 셋

KITTI 데이터셋은 자율주행차 연구를 위해 2012년에 처음 공개된 데이터셋으로, 독일의 카를스루에 공과대학교(University of Karlsruhe)와 도요타 기술 연구소(Toyota Technological Institute)에서 제공하고 있습니다. KITTI는 실제 도로 환경에서 다양한 주행 상황을 기록한 데이터셋으로, 자율주행 알고리즘의 개발 및 평가에 널리 사용되고 있습니다.

++ 사진 추가 예정

참고 : KITTI Vision Benchmark Suite

데이터 구성

LiDAR 센서: Velodyne HDL-64E 카메라: 두 대의 고해상도 카메라 GPS/IMU: 글로벌 포지셔닝 시스템(GPS) 및 관성 측정 장치(IMU) 포인트 클라우드: 각 프레임마다 3D 포인트(x, y, z)와 반사 강도(intensity) 정보 포함 이미지 데이터: RGB 이미지, 스테레오 이미지 (monocular, stereo camera datset) 기타: 주행 경로 정보, 시간 동기화된 센서 데이터

++ 사진 추가 예정 (차량에 센서들 설치된 거)

주요 Tasks

KITTI 데이터 셋을 활용하여 다양한 Task를 해결하려하고 있으며 다양한 Task에는 아래의 예시들이 있습니다.

1. 객체 탐지(Object Detection)

KITTI 센서 데이터를 사용하여 차량, 보행자, 자전거 등 다양한 객체를 2D/3D 탐지합니다. 사용되는 센서 데이터는 아래와 같습니다.

++ 사진 추가 예정

2. 객체 추적(Object Tracking)

객체 추적은 “연속된 프레임”에서 “객체를 추적”하여 “이동 경로를 파악”하는 작업입니다. 이 작업은 자율주행차가 “도로 위의 이동 객체를 지속적으로 인식”하고, “그 움직임을 예측”하여 주행 전략을 세우는 데 중요합니다.

사용되는 센서 데이터는 아래와 같습니다.

기술에 대한 추가 설명은 아래와 같습니다.

++ 사진 추가 예정

3. 깊이 추정(Depth Estimation)

깊이 추정은 단일 이미지 또는 스테레오 이미지 쌍을 사용하여 각 픽셀의 깊이(depth)를 추정하는 작업입니다. 이는 3D 재구성과 거리 측정을 위한 중요한 기반을 제공합니다.

사용되는 센서 데이터는 아래와 같습니다.

기술에 대한 추가 설명은 아래와 같습니다.

++ 사진 추가 예정

4. 주행 거리 측정(Odometry)

주행 거리 측정은 연속된 LiDAR 프레임과 IMU 데이터를 사용하여 차량의 주행 경로를 추정하는 작업입니다. 이는 SLAM (Simultaneous Localization and Mapping) 연구에서 중요하게 사용됩니다.

사용되는 센서 데이터는 아래와 같습니다.

기술에 대한 추가 설명은 아래와 같습니다.

++ 사진 추가 예정

5. 장면 분할(Scene Segmentation)

장면 분할은 각 픽셀 또는 포인트를 특정 클래스(예: 도로, 보도, 차량)로 분류하는 작업입니다. 이는 자율주행차가 주변 환경을 이해하고, 주행 계획을 수립하는 데 중요한 역할을 합니다.

사용되는 센서 데이터는 아래와 같습니다.

기술에 대한 추가 설명은 아래와 같습니다.

++ 사진 추가 예정

작성중 …

이것저것 공부하면서 KITTI 데이터셋에 대해 새로 알게 되는 내용은 계속 추가할 예정입니다. 궁금한 것들이나 추가 및 수정했으면 좋겠는 거 말해주시면 좋을 거 같아요. 좋은 하루 보내시길 바래요 :)