자율주행차의 눈, 하늘선을 읽다
자율주행차가 도심 속 건물 구조와 지도 정보를 결합해 정확한 위치를 파악하는 미래 기술의 개념을 시각화한 이미지. |
"여기 어디야?"
도심 한복판. 차들이 오가고, 건물들은 각기 다른 높이로 서 있다. 이 혼란스러운 풍경 속에서 자율주행차는 어떻게 자신이 어디에 있는지 정확히 알 수 있을까? 바로 그 해답을 찾기 위한 흥미로운 연구가 최근 발표됐다. 제목은 다소 딱딱하지만 내용은 흥미진진하다. “Fusing Horizon Information for Visual Localization”, 즉 ‘하늘선 정보를 결합해 위치를 찾는 기술’이다.
이 연구는 위치추정 기술의 미래를 그려낸다. 그리고 그 중심엔 단순한 풍경 속, ‘하늘선’이라는 개념이 있다.
고정밀 지도를 넘어서기 위한 도전
자율주행차의 ‘눈’이라 불리는 시각 위치추정 기술(Visual Localization). 지금까지는 고정밀 지도(HD Map)를 기반으로 한 기술이 주류였다. 하지만 이 방식에는 큰 약점이 있었다. 지도는 제작비가 비쌀뿐더러 실시간 업데이트가 어렵다. 건물 하나만 새로 생겨도 혼란이 발생할 수 있는 구조다.
그렇다면 고정밀 지도 없이도, 도로 위에서 자신이 어디에 있는지 아는 방법은 없을까?
여기에 착안해 기존 시각 위치추정 기술을 개선하려는 시도가 많았고, 대표적인 예가 Google이 만든 ‘OrienterNet’이다. 하지만 문제는 있었다. 이미지 속 정보가 평면적으로 처리되면서, 실질적으로 위치 오차가 발생하기도 했다.
이 논문은 바로 그 한계를 정면으로 돌파했다.
수직적 정보의 반란: 하늘선 기반 위치추정
연구팀이 제안한 새로운 방식은 기존과는 시선부터 다르다. 기존 기술이 주로 수평선과 평면적 특징에만 집중했다면, 이번 연구는 ‘수직적 요소’, 즉 하늘선과 건물의 높이, 깊이, 경계선 정보까지 끌어들인다.
이를 위해 도입된 개념이 바로 ‘스틱셀(Stixel)’이다. 쉽게 말해, 이미지 속에서 건물의 가장자리나 사람, 나무 등의 수직 구조를 기둥처럼 표현한 것이다. 각각의 스틱셀은 색, 깊이, 위치 등 다양한 정보를 담고 있어 ‘무엇이 어디에 있는지’를 더욱 명확하게 알려준다.
게다가 이 스틱셀 정보를 기존 지도(OpenStreetMap)와 결합해, 단순히 ‘여기쯤이야’가 아니라 ‘이 각도에서 이 거리만큼 떨어진 저 건물’을 기반으로 훨씬 정확한 위치를 계산할 수 있다.
지도와 하늘선을 어떻게 연결할까?
구체적인 방식은 이렇다:
- 카메라 이미지 분석: 차량 전방 영상을 CNN으로 분석하고, 하늘에서 내려다본 시야(BEV)로 변환
- 지도 분석: OpenStreetMap의 건물 데이터를 거리·각도 기반으로 재구성
- 스틱셀 추출: 건물 경계를 수직 기둥처럼 표현하여 거리, 방향 정보를 추출
- 회전 매칭: 다양한 각도로 이미지를 회전하며 지도와 가장 잘 맞는 방향 탐색
결국 이 방식은 이미지와 지도를 단순히 '겹치는 것'이 아닌, 거리와 각도의 물리적 관계까지 반영해 정밀도를 높인 것이다.
효과는 어땠을까?
KITTI, MGL 데이터셋을 이용한 실험에서 눈에 띄는 결과가 나왔다.
- 1미터 이내 위치 예측 성공률이 기존 기술보다 향상
- 회전 방향 오차 1도 이내의 정확도도 최고 수준
- 도심의 복잡한 구조에서도 강한 내성
실시간 대응 속도도 향상되어 실제 자율주행 시스템에 활용 가능한 수준임이 입증됐다.
도시가 아닌 ‘건물’을 읽는 기술
이 기술은 단순한 위치추정 기술이 아니라, 자율주행차가 도시를 바라보는 방식 자체를 바꿨다. 기존이 ‘도로 중심’이었다면, 이 기술은 ‘건물 중심’의 해석 체계를 만들어냈다. 건물의 실루엣, 각도, 밀도 등을 조합해 도심을 인식하는 새로운 방식이다.
다음은 어디? 멀티센서 시대를 향한 확장
연구팀은 향후 라이다, GPS 등 다양한 센서를 결합하고, 시간 흐름에 따라 누적된 이미지 데이터를 활용해 더욱 강력한 위치추정 모델을 만들 수 있다고 본다. 단순히 “지금 어딘가”를 넘어서 “어디로 향하고 있는지”까지 추정이 가능하다는 것이다.
자율주행의 미래, “보는 법”이 달라진다
이제 자율주행차는 도로 위만 보는 것이 아니다. 건물의 가장자리, 하늘선의 흐름까지 읽어낸다. 마치 사람처럼 주변을 둘러보고, 방향을 잡는 진짜 ‘시선’을 가지게 된 것이다.
‘여기 어디야?’라는 질문에 대한 답, 자율주행차는 훨씬 더 정확하게, 빠르게, 똑똑하게 대답할 준비가 됐다.
📌 출처 논문
Zhang, C.; Yang, Y.; Wang, Y.; Zhang, H.; Li, G. Fusing Horizon Information for Visual Localization. AI 2025, 6, 121.