학문
자율주행차 지붕에 달린 라이다(LiDAR)는 폭우나 눈이 내릴 때 오작동하지 않나요?
자율주행 벤치마킹할 때 지붕에 달린 라이다 센서를 보면, 수백만 개의 레이저를 쏴서 돌아오는 시간을 재는 거잖아요. 근데 비가 엄청 오거나 눈송이가 흩날릴 때, 그 작은 물방울들에 빛이 반사되어 돌아오면 시스템이 '사방이 벽이다!'라고 착각하지 않게 어떻게 필터링을 거치는 건지 그 노이즈 캔슬링 소프트웨어 기술이 진짜 궁금해요
4개의 답변이 있어요!
안녕하세요. 서종현 전문가입니다.
자율주행차 지붕에 달린 라이다(LiDAR)는 비나 눈 같은 악천후 상황에서 작은 물방울이나 눈송이에 빛이 반사되어 노이즈가 생길수있습니다. 이를 방지하기 위해 라이다 시스템은 여러 단계의 소프트웨어 필터링과 신호 처리 기술을 사용합니다. 먼저, 시간차와 강도, 위치 정보를 기반으로 불필요한 레이저 반사신호(예:비 · 눈, 먼지 등)를 구분해 제거하는 알고리즘이 있습니다. 또한, 여러 라이다 센서 데이터를 융합하고 주변 카메라, 레이더 센서와 함께 비교해 신뢰할수없는 데이터를 걸러냅니다. 머신러닝 기술도 적용되어 악천후시 특유의 노이즈 패턴을 학습, 실시간으로 노이즈 캔슬링을 수행합니다. 이와 함께 물리적 센서 설계도 빗방울이 센서에 직접 닿지 않도록 하거나, 투명 코팅으로 빗물 흘림을 최소화해 신호 왜곡을 줄입닏. 이런 종합적 대응 덕분에 라이다는 폭우나 눈 속에서도 비교적 안정적인 환경인식이 가능합니다.
안녕하세요. 고한석 전문가입니다.
빗방울·눈송이는 차량 주변 고정 장애물과 달리 반사 강도(intensity)가 매우 약하고 포인트 클라우드에서 불규칙하게 분산되는 패턴을 보이는데, LiDAR 펌웨어가 수신 신호의 반사 강도 임계값과 연속 프레임 간 위치 일관성을 동시에 체크해서 "너무 약하고 제멋대로 움직이는 반사점"은 노이즈로 걸러내는 방식이에요.
더 정교한 필터링은 DROR(Dynamic Radius Outlier Removal)·RANSAC 같은 포인트 클라우드 알고리즘이 담당하는데, 진짜 장애물은 여러 프레임에 걸쳐 같은 위치에 안정적으로 잡히는 반면 빗방울은 프레임마다 위치가 튀어서 "시간축 일관성 검사"만으로도 상당 부분 제거되고, 여기에 카메라·레이더 센서 데이터를 융합(sensor fusion)해서 LiDAR가 헷갈리는 상황을 교차 검증으로 보완해요.
그래도 폭우·폭설은 현재 자율주행의 가장 큰 약점이 맞는데, 테슬라가 카메라 중심으로 가는 이유 중 하나도 이거고, Waymo·Mobileye는 고해상도 맵(HD Map)과 실시간 센서 데이터를 비교해서 "맵에 없는 물체 = 진짜 장애물, 맵에 있어야 할 도로가 막힌 것처럼 보임 = 날씨 노이즈"로 판단하는 레이어를 추가해 악천후 오인식률을 낮추고 있어요.
폭우나 눈에서는 라이다가 노이즈 때문에 그대로 쓸 경우 센서로써 오판을 내릴 가능성이 클 수 있습니다.
물론 빗방울이나 눈은 반사 신호가 약하고 지속시간이나 크기 패턴이 비교적 일정하기 때문에 소프트웨어가 일시적인 점 정도로 걸러낼 수도 있습니다.
실제로 여러 프레임을 겹쳐서 계속 같은 위치에 남는 점만 실제 물체로 인정하는 방식도 활용된다고 하네요. 그리고 레이저의 강도나 거리 분포를 기준으로 이상치를 제거하고, 주변의 포인트와 맞지 않는다면 삭제하는 방식도 적용될 수 있습니다.
점차 나아지겠지만, 아직은 그래도 한계가 있어서 심한 폭설이나 폭우에서는 자율주행 성능이 떨어지는 것은 사실입니다.
안녕하세요. 감병주 전문가입니다.
자율주행차의 라이다는 비나 눈에도 반응하지만 이를 그대로 장애물로 인식하지 않도록 필터링합니다. 물방울, 눈송이는 신호가 약하고 가까우며 계속 위치가 바뀌는 특징이 있어 구분이 가능합니다. 시스템은 거리, 강도 필터와 시간 누적 분석으로 이런 노이즈를 제거합니다. 또 점들이 모여 있는 형태인지 분석해 실제 물체와 구별합니다. 여기에 카메라, 레이더를 함께 사용하는 센서 융합으로 정확도를 높입니다. 다만 폭우나 폭설에서는 성능이 일부 저하될 수 있습니다.