생활

자율주행 자동차가 보행자와 탑승자 중 한 명을 희생해야만 하는 '트롤리 딜레마', 현재 AI는 어떻게 코딩되어 있나요?

완전 자율주행 자동차가 도로를 달리다가, 갑자기 무단횡단하는 어린이 5명을 피하려면 절벽으로 돌진해 탑승자 1명이 죽어야만 하는 극단적인 '트롤리 딜레마' 상황에 처했다고 가정해 봅니다. 윤리적 판단을 할 수 없는 AI는 이런 찰나의 순간에 보행자 보호와 탑승자 보호 중 어느 쪽을 우선순위로 선택하도록 소프트웨어적/알고리즘적으로 코딩되어 있는지, 글로벌 자율주행 기업들의 실제 프로그래밍 기준이 궁금합니다.

1개의 답변이 있어요!

  • 이건 영화나 토론에서는 많이 나오지만, 실제 자율주행 개발에서는 그렇게 “누굴 희생할지 선택”하는 식으로 코딩되어 있지 않습니다.

    대표적으로 Tesla, Waymo 같은 회사들도 공통적으로 강조하는 건 하나입니다.
    애초에 그런 선택 상황 자체를 만들지 않도록 하는 것에 집중합니다.

    현실적인 접근은 대략 이런 흐름입니다.

    첫째, 위험 예측과 회피가 최우선입니다.
    센서(카메라, 라이다 등)로 주변을 계속 분석해서 보행자 움직임을 미리 예측하고, 급상황이 오기 전에 감속·차선 변경 같은 행동으로 위험을 줄입니다. 즉 “충돌 상황 전에 끝낸다”가 기본입니다.

    둘째, 충돌이 불가피한 경우에도 “피해 최소화” 원칙을 따릅니다.
    이때 특정 집단(보행자 vs 탑승자)을 선택하는 게 아니라, 물리적으로 가능한 범위 내에서 전체 위험을 최소화하는 방향으로 제어합니다. 예를 들어 속도를 최대한 줄이고, 충격을 완화할 수 있는 방향으로 조향하는 식입니다.

    셋째, 법과 안전 기준을 우선합니다.
    각 나라 규제는 명확히 “보행자 보호”를 강하게 요구하고 있어서, 시스템은 기본적으로 교통법규와 안전 기준을 지키는 방향으로 설계됩니다. 다만 그렇다고 해서 “무조건 탑승자 희생” 같은 식으로 단순하게 정해져 있지는 않습니다.

    넷째, 윤리 판단을 직접 넣기보다는 확률 기반 모델입니다.
    AI는 “이쪽은 5명, 저쪽은 1명” 이런 식으로 사람 수를 세서 결정하지 않습니다. 대신 각 행동의 사고 확률, 피해 규모 등을 계산해서 가장 위험이 낮은 선택을 하도록 학습되어 있습니다.

    결론적으로 말씀드리면
    현재 자율주행 AI는 트롤리 딜레마처럼 “누굴 죽일지 고르는 코드”는 없고,
    위험 회피 → 피해 최소화 → 법규 준수 순으로 설계되어 있습니다.

    그래서 질문처럼 극단적인 상황에서는 하나의 정해진 답이 있다기보다, 그 순간 물리적으로 가능한 범위 안에서 가장 안전하다고 판단되는 행동을 하게 됩니다.

    채택 보상으로 44베리 받았어요.

    채택된 답변